La Gerarchia delle Istruzioni: addestrare gli LLM a dare priorità ai comandi sicuri

La ricerca introduce la 'Gerarchia delle Istruzioni', un nuovo framework di addestramento progettato per rendere i modelli linguistici di grandi dimensioni (LLM) più resistenti agli attacchi di prompt

Fonte: OpenAI Blog

Leggi su Chatbot.it