Com reduir les al·lucinacions de les IA
Bones pràctiques abans, durant i després d’una conversa amb una IA
Les al·lucinacions en models LLM com ChatGPT són respostes inventades o imprecises, sovint expressades amb aparença de seguretat, tot i no tenir una base sòlida. No es poden eliminar del tot (és una limitació intrínseca del funcionament d’aquests models), però hi ha diverses estratègies per reduir-les i detectar-les. Tot seguit uns consells en forma de checlist:
Checklist per a reduir al·lucinacions a ChatGPT:
Abans de preguntar
- ◻️ Escric la pregunta de manera clara i concreta
- ◻️ Aporto context suficient perquè entengui bé el que necessito
- ◻️ Si vull dades recents, demano que consulti la web
Durant la conversa
- ◻️ Demano que expliqui el raonament pas a pas (si és un càlcul o procés lògic)
- ◻️ Si és informació factual, demano fonts o cites verificables
- ◻️ Reviso si la resposta té coherència interna
- ◻️ Si alguna cosa no quadra, repregunto o demano una versió alternativa
Després de la resposta
- ◻️ Contrasto amb fonts externes fiables (documents oficials, webs especialitzades, articles)
- ◻️ Detecto si hi ha dades massa segures però sospitoses (números exactes, cites literals, estadístiques)
- ◻️ Divideixo la tasca en parts petites i verifico cada pas
A evitar
- ◻️ No confiar cegament en referències bibliogràfiques inventades
- ◻️ No donar per vàlid res que no pugui comprovar
- ◻️ No fer preguntes massa obertes sense marcar límit o objectiu clar
En un article de OpenAi explica perquè les IA de text al·lucinen. Podeu trovar l'article en castellà aquí.