Com reduir les al·lucinacions de les IA

Bones pràctiques abans, durant i després d’una conversa amb una IA

Les al·lucinacions en models LLM com ChatGPT són respostes inventades o imprecises, sovint expressades amb aparença de seguretat, tot i no tenir una base sòlida. No es poden eliminar del tot (és una limitació intrínseca del funcionament d’aquests models), però hi ha diverses estratègies per reduir-les i detectar-les. Tot seguit uns consells en forma de checlist:

Checklist per a reduir al·lucinacions a ChatGPT:

Abans de preguntar

  • ◻️ Escric la pregunta de manera clara i concreta
  • ◻️ Aporto context suficient perquè entengui bé el que necessito
  • ◻️ Si vull dades recents, demano que consulti la web

Durant la conversa

  • ◻️ Demano que expliqui el raonament pas a pas (si és un càlcul o procés lògic)
  • ◻️ Si és informació factual, demano fonts o cites verificables
  • ◻️ Reviso si la resposta té coherència interna
  • ◻️ Si alguna cosa no quadra, repregunto o demano una versió alternativa

Després de la resposta

  • ◻️ Contrasto amb fonts externes fiables (documents oficials, webs especialitzades, articles)
  • ◻️ Detecto si hi ha dades massa segures però sospitoses (números exactes, cites literals, estadístiques)
  • ◻️ Divideixo la tasca en parts petites i verifico cada pas

A evitar

  • ◻️ No confiar cegament en referències bibliogràfiques inventades
  • ◻️ No donar per vàlid res que no pugui comprovar
  • ◻️ No fer preguntes massa obertes sense marcar límit o objectiu clar

En un article de OpenAi explica perquè les IA de text al·lucinen. Podeu trovar l'article en castellà aquí.

Il·lustració digital d’un cervell humà amb circuits blaus, simbolitzant la intel·ligència artificial
El cervell humà és una metàfora habitual per representar com funcionen els models d’intel·ligència artificial, on la connexió entre neurones recorda les xarxes neuronals artificials que poden generar tant respostes útils com al·lucinacions.

Etiquetes:

chatgpt, al·lucinacions, guia, consells IA, IA

codi post: 02ca