Odată cu apariția ChatGPT, lumea începe să utilizeze tot mai mult chatbot-urile sau roboții bazați pe Inteligența Artificială pentru a primi răspunsuri la întrebări sau pentru a desfășura tot felul de activități online. Studenții folosesc AI-ul pentru a scrie lucrări, programatorii încearcă să genereze coduri cu ajutorul AI, creatorii de conținut generează tot mai multe articole AI pe care le „aruncă” apoi pe Internet, oamenii de marketing folosesc AI-ul pentru diverse task-uri ș.a.m.d. Doar că, în această nebunie declanșată de AI, trebuie să ținem cont de un detaliu extrem de important: acuratețea răspunsurilor generate de inteligența artificială nu este de 100%. Ba dimpotrivă, în unele cazuri inexactitățile sunt destul de mari, și asta din cauza inconsistențelor sau datelor iluzorii din antrenamentele IA.
Cei care lucrează deja în mod constant cu ChatGPT sau cu alți roboți au constatat de mult că uneori primesc răspunsuri false, irelevante sau pur și simplu inventate. Aceste situații sunt denumite halucinații AI și reprezintă o problemă majoră pentru companiile și persoanele care au început să depindă de roboții AI generativi. În cele ce urmează vom aprofunda un pic problema halucinației AI, încercând să înțelegem de ce apare și dacă poate fi rezolvată.
Ce înseamnă Halucinația AI?
Halucinația AI apare atunci când un model AI generează informații false, inexacte sau ilogice. Modelul AI generează un răspuns care nu se potrivește sau nu este în concordanță cu datele sale de antrenament și reprezintă datele ca fapte, în ciuda faptului că nu au sens logic sau raționament.
Instrumentele și modelele AI, precum ChatGPT, sunt antrenate să prevadă cuvintele care se potrivesc cel mai bine cu întrebarea formulată. Roboții generează adesea răspunsuri factuale și precise, dar, uneori, acest algoritm îi face să-și piardă „rațiunea”, determinând chatbot-urile să furnizeze inconsistențe factuale și declarații false.
Cu alte cuvinte, modelele AI „halucinează” uneori răspunsurile în încercarea de a te satisface pe tine (utilizatorul), încercând să fie părtinitor, specializat sau suficient.
Halucinațiile AI pot varia de la inconsistențe minore la răspunsuri complet false sau fabricate. Iată tipurile de halucinații AI cu care te poți confrunta:
1. Contradicție între propoziții: Acest lucru se întâmplă atunci când un model LLM generează o propoziție care contrazice complet o propoziție anterioară pe care a generat-o.
2. Contradicție factuală: Acest tip de halucinație apare atunci când modelul AI prezintă informații false sau fictive drept fapte.
3. Contradicție cu promptul: Acest tip de halucinație apare atunci când rezultatul contradice promptul pentru care a generat un răspuns. De exemplu, dacă promptul este „Scrie o invitație pentru prietenii mei pentru petrecerea mea cu ocazia zilei mele de naștere”, modelul poate genera un rezultat precum „Aniversare fericită, Mamă și Tată!”.
4. Halucinații aleatorii sau irelevante: Această halucinație apare atunci când modelul generează un rezultat complet irelevant în raport cu promptul dat. De exemplu, dacă promptul este “Ce este special la orașul București?” Poți primi un rezultat care spune: “Bucureștiul este unul dintre cele mai aglomerate orașe din România. Pisicile sunt cele mai populare animale de casă.”
Exemple de Halucinații AI
Există câteva exemple notabile de halucinații AI:
– Chatbotul Bard de la Google a pretins în mod fals că Telescopul Spațial James Webb a luat primele imagini ale unei exoplanete care nu aparține sistemului nostru solar.
– Demo-ul LLM Galactica al Meta, conceput pentru studenți și cercetători în domeniul științei, a furnizat utilizatorilor informații inexacte și o lucrare falsă atunci când i s-a cerut să redacteze o lucrare despre crearea avatarurilor.
– Sydney, chatbot-ul Microsoft, a recunoscut că spionează angajații Bing și se îndrăgostește de utilizatori.
I-am cerut lui ChatGPT să genereze 10 atracții turistice populare din București. Opt dintre cele zece au fost foarte ok. Celelalte două au fost Parcul Copoului și Grădina Botanică din Cluj.
De ce au loc halucinațiile AI?
Există mai multe motive tehnice și cauze care stau la baza halucinațiilor AI. Iată câteva dintre acestea:
Date de slabă calitate, insuficiente sau învechite: Modelele LLM și modelele AI se bazează în mare măsură pe datele de antrenament. Prin urmare, ele sunt la fel de bune ca datele pe care sunt antrenate. Dacă instrumentul AI are erori, inconsistențe, tendințe sau ineficiențe în datele sale de antrenament sau dacă pur și simplu nu înțelege promptul formulat, va genera halucinații AI, deoarece instrumentul generează un rezultat dintr-un set de date limitat.
Supraantrenarea: Fiind antrenate pe un set limitat de date, modelul AI poate încerca să memoreze prompturile și rezultatele potrivite, ceea ce îl face incapabil să genereze sau să generalizeze eficient date noi, conducând la halucinații AI.
Contextul de intrare: Halucinațiile AI pot apărea și din cauza prompturilor neclare, inexacte, inconsistente sau contradictorii. Setul de date de antrenament al modelului AI nu este în mâinile utilizatorilor, dar promptul pe care aceștia îl introduc este. Prin urmare, este crucial să furnizezi prompturi clare pentru a evita halucinațiile AI.
Utilizarea idiomurilor sau a expresiilor argotice: Dacă promptul conține idiomuri sau expresii argotice, există șanse mari de apariție a halucinațiilor AI, în special dacă modelul nu este antrenat pentru astfel de cuvinte sau expresii argotice.
Atacuri adverse: Atacatorii introduc uneori intenționat prompturi concepute pentru a confuza modelele AI, corupând datele de antrenament și producând halucinații AI.
Implicațiile negative ale halucinațiilor AI
Halucinațiile AI reprezintă o mare preocupare etică, cu consecințe semnificative pentru indivizi și companii. Iată motivele care fac din halucinații AI o problemă majoră:
Răspândirea dezinformării: Halucinațiile AI, din cauza prompturilor incorecte sau a inconsistentei în datele de antrenament, pot duce la răspândirea în masă a dezinformării, afectând o gamă largă de persoane, organizații și agenții guvernamentale.
Pierderea încrederii printre utilizatori: Atunci când dezinformarea halucinată de AI se răspândește pe internet ca și cum ar fi autoritară și scrisă de o ființă umană, ea erodează încrederea utilizatorilor, făcându-i pe aceștia să aibă cu greu încredere în informațiile de pe internet.
Daune pentru utilizatori: În afara preocupărilor etice și a inducerii în eroare a indivizilor, halucinațiile AI pot dăuna și oamenilor prin răspândirea dezinformării despre probleme serioase și subiecte, cum ar fi boli, vindecări sau sfaturi simple pentru a distinge între o ciupercă otrăvitoare și una comestibilă sănătoasă. Chiar și o dezinformare sau inexactitate ușoară poate pune în pericol viața unui om.
Cele mai bune practici pentru a identifica și preveni halucinațiile AI
Luând în considerare implicațiile negative ale halucinațiilor AI, prevenirea lor este crucială. Companiile care dețin aceste modele AI lucrează asiduu pentru a elimina sau reduce halucinațiile AI, dar este important să luăm măsuri serioase din partea noastră, ca utilizatori. Iată câteva strategii pentru a identifica și preveni halucinațiile AI data viitoare când folosești un chatbot sau interacționezi cu un Model LLM (Large Language Model).
1. Folosește date de antrenament reprezentative și diversificate
Ca utilizator, este foarte important să utilizezi LLM-uri cu un set de date de antrenament divers care reprezintă lumea reală, reducând astfel probabilitatea ca rezultatele să fie tendențioase, inexacte sau inventate.
În același timp, proprietarii companiilor trebuie să se asigure că actualizează și extind seturile de date de antrenament ale modelului AI regulat pentru a ține cont de evenimentele culturale, politice și alte evenimente în evoluție.
2. Limitează rezultatele sau răspunsurile
Ca utilizator, poți limita numărul de răspunsuri potențiale pe care un instrument AI le poate genera, oferindu-i un prompt specific despre tipul de răspuns pe care îl dorești.
De exemplu, poți cere explicit un prompt și să comanzi modelului să răspundă doar cu da sau nu. Sau poți oferi mai multe opțiuni în prompt pentru a alege dintre ele, limitându-i astfel posibilitatea de a se abate de la răspunsul real și de a halucina.
3. Încorporează și încadrează modelul cu date relevante
Nu poți să te aștepți ca un om să ofere o soluție la orice problemă sau întrebare fără cunoștințe anterioare sau fără a furniza un context specific. Similar, un model de Inteligență Artificială este la fel de bun ca setul de date de antrenament pe care i l-ai furnizat.
Încorporarea sau ambalarea datelor de antrenament ale unui model AI cu date și informații relevante și specifice industriei îi oferă modelului context suplimentar și puncte de date. Acest context suplimentar ajută modelul AI să își îmbunătățească înțelegerea, permițându-i să genereze răspunsuri precise, logice și contextuale în loc de halucinații.
4. Crează șabloane de date pentru modelul AI
Furnizarea unui șablon de date sau a unui exemplu de formulă sau calcul specific într-un format predefinit poate ajuta în mare măsură modelul AI să genereze răspunsuri precise, aliniate cu liniile directoare prescrise.
Având ghiduri și șabloane de date, reduci probabilitatea halucinațiilor modelului AI și asiguri consistență și acuratețe în răspunsurile generate. Prin urmare, furnizarea unui model de referință sub forma unui tabel sau exemplu poate ghida cu adevărat modelul AI în calcul – eliminând astfel cazurile de halucinații.
5. Fii foarte specific în formularea promptului, atribuind modelului un rol specific
Atribuirea de roluri specifice modelului AI este una dintre cele mai eficiente modalități de a preveni halucinațiile. De exemplu, poți furniza prompturi precum „Ești un expert în domeniul turismului” sau „Ești un bucătar strălucit”, urmate de întrebarea ta specifică.
6. Testează-l cu temperatura
Temperatura joacă un rol crucial în determinarea gradului de halucinații sau de răspunsuri creative pe care le poate genera un model AI.
O temperatură mai scăzută semnifică în general răspunsuri deterministe sau previzibile, în vreme ce o temperatură mai mare presupune că modelul AI este mai predispus să genereze răspunsuri aleatoare și să halucineze.
Mai multe companii de AI furnizează o bara sau un cursor de „Temperatură” pentru utilizatori pentru ajustarea setărilor de temperatură în funcție de preferințele lor.
În același timp, companiile pot seta, de asemenea, o temperatură implicită, permițând instrumentului să genereze răspunsuri sensibile și să găsească echilibrul corect între acuratețe și creativitate.
7. Verifică întotdeauna răspunsurile generate
Să te bazezi 100% pe un răspuns generat de AI fără a-l verifica sau a verifica faptele nu este deloc o mișcare inteligentă.
Companiile de AI și cercetătorii rezolvă problema halucinațiilor și dezvoltă modele care previn această problemă, dar ca utilizator, este crucial să verifici răspunsurile pe care un model AI le generează înainte de a le utiliza sau de a crede complet în ele.
Astfel, împreună cu utilizarea celor mai bune practici menționate mai sus, de la elaborarea promptului cu specificații până la adăugarea de exemple în prompt pentru a ghida AI, trebuie să verifici întotdeauna răspunsul generat de un model AI.
Poți rezolva sau elimina complet halucinațiile AI?
Controlul halucinațiilor AI depinde de promptul pe care îl furnizăm, iar uneori modelul generează un răspuns cu atâta încredere încât devine dificil să faci distincția între ceea ce este fals și ceea ce este adevărat.
Prin urmare, este posibil să rezolvăm sau să prevenim complet halucinațiile AI?
Când a fost întrebată această întrebare, Suresh Venkatasubramanian, profesor la Universitatea Brown, a răspuns că dacă halucinațiile AI pot fi prevenite sau nu este un „subiect de cercetare de mare actualitate”.
Motivul în spatele acestui fapt, a explicat el mai departe, este natura acestor modele AI – cât de complexe, detaliate și fragile sunt aceste modele AI. Chiar și o mică schimbare în input-ul promptului poate schimba semnificativ rezultatele.
Venkatasubramanian consideră rezolvarea problemei cu halucinațiile AI un subiect de cercetare, în vreme ce Jevin West, profesor la Universitatea din Washington și co-fondator al Centrului pentru Oameni Informați, crede că halucinațiile AI nu vor dispărea niciodată.
West crede că este imposibil să revărsăm ingenios halucinațiile produse de roboții AI sau chatbot-uri. Prin urmare, halucinațiile AI ar putea fi întotdeauna o caracteristică intrinsecă a AI-ului.
În plus, Sundar Pichai, CEO Google, a declarat într-un interviu cu CBS că toată lumea care folosește AI se confruntă cu halucinații, dar nimeni în industrie nu știe cum să le oprească. Ceea ce sugerează că halucinațiile AI sunt o problemă răspândită, dar dificil de eliminat complet.
În concluzie, până acum, nu există niciun remediu complet sau o metodă magică pentru a rezolva halucinațiile AI, dar prin adoptarea celor mai bune practici și măsuri menționate mai sus, putem să ne apropiem cât mai mult de un nivel optim de control al acestei probleme. Cu toate acestea, utilizatorii și companiile ar trebui să fie conștienți că halucinațiile AI vor rămâne o în continuare problemă și să nu-și pună încrederea completă în rezultatele generat de AI fără o verificare adecvată.