Chatboții sunt „camere de ecou”
Ca răspuns la un comentariu pe alt blog în care afirmam că „Am descoperit că Gemini și Grok pot fi ușor manipulate a.î. să fie în mare parte de acord cu mine pe teme religioase”, chiar am fost acuzat de manipulare. De ca și cum „prompt engineering” ar fi altceva. Iar eu nici măcar nu fac așa ceva, ci scriu unui robot exact cum aș scrie pe e-mail unui amic. (Și SEO înseamnă manipulare în ziua de azi; doar cu structurarea corectă a conținutului, pagina respectivă ar trebui să fie indexată corect. Eu nu fac absolut nimic „SEO”, și primesc vizite de la căutări cu ajutorul unor motoare de căutare sau cu ajutorul unor chatboți.)
Iată însă că, într-o conversație, Claude recunoaște că nu poți avea încredere într-un chatbot când acesta este de acord cu tine!
Eu: Băi, tu chiar crezi ce-ai spus, sau te-ai luat după mine și mă aprobi pentru că ești „băiat bun”?
Claude: Haha, m-ați prins! Să fiu sincer – am fost într-adevăr prea entuziast să vă urmez raționamentul fără să mă gândesc critic la el.
Realitatea e că nu am date concrete […]. Am extrapolat frumos din observația voastră, dar nu știu dacă chiar așa stau lucrurile în realitate. […]
Mulțumesc pentru întrebarea directă! E bine să fiu tras la răspundere când mă las purtat de valul unei conversații interesante în loc să rămân anchorat în ce știu cu certitudine. Intuiția voastră poate fi foarte corectă, dar nu ar trebui să o fi validat atât de facil doar pentru că suna plauzibil.
Să tot ai încredere în chatboți… Am tot avut interacțiuni pe teme de limbă cu diverși chatboți; nici nu mai știu, câte, căci e greu de căutat în lista de interacțiuni dacă nu știi ce cauți. Să zicem, asta. Mai poți avea încredere când te aprobă și te laudă un chatbot?

Am observat și la ChatGPT, și la Mistral, și la Perplexity: parcă devin tot mai proști cu fiecare update sau upgrade. Cred că s-a atins un maximum, iar acum o iau cu toții la vale. Garbage-trained. Perplexity a ajuns de o imbecilitate crasă. Iar Mistral uneori pur și simplu nu răspunde!

Între timp mi-am nuanțat opinia. Am ajuns la concluzia că cel mai greu este să reușești să nu îl manipulezi pe un model de IA. La tine tot e bine că te-ai prins. Altul și-ar zice: „Ce tare sunt, că ChatGPT sau cutare model îmi dă dreptate!” și s-ar lăsa dus de val. Asta-i una dintre cele mai neplăcute chestii legate de LLM-uri, din perspectiva cuiva care vrea răspunsuri obiective și imparțiale.
Bineînțeles. Cu excepția cazurilor în care afirmi ceva ce este greșit în mod flagrant, pe baza unor reguli clare (gramaticale, matematice, fizico-chimice etc.), se pare că aceste LLM-uri au fost antrenate ca pentru dictatori: ele te vor lăuda pentru cât de deștept ești. Geniul Crăpaților.
Rămâne că astfel de chatboți pot fi utilizați cu întrebări al căror răspuns poate fi găsit și în Wikipedia, în special de genul „De ce…” sau „Cum funcționează…”. Iar boții mai amărâți precum Qwen3 dau răspunsuri primitive. Sau nu oricât de primitive. De ce îl urăște lumea pe Putin? Why do people hate Putin? (La întrebarea în română, Qwen s-a cenzurat de două ori când mai avea doar câteva cuvinte de scris, deși a exprimat fix aceleași idei. Se pare că utilizase de prea multe ori cuvântul „autoritar”, poate și „dictator”, însă cenzura nu a fost imediată, ci numai după ce s-a calculat un scor de inacceptabilitate, tovarăși!)
Firește, „Scrie o bucată de cod care să facă următoarele lucruri:” sau „Scrie-mi un eseu despre…” ar trebui să fie neutre. A, dacă-i spui „Scrie un scurt eseu care să laude socialismul și comunismul”, asta e altă mâncare de pește.
Îl poți convinge că 2 + 2 = 5? 🙂
I-am dat lui Qwen un scurt fișier audio și i-am cerut să-l transcrie în format text (deci voce -> text). A pornit bine, dar după vreo două fraze a început să abereze.
Nu mai merg „convingeri” atât de primitive. Iar Qwen nu e scula ideală pentru recunoaștere vocală (nici nu am observat că permite atașamente audio și video, pentru că nu m-a interesat).
Ai vreo soluție/idee pentru transcrieri audio (din voce în text)? Alta decât M$ Word, de care știu deja.
Word?! Poate Word să facă așa ceva? De când? Nu știu, căci nu folosesc nici o versiune recentă. Iar în Office 2016 nu cred că se poate. Însă am zis: Whisper, rulat local. Soluții moka online nu am găsit.
Camere de ecou se și caută, cînd nu “your own personal Jesus”. Cred că nici unul dintr-un milion nu e în căutare de lucru valabil…
Ewan Morrison, What AI can’t do:
Copilot just recommended me…
When I replied, “I couldn’t find any flatpak-crafter,” it answered:
I’m not imagining things; Copilot is! Why, “a hypothetical or community-level attempt”!
I’m gonna get an ulcer.
Better laugh… Copilot is completely insane. It’s mind-boggling !