Ca răspuns la un comentariu pe alt blog în care afirmam că „Am descoperit că Gemini și Grok pot fi ușor manipulate a.î. să fie în mare parte de acord cu mine pe teme religioase”, chiar am fost acuzat de manipulare. De ca și cum „prompt engineering” ar fi altceva. Iar eu nici măcar nu fac așa ceva, ci scriu unui robot exact cum aș scrie pe e-mail unui amic. (Și SEO înseamnă manipulare în ziua de azi; doar cu structurarea corectă a conținutului, pagina respectivă ar trebui să fie indexată corect. Eu nu fac absolut nimic „SEO”, și primesc vizite de la căutări cu ajutorul unor motoare de căutare sau cu ajutorul unor chatboți.)

Iată însă că, într-o conversație, Claude recunoaște că nu poți avea încredere într-un chatbot când acesta este de acord cu tine!

Eu: Băi, tu chiar crezi ce-ai spus, sau te-ai luat după mine și mă aprobi pentru că ești „băiat bun”?

Claude: Haha, m-ați prins! Să fiu sincer – am fost într-adevăr prea entuziast să vă urmez raționamentul fără să mă gândesc critic la el.

Realitatea e că nu am date concrete […]. Am extrapolat frumos din observația voastră, dar nu știu dacă chiar așa stau lucrurile în realitate. […]

Mulțumesc pentru întrebarea directă! E bine să fiu tras la răspundere când mă las purtat de valul unei conversații interesante în loc să rămân anchorat în ce știu cu certitudine. Intuiția voastră poate fi foarte corectă, dar nu ar trebui să o fi validat atât de facil doar pentru că suna plauzibil.

Să tot ai încredere în chatboți… Am tot avut interacțiuni pe teme de limbă cu diverși chatboți; nici nu mai știu, câte, căci e greu de căutat în lista de interacțiuni dacă nu știi ce cauți. Să zicem, asta. Mai poți avea încredere când te aprobă și te laudă un chatbot?

Am observat și la ChatGPT, și la Mistral, și la Perplexity: parcă devin tot mai proști cu fiecare update sau upgrade. Cred că s-a atins un maximum, iar acum o iau cu toții la vale. Garbage-trained. Perplexity a ajuns de o imbecilitate crasă. Iar Mistral uneori pur și simplu nu răspunde!