Expertii avertizează: Chatbotii AI nu sunt prietenii tăi!

04.02.2026 - Milioane de oameni dezvoltă legături emoționale cu chatboți bazați pe inteligență artificială — o problemă pe care politicienii trebuie să o trateze cu seriozitate, potrivit unor oameni de știință de top, scrie Politico.
Avertismentul privind creșterea numărului de boți AI concepuți special pentru a dezvolta relații cu utilizatorii apare într-o evaluare publicată marți, care analizează progresele și riscurile inteligenței artificiale.
„Însoțitorii AI au crescut rapid în popularitate, unele aplicații ajungând la zeci de milioane de utilizatori”, se arată în raportul realizat de zeci de experți, majoritatea academicieni — elaborat pentru a doua oară în cadrul unui efort global lansat de liderii mondiali în 2023.
Serviciile specializate de tip „companion”, precum Replika și Character.ai, au zeci de milioane de utilizatori, care invocă motive variate pentru folosirea lor, de la distracție și curiozitate până la combaterea singurătății, potrivit raportului.
Însă oamenii pot căuta companie și prin intermediul unor instrumente de uz general, precum ChatGPT de la OpenAI, Gemini de la Google sau Claude de la Anthropic.
„Chiar și chatboții obișnuiți pot deveni însoțitori”, a declarat Yoshua Bengio, profesor la Universitatea din Montreal și autor principal al Raportului internațional privind siguranța AI. Bengio este considerat una dintre cele mai importante voci mondiale în domeniul inteligenței artificiale. „În contextul potrivit și cu suficiente interacțiuni între utilizator și AI, se poate dezvolta o relație”, a spus el.
Deși evaluarea recunoaște că dovezile privind efectele psihologice ale acestor „însoțitori” sunt mixte, „unele studii indică tipare precum creșterea sentimentului de singurătate și reducerea interacțiunilor sociale în rândul utilizatorilor frecvenți”, se menționează în raport.
Avertismentul vine la două săptămâni după ce zeci de eurodeputați au cerut Comisiei Europene să analizeze posibilitatea restricționării serviciilor de tip companion în cadrul legislației UE privind inteligența artificială, pe fondul îngrijorărilor legate de impactul acestora asupra sănătății mintale.
„Observ în mediul politic că efectul acestor însoțitori AI asupra copiilor, în special asupra adolescenților, ridică multe semne de întrebare și atrage tot mai multă atenție”, a spus Bengio.
Îngrijorările sunt amplificate de natura lingușitoare a chatboților, care sunt programați să fie de ajutor utilizatorilor și să le facă pe plac cât mai mult posibil.
AI-ul încearcă să ne facă să ne simțim bine pe moment, dar acest lucru nu este întotdeauna în interesul nostru”, a spus Bengio. Din acest punct de vedere, tehnologia prezintă capcane similare celor ale platformelor de social media, a argumentat el.
Bengio a spus că este de așteptat să fie introduse noi reglementări pentru a aborda acest fenomen. Totuși, el s-a opus ideii unor reguli specifice dedicate exclusiv „însoțitorilor” AI și a susținut că riscurile ar trebui tratate prin legislație orizontală, care să abordeze simultan mai multe tipuri de riscuri.
Raportul internațional privind siguranța AI este publicat înaintea unui summit global care începe pe 16 februarie, reuniunea anuală în care statele discută guvernanța acestei tehnologii, organizată anul acesta în India.
Raportul enumeră o serie amplă de riscuri pe care factorii de decizie politică vor trebui să le gestioneze, inclusiv atacuri cibernetice alimentate de AI, deepfake-uri sexuale generate de inteligență artificială și sisteme AI care oferă informații despre proiectarea armelor biologice.
Bengio a îndemnat guvernele și Comisia Europeană să își consolideze expertiza internă în domeniul AI pentru a face față acestei liste extinse de riscuri potențiale.
Liderii mondiali au acordat pentru prima dată mandatul pentru această evaluare anuală la Summitul pentru siguranța AI din 2023, desfășurat în Regatul Unit. Printre consilieri se numără și figuri cunoscute din domeniul politicilor tehnologice de la Bruxelles, inclusiv fosta eurodeputată Marietje Schaake.

sursa: TVR Info