25.03.2026 - Directoratul Naţional pentru Securitate Cibernetică (DNSC) avertizează asupra unei campanii de influenţare, cu micro-targetare la nivelul populaţiei României, în care sunt folosite personaje generate de Inteligenţa Artificială (AI), prezentate în mod fals drept angajaţi ai Poliţiei Române sau Jandarmeriei Române.
Potrivit instituţiei, scopul postărilor, care par să reflecte situaţii reale, este acela de a testa reacţia publicului şi de a identifica tipare de comportament online, pentru a calibra ulterior mesajele de influenţare viitoare.
“Semnalăm o campanie de influenţare cu micro-targetare la nivelul populaţiei României, care exploatează emoţiile şi contextul social pentru a testa tipul de conţinut la care reacţionează rapid şi eficient utilizatorii de pe social media din România. Atacatorii folosesc personaje generate cu inteligenţă artificială, prezentate în mod fals drept angajaţi ai Poliţiei Române sau Jandarmeriei Române, pentru a creşte credibilitatea conţinutului. Deşi la prima vedere postările par să reflecte situaţii reale, scopul acestora de a testa reacţia publicului şi de a identifica tipare de comportament online precum şi realizarea unei micro-targetări la nivelul populaţiei, pentru a calibra ulterior mesajele de influenţare viitoare. Aceste tehnici sunt utilizate şi în alte state, pentru a înţelege ce tip de conţinut “prinde” la public şi pentru a construi în viitor campanii mai eficiente de influenţare”, menţionează sursa citată, într-o postare publicată, marţi, pe pagina oficială de Facebook a instituţiei.
Reprezentanţii DNSC subliniază, totodată, că, din aceeaşi categorie fac parte şi “medicamente-minune”, care promit vindecări rapide, aplicaţii sau platforme care promit câştiguri financiare nerealiste ori “descoperiri ascunse” menite să creeze senzaţional.
“În unele cazuri, aceste tactici sunt asociate şi cu tentative de colectare a datelor personale sau fraude online”, avertizează experţii în securitate cibernetică.
În aceste situaţii, utilizatorii sunt sfătuiţi să nu distribuie conţinut suspect, chiar dacă pare credibil, să verifice sursa informaţiei din canale oficiale, să analizeze imaginile cu atenţie (conţinutul AI prezintă adesea detalii nefireşti), să fie atenţi la inconsecvenţele din text, voce sau comportamentul personajelor, dar şi să caute confirmări din mai multe surse independente.
sursa: TVR Info
Potrivit instituţiei, scopul postărilor, care par să reflecte situaţii reale, este acela de a testa reacţia publicului şi de a identifica tipare de comportament online, pentru a calibra ulterior mesajele de influenţare viitoare.
“Semnalăm o campanie de influenţare cu micro-targetare la nivelul populaţiei României, care exploatează emoţiile şi contextul social pentru a testa tipul de conţinut la care reacţionează rapid şi eficient utilizatorii de pe social media din România. Atacatorii folosesc personaje generate cu inteligenţă artificială, prezentate în mod fals drept angajaţi ai Poliţiei Române sau Jandarmeriei Române, pentru a creşte credibilitatea conţinutului. Deşi la prima vedere postările par să reflecte situaţii reale, scopul acestora de a testa reacţia publicului şi de a identifica tipare de comportament online precum şi realizarea unei micro-targetări la nivelul populaţiei, pentru a calibra ulterior mesajele de influenţare viitoare. Aceste tehnici sunt utilizate şi în alte state, pentru a înţelege ce tip de conţinut “prinde” la public şi pentru a construi în viitor campanii mai eficiente de influenţare”, menţionează sursa citată, într-o postare publicată, marţi, pe pagina oficială de Facebook a instituţiei.
Reprezentanţii DNSC subliniază, totodată, că, din aceeaşi categorie fac parte şi “medicamente-minune”, care promit vindecări rapide, aplicaţii sau platforme care promit câştiguri financiare nerealiste ori “descoperiri ascunse” menite să creeze senzaţional.
“În unele cazuri, aceste tactici sunt asociate şi cu tentative de colectare a datelor personale sau fraude online”, avertizează experţii în securitate cibernetică.
În aceste situaţii, utilizatorii sunt sfătuiţi să nu distribuie conţinut suspect, chiar dacă pare credibil, să verifice sursa informaţiei din canale oficiale, să analizeze imaginile cu atenţie (conţinutul AI prezintă adesea detalii nefireşti), să fie atenţi la inconsecvenţele din text, voce sau comportamentul personajelor, dar şi să caute confirmări din mai multe surse independente.
sursa: TVR Info