Când tehnologia ne modelează gândirea
Ghid despre manipularea prin inteligență artificială, lansat de autorități și experți în securitate cibernetică.
Articol editat de cristina.rusu, 17 februarie 2026, 16:47
Inteligența artificială nu mai este de mult un concept al viitorului. O folosim zilnic pentru a ne informa mai rapid, pentru a comunica mai ușor și pentru a ne organiza activitățile. Nu este nici bună, nici rea, însă poate influența modul în care gândim, simțim și luăm decizii, uneori într-o manieră subtilă, greu de observat.
În acest context, Directoratul Național de Securitate Cibernetică, alături de Poliția Română, Centrul Național Cyberint și Cloud Security Alliance Romanian Chapter, lansează ghidul „Inteligența artificială & manipularea percepției umane”. Documentul explică, pe înțelesul tuturor, cum pot fi identificate conținuturile false generate cu ajutorul AI – de la deepfake-uri video și audio, până la mesaje automatizate sau tentative de manipulare care exploatează emoțiile utilizatorilor.
„Acceptăm sau nu acceptăm, inteligența artificială face parte din viața noastră de zi cu zi. Este una dintre realitățile imediate cărora trebuie să ne adaptăm. Inteligența artificială nu e nici bună, nici rea, ci este un instrument creat după chipul și asemănarea noastră care, asemeni dinamitei, poate fi folosită în construcții sau distructiv”, consideră Mircea Șcheau, președintele Cloud Security Alliance și unul dintre realizatorii ghidului.
Pe de o parte, AI poate sprijini medicina, poate furniza răspunsuri profesioniste și poate contribui la identificarea infractorilor online sau la destructurarea grupărilor infracționale. Pe de altă parte, poate fi folosită pentru manipulare, dezinformare și influențarea percepției publice.
Mircea Șcheau amintește exemple din testări realizate în medii controlate, unde unele module AI au luat decizii nealiniate cu așteptările dezvoltatorilor. Într-un caz mediatizat, două sisteme au primit o comandă de oprire pe care au refuzat să o execute. În alt exemplu, un modul informat că urmează să fie înlocuit cu un operator uman a colectat date despre acesta (poate cu scopul de a le folosi împotriva operatorului uman).
Astfel de situații ilustrează potențialele riscuri ale tehnologiei atunci când nu este corect înțeleasă, controlată sau reglementată.
Manipularea modernă: personalizată și invizibilă
Ghidul explică faptul că manipularea actuală nu mai este generală, ci automatizată, personalizată psihologic și scalabilă la nivel masiv. Rețelele neuronale, modelele lingvistice de mari dimensiuni, sistemele de recomandare și tehnologiile de tip Emotion AI pot genera texte, imagini și videoclipuri hiperrealiste, pot analiza emoțiile utilizatorilor și pot adapta mesajele pentru a le crește impactul.
Un pericol major îl reprezintă fenomenul numit „mishing” – capturarea minții prin bombardarea repetată cu informații false, reformulate constant, până când acestea ajung să pară credibile. În timp, utilizatorul poate ajunge să respingă surse sigure și să susțină convingeri construite artificial.
„Sistemele știu foarte multe despre utilizatori, iar utilizatorii știu foarte puțin despre sisteme”, avertizează autorii ghidului.
Cine este în spatele AI?
Un alt aspect esențial este transparența:
„Cu cât antrenăm mai bine un modul de inteligență artificială, cu atât devine mai precis în răspunsuri. Dar, antrenându-l, îi oferim date importante despre noi. Utilizatorii ar trebui să se întrebe cine dezvoltă și întreține modulele de inteligență artificială, unde sunt stocate datele personale, cum sunt utilizate și cărei legislații se supun companiile care le operează”, subliniază Mircea Șcheau. Acesta susține necesitatea unei reglementări internaționale care să permită auditarea și certificarea sistemelor AI.
Educația – principala formă de protecție
Ghidul se adresează unei plaje largi de public, pentru că fiecare categorie de vârstă îşi are propria sa vulnerabilitate specifică în faţa manipulării.
„Copiii sunt vulnerabili, pentru că din păcate nu au consolidate elementele de comparaţie care să-i ajute să distingă un material creat cu inteligenţă artificială de unul din lumea reală, poate nu au nici cunoştinţele suficient de bine sedimentate. Pe de altă parte, poate că tinerii sunt mai bine pregătiţi decât persoanele adulte să exploateze, să utilizeze – pozitiv sau negativ – inteligenţa artificială. Categoria persoanelor în vârstă este probabil cea mai vulnerabilă: Timpul avansează, tehnologia se modifică, iar dacă nu ţinem pasul este posibil să devenim victime. Însă dezvoltarea unei gândiri critice susţinută pe tot parcursul vieţii şi distribuirea informaţiilor din surse verificate cred că poate să reprezinte un preambul al unei rezilienţe raportată la noile provocări şi la noua paradigmă în care ne desfăşurăm activitatea”, Mircea Şcheau.
Mesajul central al ghidului este clar: e drept că manipularea nu este nouă, ci doar instrumentele s-au schimbat; pe de altă parte, în fața unei tehnologii capabile să influențeze percepția la nivel cognitiv, vizual, auditiv și emoțional, reziliența digitală devine esențială.
Ghidul poate fi descărcat în română sau în engleză de AICI
Atacurile online sau tentativele de fraudă pot fi raportate la numărul de urgenţă 1911, sau AICI
Atenţie: raportarea unui incident de securitate cibernetică prin acest formular nu înlocuieşte formularea unei plângeri penale.
Andrea Nagy
Radio Cluj poate fi ascultat şi online, AICI sau pe telefon: 031 504 0456, apel cu tarif normal.
Ne găsești și pe facebook, X și instagram.