Acesta nu e Mihăiță. Nici băiatul din imagine nu există, nici fratele lui mai mic, nici tatăl care lucrează ca paznic în ture epuizante. Nici povestea cu sandvișurile și sucurile oferite la terasă, nici colegii de birou care s-au mobilizat imediat pentru a ajuta o familie necunoscută nu sunt reale.
Totuși, peste 22.000 de oameni au dat like acestei povești în mai puțin de o zi. Mii de internauți au distribuit-o, emoționați de „curajul și demnitatea unui copil sărac din București”. Problema este că totul e inventat. Imaginea este generată cu inteligență artificială, iar textul – cu probabilitate foarte mare – este scris cu un model precum ChatGPT. Pagina de Facebook „Viață de românaș” a publicat această poveste joi seară.
Edupedu.ro demontează pas cu pas, în analiza de față, falsul distribuit masiv pe Facebook: vedeți cum creatorii au folosit o imagine generată de AI și o poveste scrisă cel mai probabil cu ChatGPT
Textul postării este lung, structurat ca o mică nuvelă cu următorul subiect: un copil sărac bate timid în geamul unei mașini la semafor, primește o bancnotă, refuză inițial, apoi povestea se ramifică într-o serie de episoade care implică frați cuminți, note bune la școală, tragedii familiale, un tată muncitor și, bineînțeles, o comunitate care se mobilizează exemplar. Totul se încheie cu o morală: „Fiecare semafor are o poveste. Iar uneori, merită să oprim și să ascultăm”.
- Este o poveste croită matematic pentru a emoționa. Dar tocmai această perfecțiune o face suspectă. Dialogurile sunt rotunde și literare, personajele au replici memorabile și atitudini eroice. Oamenii reali, în situații reale, nu vorbesc sau nu acționează așa întotdeauna.
Imaginea care trădează minciuna
Privind atent fotografia care însoțește postarea, lucrurile devin și mai clare: sigla de pe pantalonii băiatului care vrea să imite un cunoscut brand de îmbrăcăminte sportivă seamănă cu sigla originală, dar literele din numele companiei nu pot fi citite. În mână, „Mihăiță” are ceea ce pare a fi un băț telescopic și un cap de racletă cu burete pentru parbriz, dar cel puțin bățul este diform la unul din capete.
Pe hanoracul lui, textul nu se poate citi, deși unele litere precum „B”, „N” și „A” au putut fi reproduse de modelul de inteligență artificială. La fel, semnul de pe strada unde s-ar afla „Mihăiță” nu este niciunul din semnele de circulație auto existente în România. Toate acestea sunt indicii clasice ale unei imagini generate cu AI, cel mai probabil cu Midjourney sau un model similar.
De altfel, paginile care folosesc astfel de tehnici ne-au obișnuit deja cu fotografii spectaculoase, dar neverosimile – fețe perfecte, copii murdari dar artistici, oameni săraci cu priviri de poster. Totul este construit vizual pentru impact emoțional.
În plus, revenind la text, autorii postării menționează „Nerva Tracan” în loc de „Nerva Traian”, cel mai probabil fiind un rateu al modelului de inteligență artificială care mai „scapă” litere în cuvinte. Textul nu menționează la intersecția cărui bulevard cu Bulevardul Carol din București este „Mihăiță” și nici imaginea nu este la bază din realitate, pentru că acel loc pur și simplu nu există în București. Iar la finalul textului, aflăm că se află de fapt la intersecția străzii „Nerva Tracan” cu bulevardul Unirii.

Cine sunt cei din spatele poveștii?
Pagina care a publicat postarea se numește „Viață de Românaș” și a mai promovat și alte povești în același stil. Este un așa-numit „creator digital”, dar nu există o echipă editorială, nu are date de contact, iar transparența paginii este zero, fiind inexistente date despre persoana care a creat-o.
Pagina a fost creată în ianuarie 2024 și inițial se numea „Descoperă sănătatea”, apoi s-a numit pe rând „E F E M E R”, „Pescuit și Vânătoare” și „Inimă deschisă”, până să se numească din decembrie anul trecut „Viață de românaș”.

Care sunt posibile intenții ascunse ale unui astfel de fake?
Astfel de pagini cresc rapid în popularitate, adunând zeci de mii de urmăritori prin conținut lacrimogen, pentru a schimba ulterior direcția.
Edupedu.ro a documentat anterior cum pagini de acest tip, inițial pline de rețete culinare sau „lecții de viață”, au început ulterior să promoveze personaje precum fostul candidat la președinție, pro-rus și cu mesaje legionare, Călin Georgescu, sau alte teme de propagandă.
Comentariile strânse de postarea falsă – de la mesaje credule, la reacții sceptice
În comentariile de la postarea virală, se poate citi nu doar emoția, ci și o radiografie a modului în care publicul reacționează la conținutul digital cu miză emoțională. „Asta înseamnă să fii bun creștin, am citit postarea dvs. plângând… nu am cuvinte”, scrie o utilizatoare. Un alt comentator merge și mai departe, oferind public ajutorul său: „Să-mi lăsați un număr de telefon în privat, dacă vor să se mute, poate reușim să le construim o casă de la zero și să oferim burse pentru ei, iar tatălui un loc de muncă mai bun!”. Astfel de reacții sincere arată disponibilitatea oamenilor de a ajuta, chiar și pe baza unei povești neverificabile – ceea ce face fenomenul și mai periculos, pentru că exploatează tocmai generozitatea publicului.
Dar nu toți au căzut în capcană. Câteva voci critice au ridicat din timp semne de întrebare. „Verificați vă rog povestea, nu vreau să fiu răutăcios, am plâns, însă am mai întâmpinat astfel de povești create de «ChatGPT» sau mai știu eu ce minune a apărut în zilele noastre”, atrage atenția un internaut. Iar un alt comentator oferă chiar o explicație tehnică: „(…) sunt șanse extrem de mari să fie o poveste falsă, exact ca și poza, identic cu toate celelalte povești create cu «magia inteligenței artificiale».”
Există și intervenții critice la adresa statului, amestecate cu admirație față de personajul imaginar: „Și statul are grijă de ucraineni! Rușine statului și cinste tatălui și copiilor!”, scrie o altă utilizatoare. În același timp, alții aduc discuția înapoi în realitate, vorbind despre adevărata dramă a copiilor care muncesc în stradă: „Nu cred că este o soluție să îi încurajăm să cerșească pentru că asta vor face tot timpul… cunosc cerșetori sănătoși care fac asta de zeci de ani și alți oameni cu handicap muncesc cinstit”, notează o femeie.
- Această polarizare a reacțiilor – între lacrimi și scepticism, între empatie și vigilență – arată un public aflat în tranziție: unii sunt gata să creadă, alții încep să întrebe. Iar faptul că printre zecile de mii de like-uri apar și voci care cer verificare, care recunosc semnele inteligenței artificiale sau care pun întrebări incomode, în valul de postări generate cu AI din ce în ce mai precise și verosimile, este un semnal bun. Nu e suficient, dar e un început.
Ce urmăresc aceste campanii
Edupedu.ro dar și alte publicații au atras atenția în ultimele patru luni cu precădere că acest tip de conținut este folosit ca instrument de manipulare în preajma alegerilor. Emoția generează încredere. Încrederea generează loialitate. Iar loialitatea poate fi redirecționată spre mesaje politice, uneori extremiste sau radicale.
Astfel de pagini devin, practic, capcane digitale: folosesc empatia reală a oamenilor pentru a construi audiență, apoi o folosesc pentru a răspândi mesaje false, conspirații sau candidați extremiști.
De ce e important să verificăm
Poveștile false ca cea a lui „Mihăiță” nu doar că păcălesc publicul, ci umbresc cazurile reale. Există în România copii care chiar lucrează la semafoare, familii aflate în sărăcie extremă, tineri care luptă cu lipsurile și totuși învață. Dar când vedem povești „perfecte” și apoi aflăm că sunt false, riscăm să nu mai credem nici măcar realitatea.
Ce putem face
- Nu distribuim automat postări virale, chiar dacă ne emoționează.
- Verificăm imaginea și sursa: o simplă căutare inversă sau o privire critică la detalii poate demasca o fotografie falsă.
- Semnalăm conținutul înșelător pe rețelele sociale prin instrumentele oferite de platformele sociale.
- Ne informăm din surse credibile – mass-media care își asumă identitatea și trece prin filtre informațiile.
Amintim că Directoratul Național pentru Securitate Cibernetică (DNSC) pune la dispoziție un test interactiv online de depistare a diferențelor între imaginile generate de inteligența artificială și fotografii din realitate.
Cum funcționează conținutul generat de AI și cum îl putem recunoaște
Generatoarele de inteligență artificială au evoluat rapid și sunt tot mai folosite în producția de conținut online. ChatGPT, Claude sau Gemini pot crea texte lungi, coerente și bine scrise în câteva secunde, pornind de la o simplă indicație. La fel, aplicații precum Midjourney, DALL-E sau Stable Diffusion produc imagini care, la o primă vedere, par fotografii reale. Aceste instrumente nu sunt periculoase în sine – ele pot fi utile în educație, design sau creație artistică. Problema apare atunci când sunt folosite pentru a genera povești false cu încărcătură emoțională, distribuite de pagini fără identitate clară, cu scopul de a atrage încrederea publicului, iar apoi de a schimba mesajul în preajma unor momente cheie, cum sunt alegerile.
Textele generate de AI au câteva caracteristici ușor de recunoscut. De obicei, ele sunt „prea perfecte”: fără greșeli, dar și fără ezitări, ambiguități sau inconsecvențe care apar natural în scrisul uman. Emoțiile sunt dozate calculat, dialogurile sunt teatrale, iar personajele sunt ori idealizate, ori profund dramatizate. Povestea urmărește un fir narativ impecabil, cu întorsături care par gândite „să dea bine” și se încheie aproape întotdeauna cu o morală emoționantă. În plus, lipsesc orice surse verificabile sau nume reale. Nu există linkuri, nu sunt menționate organizații care pot fi contactate, iar dacă apare un număr de telefon sau o referință, sunt elemente generice care nu pot fi verificate.
Și imaginile generate de inteligență artificială pot fi demascate de un ochi atent. De multe ori, mâinile personajelor sunt deformate, au degete în plus sau în poziții imposibile. Fețele pot părea inițial realiste, dar dacă le privești mai atent, trăsăturile sunt fie prea netede, fie ciudat de asimetrice. Fundalul este adesea distorsionat: clădiri care se termină brusc, oameni în fundal care nu au chipuri clare sau obiecte care nu respectă legile fizicii. Un alt indiciu clar este lumina nerealistă – umbrele cad în direcții diferite, reflexiile nu corespund sursei de lumină, sau există o „strălucire” generală a imaginii, specifică randărilor. De asemenea, AI-ul nu reușește să redea bine scrisul: orice etichetă, afiș sau inscripție din imagine pare un amestec de litere inventate sau fonturi deformate.
Pentru a verifica autenticitatea unei imagini, oricine poate folosi instrumente de căutare inversă, precum Google Lens. Dacă nu găsești nicio apariție anterioară a acelei fotografii și dacă nu există informații despre autorul ei, este un semnal de alarmă. La fel, dacă pagina care o publică nu are identitate clară – nu este asumată de o redacție, o persoană reală sau un ONG verificabil – trebuie să tratăm conținutul cu reținere. Multe dintre aceste pagini distribuie exclusiv povești lacrimogene, aparent fără scop, dar ele pot deveni, peste noapte, canale de propagandă electorală sau conspiraționistă, tocmai pentru că au adunat încrederea unui public emoționat.
Într-o lume în care tehnologia poate produce realități false convingătoare, responsabilitatea rămâne la noi, cei care citim, dăm like, comentăm și distribuim. O poveste care pare prea frumoasă sau prea tristă ca să fie adevărată poate chiar nu e adevărată. Iar verificarea sursei și a imaginii poate fi gestul cel mai mic care ne protejează de cea mai mare înșelătorie.
1 comment
Am citit articolul și este uimitor cum tehnologia poate crea povești atât de convingătoare! E important să fim vigilenți și să verificăm sursele înainte de a distribui astfel de conținuturi. Mulțumim Edupedu.ro pentru demontarea acestui fake și pentru educația digitală pe care o oferă!