Razne grupe na društvenim mrežama koriste emotikon mrkve kako bi sakrile antivakserske sadržaje od alata za automatsko uređivanje sadržaja. BBC je otkrio nekoliko takvih grupa na Facebooku, od kojih jedna ima stotine tisuća članova, u kojima slika mrkve zamjenjuje riječ “cjepivo”.

Facebookovi algoritmi za uređivanje sadržaja fokusiraju se više na riječi, a manje na slike. Generalno, grupe se koriste za razmjenu informacija, a konkretno u ovim slučajevima koristile su se za dijeljenje nepotvrđenih i nedokazanih tvrdnji ljudi da su cjepiva na neke ostavila teške posljedice i neke ubila.

Kad je BBC upozorio Metu na ovo, grupe su uklonjene. “Uklonili smo grupu zbog kršenja naše politike o štetnim dezinformacijama i provjerit ćemo svaki sadržaj srodan s ovom politikom. Nastavljamo blisko surađivati s javnozdravstvenim stručnjacima i britanskom vladom kako bi se i dalje borili protiv lažnih vijesti o covidu”, napisala je Meta.

Nažalost, grupe su se ponovno pojavile u pretrazi. Jedna od njih postoji već tri godine, no od naziva i privotne ideje o dijeljenju “zabavnog sadržaja i zabavnih videa” preorijentirala se na priče o cjepivu. U istaknutim pravilima grupe obavezno je koristiti “šifre za sve”. “Nemojte koristiti riječ na c, k, c ili b (covid, koronavirus, cjepivo, booster)”, dodaje se. Ta grupa ima više od 250.000 članova.

Marc Owen-Jones, profesor na Sveučilištu Hamad Bin Khalifa u Kataru i znanstvenik koji istražuje lažne vijesti, pozvan je da se pridruži grupi.

“Ljudi su davali podatke o svojim rođacima koji su umrli nedugo nako cijepljenja protiv covida, ali umjesto riječi covid-19 ili cjepivo koristili su emotikone mrkve. Prvo sam bio zbunjen. A onda sam shvatio – to je način izbjegavanja Facebookovih algoritama lažnih vijesti”, rekao je.

Manipulacije rizikom

Podaci iz 2021. koje je objavio Ured za državnu statistiku pokazuju da je jedna na pet milijuna osoba u riziku da umre od cjepiva protiv covida. Za usporedbu, 35.000 ljudi na pet milijuna u riziku je da umre od same bolesti covid-19 ako nisu cijepljeni.

Tehnološki giganti već dugo koriste algoritme kako bi detektirali štetni sadržaj, ali ti se algoritmi fokusiraju više na pojedine riječi i tekst, piše BBC.

Ekipa s Oxforda osmislila je alat koji se zove HatemojiCheck, a otkriva područja na kojima umjetna inteligencija ne prepoznaje dobro zloupotrebu emotikona. “Premda imamo impresivan dohvat umjetne inteligencije kad je u pitanju jezik, to se slabo može primijeniti na emotikone”, ističu.

Emotikoni i rasizam

Društvene mreže već su se našle na udaru kritika nakon što nisu uklonile primjerice emotikone majmuna i banana koji su se koristili kao rasistička gesta.

Ako u Velikoj Britaniji na snagu stupi novi zakon o sigurnosti na internetu, tehnološki divovi suočit će se s novčanim kaznama ako ne uspiju identificirati i sankcionirati štetni sadržaj.

Skrivanje naočigled

Emotikoni su s vremenom, osim osjećaja, dobili i druga značenja. Koriste se, primjerice, u raspravama o ilegalnim drogama.

Facebook je objavio da je prošle godine uklonio više od 20 milijuna objava koje su sadržavale dezinformacije o covidu-19 ili cjepivu protiv koronavirusa.

Uklanjaju i sadržaj u kojem se ističe da su cjepiva općenito opasnija od same bolesti ili da su otrovna.

Američki predsjednik Joe Biden kritizirao je tehnološke kompanije jer ne čine dovoljno za sprečavanje širenja lažnih vijesti o cjepivu. “Oni ubijaju ljude”, rekao je prošle godine.

Program N1 televizije možete pratiti UŽIVO na ovom linku kao i putem aplikacija za Android|iPhone/iPad





Source link

OSTAVITI ODGOVOR

Molimo unesite komentar!
Ovdje unesite svoje ime