Mark Zuckerberg a fost învins de propriul cod. Algoritmul rețelei sociale acționează independent și nu respectă instrucțiunile, potrivit unor documente oficiale
Documentele interne indică faptul că rețeaua de socializare Facebook nu își poate controla algoritmii. Un algoritm este o secvență de instrucțiuni date unui program de calculator pentru a rezolva o problemă. În cazul Facebook, algoritmii decid cine și ce va citi, din oceanul de mesaje și informații. Ce conținut va apărea cu prioritate în fluxul de știri?
Ce au dezvăluit aceste documentele interne este uluitor. Inginerii admit că nu înțeleg efectele neprevăzute ale propriilor coduri. La fel ca într-un film științifico-fantastic, algoritmii scapă de controlul creatorului lor și mașinăria o ia razna.
Care sunt consecințele?
Mesajele, postările, conținutul, sunt cenzurate într-o măsură prea mare sau deloc.
Din 2018, Facebook are un plan. Prioritizează conținutul care provine de la prieteni apropiați sau de la familie. A fost dezvoltat un program în această direcție, pentru a evidenția ceea ce ei numesc „interacțiuni sociale semnificative”. Cu alte cuvinte, fotografiile din vacanța surorii tale mai mici apar cu prioritate față de cea mai recentă știre despre Donald Trump.
Dar obiectivul a fost ratat. Programul a acționat pe dos și a favorizat conținutul conflictual, de exemplu paginile de extremă dreapta și paginile conspirative.
Și de unde vin documentele care dezvăluie aceste probleme? Mii și mii de pagini au fost comunicate Congresului SUA și SEC, organul de control al Bursei din New York, de către o fostă angajată, France Haugen.
La 37 de ani, France Haugen, inginer IT-ist, este acum în război cu Facebook, companie pe care o acuză că a trădat democrația. Ea acuză Facebook că alege profitul în locul siguranței, că acordă prioritate conținutului care primește cele mai multe click-uri și este invariabil cel mai dezbinător, cel care provoacă cea mai mare opoziție.
Cum se apără Facebook?
Oferă două cifre: compania a investit 13 miliarde de dolari și a angajat 40.000 de oameni pentru a lucra la moderarea conținutului.
Denunțătorul răspunde că Facebook-ului îi pasă de fapt doar de ceea ce este scris în engleză. În alte limbi, conținutul periculos cade prin fisuri. Ea vorbește despre țări deja dezbinate pe probleme etnice și religioase, care sunt puse în pericol de ceea ce circulă pe Facebook.
Există aproape 3 miliarde de utilizatori activi lunar care tocmai au aflat, deci, că mașina nu mai este controlată cu adevărat de creatorii săi.
Sursa: BFMTV
Dacă ti-a plăcut articolul urmărește SmartRadio pe Facebook