Cum de veţi reuși în mod eficient să filtraţi milioanele de conținuturi publicat în fiecare zi pe rețelele sociale pentru a preveni mesajele pline de ură?
Inteligenţa artificială la Facebook şi un juriu pentru aplicaţia Periscope par a fi ultimele idei în materie!
Aplicaţia Periscope
Această problemă a fost întotdeauna o durere de cap majoră pentru aceste platforme, care trebuie să evolueze metodele lor de moderare, deoarece acestea cresc și practicile utilizatorilor lor se schimbă. Astăzi, cele mai multe rețele sociale majore funcționează pe același principiu: utilizatorii pot raporta conținutul problematic, iar angajații companiei sau echipa discută aceste rapoarte și decide să cenzureze mesajele sau nu.
De marţi 31 mai, Periscop, aplicația video live aparținând Twitter,a introdus un nou mod de operare. Atunci când un comentariu este postat de un utilizator, aplicația selectează câțiva utilizatori la întâmplare și întreabă imediat în cazul în care conținutul este într-adevăr abuziv. În cazul în care majoritatea aprobă, atunci autorul va fi interzis pentru scurt timp de la comentarii. În cazul în care publică un alt comentariu de asemenea respins de una dintre aceste filtre, atunci acest utilizator nu va mai comenta pe tot parcursul difuzării videoclipului.
Această metodă îndeplinește cerințele specifice ale acestei funcţii a periscopului, direct la o aplicație dedicată, în cazul în care feedback-ul poate fi afişat pe ecran timp de câteva secunde. Sistemul de moderare este unul clasic. Menţionez faptul că Eâsste condus de angajații companiei şi principalul dezavantaj a fost acela că nu a putut fi suficient de reactiv.
Platforma Facebook
Facebook este interesată într-un alt mod deoperare şi moderare, care se bazează mai mult pe inteligența artificială. Într-un interviu publicat marți şi acordat site-ului de specialitate TechCrunch – Joaquin Candela- inginer responsabil pentru învățarea mașinii aplicate de Facebook a declarat că aceste programe au fost mai eficiente, în special pentru a identifica conținutul unei imagini.
„Ceea ce este interesant este faptul că astăzi avem mai multe imagini ofensatoare, indicate de algoritmi de inteligență artificială.” Dincolo de imagini, Facebook lucrează la programe capabile să înțeleagă textul.De asemenea, Utilizarea acestui tip de program ar putea scuti echipeLE de moderare să acționeze mai rapid, dar ar putea fi încă prea severe sau, dimpotrivă, prea permisive.
Facebook a fost foarte mult criticată pentru lucrările de artă, uneori, cenzurate ilustrând goliciunea corpului uman, în timp ce unele tipuri de conținut de propagandă jihadiste au rămas mult timp on-line. Aceste linii de gândire fac parte dintr-un context de moderare ce devin primordiale pentru rețelele sociale, presate pe toate părțile pentru a le face mai eficient.
De exemplu,în Franța, după atacurile din 2015 autoritățile au criticat giganții Web, dorind „responsabilitatea” în lupta împotriva propagandei jihadiste, așa cum s-a menționat de către Ministrul de Interne, Bernard Cazeneuve în luna ianuarie 2015. În luna mai asociațiile SOS-Racisme, Uniunea Studenților Evrei din Franța (UEJF) și SOS Homofobia Facebook fixat, au acuzat Twitter și YouTube ca urmare a unui test ce ar elimina o minoritate de conținut plin de ură marcate de către utilizatorii de internet. Ei au depus o plângere împotriva acestor trei platforme,iar audierea va avea loc în luna iulie.
Marți, platformele Facebook, Twitter, YouTube și Microsoft sunt angajate dimpreună cu Comisia Europeană pentru a se conforma unui „cod de conduită”, în care ele promit să includă examinarea „majorităţii înregistrărilor valabile”, în mai puțin de douăzeci și patru de ore.
Sursa foto : www.dcnews.ro, www.wall-street.ro
Prof. Dr. Daniel Mihai, CNA Regina Maria Constanţa, redactor şef al ziarului Criteriul Naţional












