Dacă un utilizator încearcă să cumpere arme prin intermediul rețelei sociale, blocați acel comportament înainte de a ajunge la alți utilizatori

@oleaga MADRID Actualizat: 25.07.2020 09:54

platformei

Cu 2,6 miliarde de utilizatori activi lunar, Facebook este încă regina rețelelor sociale și, ca atare, este, de asemenea, ținta a numeroase atacuri, escrocherii și furturi împotriva utilizatorului însuși. Nu vorbim despre instrumente digitale super sofisticate, ci despre atacul simplu al unui utilizator asupra altuia, ceva foarte greu de detectat cu sistemele automate.

La urma urmei, comportamentul uman individualizat rămâne imprevizibil, foarte greu de încadrat într-un model pentru inteligența artificială. Ca rezultat al echipei sale de cercetare, Facebook tocmai a prezentat WES sau „Web-Enabled Simulation”, o primă încercare de a simula un mediu complex de rețea socială, dar folosind roboți. Cu WW, WES specific pentru Facebook, echipa de cercetare ia platforma Facebook fără o interfață și fără utilizatorii săi umani și o umple cu roboți.

Roboții pot face același lucru ca și ființele umane de pe rețeaua socială, se pot împrieteni unul cu celălalt, pot trimite mesaje sau pot comenta conținutul altor roboți. Până în prezent este exact la fel ca și noi pe Facebook, cu milioane de roboți care interacționează între ei, dar lucrul interesant vine atunci când unul dintre acești roboți este „recompensat” pentru că se comportă necorespunzător, atunci se întâmplă „magia”, iar oamenii de știință pot vezi ce se întâmplă și cu datele pe care le obțin, prezice comportamentul inadecvat al utilizatorilor reali. Evident, tot acest mediu este izolat de Facebook-ul utilizatorului.

Când vorbim despre „recompensarea” unui bot, nu cum înțelegem să acordăm un premiu unei ființe umane, ci mai degrabă o țintă este specificată botului care acționează ca o recompensă, iar robotul caută cel mai eficient mod de a ajunge care vizează în milioane de repetări. Acest lucru este cunoscut sub numele de „învățare profundă”, spunându-i robotului unde trebuie să meargă, dar fără să-i spună cum. Folosind aceste metodologii, se găsesc noi forme de comportament inadecvat, care reproduc viteza, amploarea și realismul rețelelor sociale, cu scenarii foarte complexe, ajungând astfel să le anticipăm.

Mark Harman, cercetătorul responsabil de WES la Facebook, a explicat într-o analogie că ceea ce vor să creeze este echivalentul vitezei. Radarul de viteză stabilește amenda atunci când regulile au fost deja încălcate, acest lucru este ușor de detectat și rezultatul de pe Facebook este să anulați contul utilizatorului care o face, dar viteza vă avertizează să reduceți viteza înainte de a o depăși sau în același timp, acestea împiedică încălcarea.

Scopul Facebook este ca acest sistem să funcționeze pe orice rețea socială și să poată preveni comportamentele rele înainte ca acestea să apară. De exemplu, dacă un utilizator Facebook încearcă să cumpere arme prin intermediul rețelei sociale, blocați acel comportament înainte de a ajunge la alți utilizatori.

Continuând cu spiritul de deschidere al centrelor de cercetare Facebook, întregul mediu este disponibil oricărui cercetător sau om de știință care dorește să se alăture platformei prin furnizarea de date și, astfel, îmbunătățirea concluziilor lor. Și, deși WW este mediul simulat al Facebook, WES poate fi folosit pentru a reproduce orice rețea socială.

În rețelele sociale la scară masivă, probabil există și utilizatori care încearcă să vă încalce regulile de utilizare. Aceste investigații urmăresc să prevină aceste infracțiuni înainte de a se produce, identificând procesul complex pe care îl implică comportamentul uman.

Subiecte

Cele mai citite pe ABC
O săptămână cu acest pariu chinez pe high-end: merită?

Firma chineză se angajează în tehnologia și fotografia 5G în noile sale terminale