Over Mark Zuckerberg (Facebook): hij begrijpt niet wat hij heeft gecreëerd of wil dat niet begrijpen

FB_zuckerberg
1
0
7732
Soms moet je een programma kijken en dan twee dagen lang erover nadenken en het met mensen bespreken. Dat deed ik met de sterke docu 'The Facebook Dilemma' (nog een paar dagen gratis online). Een verslag.

Dit is geen recensie of een aankondiging van een tv-programma, maar het verslag van de manier waarop ik naar het tweeluik The Facebook Dilemma heb gekeken. 

Deze docu is gemaakt door de rubriek Frontline op PBS (de publieke zender van de VS) dat een jaar onderzoek deed. De makers gingen op zoek naar antwoorden op een fundamentele vraag: waarom lag iedereen te slapen bij Facebook toen het misging?

Het verhaal begint in 2005 met een oud interview met Zuckerberg die vertelt dat hij drie miljoen gebruikers heeft, op het kantoor werken dan 20 twintigers. Het gaat over het motto in die fase van het bedrijf; 'werk snel en maak dingen kapot'. Zuckerberg daarover: 'Je kan beter iets proberen en dan mogelijk later sorry zeggen'.

Investeerder van het eerste uur Roger McNamee zegt: ze wilden geen kwaad doen, maar zagen de kwalijke gevolgen niet. Optimisme zat zo diep in het systeem van Silicon Valley dat het zo vanzelfsprekend was als de zwaartekracht.'' Antonio Garcia Martinez is een van de acht oud-medewerkers die vertelt over de cultuur bij Facebook. ,,We moeten af van het idee dat ze in Silicon Valley de wereld veranderen. Het is gewoon een bedrijf alleen wat invloedrijker.''


Traag met snappen
Naomi Gleit (na Zuckerberg het langste bij het bedrijf) was onderdeel van het groeiteam van Facebook en zij werkt er nog steeds. ,,We zijn traag geweest in het snappen dat Facebook ook voor slechte dingen gebruikt kan worden. We keken vooral naar de goede dingen.'' Door een wet kon Facebook de groei naar miljarden gebruikers schijnbaar aan. In die wet stond immers dat je als internetbedrijf niet verantwoordelijk bent voor de inhoud en dus stelde Facebook zelf wat regels op. Die regels waren ruim, zo vertelt een oud-medewerker. ,,We waren terughoudend in het opleggen van onze waarden.'' De interviewer vraagt of er niet gekeken werd of iets waar was of niet. ,,Nee, we vertrouwden erop dat gezond verstand over de site zou waken.''
Tja, zou Martin Bril zeggen.


Arabische Lente

Wael Ghonim, Egyptisch activist vertelt welke rol Facebook speelde in de Arabische lente. Hij plaatste een oproep op Facebook om Mubarak in Egypte af te zetten en achttien dagen later was het zover. ,,Ik had mijn ideeën niet kunnen verspreiden zonder Facebook.'' Zuckerbergs reactie: ,,Het zou arrogant zijn om dit succes te claimen, maar het is een krachtig middel als je alles met iedereen kan delen.

Ex-Facebook medewerker Sandy Parakilas: ,,Ze claimden het niet naar buiten toe, maar intern rekenden ze het tot hun verdiensten.'' Ghonim legde uit waarom het algoritme van Facebook ook kwaad kan doen wat duidelijk werd toen na de revolutie ruzie ontstond tussen groepen die de macht wilden. ,,Extreme harde content over de tegenstander wordt beloond door het systeem. Want als je iets hards zegt krijg je veel likes van je aanhangers en dan zegt het algoritme; deze content ga ik breder delen want het is engaging content. Het probleem is dat het algoritme geen verschil maakt tussen goed en slecht.'' (yes, daar hebben we de kern te pakken!).


Fake news
Elizabeth Linder was destijds vertegenwoordiger in de regio van Egypte en zij kreeg waarschuwingen van overheidsmensen die vertelden dat fake news de inzet was tijdens de revolutie. Facebook had te weinig mensen om alles te controleren. Een oud-medewerker: ,,Er zat een groep twintigers die bepaalde in hoge snelheid wat wel waar was en wat niet. De problemen stapelden zich op, maar het personeel groeide niet mee. Het bedrijf wilde winst maken en de kosten drukken.'' 


Beursgang
De uitdaging in de aanloop naar de beursgang in 2012 was om geld te gaan verdienen en dat moest gebeuren via advertising. Maar ja, Zuckerberg had daar geen ervaring in en dus trok hij Sheryl Sandberg aan die hetzelfde had gedaan bij Google. Zij vertelden allebei naar buiten toe dat Facebook heel voorzichtig omging met de gegevens, maar intern ging het anders. Er werd vanaf 2012 een systeem opgetuigd waarbij Facebook alles verzamelde over de gebruikers wat er maar valt te verzamelen.

Tim Sparapani, oud baas 'public policy' bij Facebook: ,,Vier maanden voor de beursgang gingen we samenwerken met datahandelaren die heel veel gegevens verzamelen van mensen: wat ze eten, welke tijdschriften ze kopen en vanaf dat moment had Facebook die gegevens zodat ze gerichte advertenties kunnen verkopen. Professor Zeynep Tufekci legt het systeem uit: ,,Ze weten dus wat je doet ook als je buiten Facebook bent.'' Een ander: ,,Ze hebben een product gemaakt dat het beste advertentiemiddel ooit was.'' De advertentie-inkomsten vlogen omhoog.

De omvang van de gegevens waren onbekend totdat de Oostenrijkse privacy voorvechter Max Schrems ermee aan de slag ging. Hij volgde een lezing waarbij een Facebook medewerker vertelde dat ze veel konden doen in Europa op het gebied van pivacy omdat de databeschermingsregels niet gehandhaafd worden. Hij vroeg om een uitdraai van zijn gegevens die Facebook heeft en kreeg 1200 A4tjes. Ze wisten alles; inclusief zeer private berichten. Recode Medias (tevens briljant journaliste) Kara Zwitcher interviewde Zuckerberg op een podium over privacy en hij begon enorm te zweten. Ze denkt dat hij een paniekaanval had.


Schikking
De Federal Trade Commission tikte Facebook op de vingers in 2012 omdat het de data deelde met appbouwers. Er volgde een schikking met de bedoeling dat Facebook de privacyproblemen zou herstellen. Maar ja, er moest omzet komen bij de beursgang. Sandy Parakilas werkte in de tijd bij Facebook.

,,Er was een wespennest aan privacyproblemen en ik bleek er verantwoordelijk voor want niemand wist er verder iets van. Je zou verwachten dat er een team van ervaren mensen aan werkte, maar het was alleen ik. Ik was doodsbang.'' Hij verzamelde op de site voorbeelden van kwaad willenden die iets slechts konden doen met de data van mensen en liet het zien aan topmanagers, maar er werd lauw op gereageerd. Het was niet hun prioriteit, ze maakten zich zorgen om inkomstenstromen. In 2012 nam hij ontslag omdat er in zijn ogen niet werd nagedacht over de lange termijn.


Naar de beurs
In mei 2012 haalde Facebook miljarden binnen op de beurs en daarna zou Zuckerberg Instagram en WhatsApp kopen. Het verdienmodel op basis van data werd als een succes gezien. Maar bij de overheid waren mensen werkzaam die wel degelijk het gevaar zagen van alle data.

Onderzoekers van het Ministerie van Defensie analyseerden dat sociale media gebruikt worden voor misdadige doeleinden, legt Rand Waltzman uit. ,,De mogelijkheden voor desinformatie en bedrog zijn enorm. Door de hoeveelheid data kun je gemanipuleerd worden om te kopen, maar ook om iets te stemmen. Als je zegt: hier ben ik, manipuleer me maar. Ik heb je alles gegeven wat je nodig hebt.''

Tussen 2012 en 2015 publiceerden hij en zijn collega's verschillende onderzoeken. ,,Wat ik heb gezien was dat het medium je in staat stelt om van valse informatie een serieus wapen te maken. Bijvoorbeeld doordat je de boodschap aanpast aan de filterbubbel en dat doet voor elke gemeenschap.'' 


Russische trollen
Het gaat over de Internet Research Agency in Sint Petersburg waar honderden mensen de Russen in buurland Oekraïne bestrijden via nepnieuws. Vitali Bespalov legt uit dat hij dat ook deed. ,,We creëerden een vals beeld met nepaccounts en nepafbeeldingen. Alles wat de gedachten van mensen kan beïnvloeden.''

Ze moesten Oekraïne zwartmaken. Als je aankwam op kantoor was het je taak om nieuws te verspreiden in allerlei groepen. De propaganda werkte, er werden acteurs ingehuurd die vertelden over door Oekraïners vermoorde Russen. Facebook werd gebruikt voor dit systeem en het werkte extra goed doordat de verhalen precies getarget konden worden op bepaalde doelgroepen. ,,Je kunt allerlei onzin verkopen en testen wie er waar in gelooft en langzaam zet je mensen aan tot actie. Mensen die wilden ingrijpen kregen te horen: sorry, we zijn een open platform.''

Er werd weer niets aan gedaan.



Vasthouden aan het verdienmodel
Op het hoofdkantoor van Facebook hielden ze vast aan het verdienmodel (dat ook nog prima functioneert op het eerste gezicht). In 2016 gebruikten Russische propagandamakers nog steeds nepnieuws als middel en in de VS was het hard tegen hard in de Amerikaanse verkiezingen. Zuckerberg bleef zijn uitvinding niet als deel van het probleem zien, maar als oplossing.
 


Clinton vs Trump
Deel 2 van de docu begint met de strijd tussen Clinton en Trump. De makers interviewen Brad Parscale, de digital media director van de Trumps campagne. Hij investeert 100 miljoen en vraagt om een manuel om het advertentiesysteem zo optimaal mogelijk te gebruiken. In plaats daarvan stuurde Facebook iemand langs die uitlegt hoe het werkt. Precies bij de mensen die ze wilden bereiken. Ondertussen ontdekken uitgevers Facebook en plaatsten ze hun nieuwsberichten op het platform. Toch zag Facebook het niet als hun taak om ervoor te zorgen dat de verhalen kloppen. De krantenbezorger gaat toch ook niet over de koppen in de krant? Alexis Madrigal van The Atlantic: ,,Ze kregen de rol van eindredacteur, maar niet de verantwoordelijkheid.'' 

Andrew Anker was destijds baas van het news product bij Facebook. ,,Ik had verwacht dat ze zouden weten hoe mensen met media omgaan en hoe belangrijk media kunnen zijn voor de informatie van mensen. Maar het standpunt was: ,,we zijn een technologiebedrijf en geen mediabedrijf.''

Craig Silverman introduceerde de term 'fake news' en ontdekte het bedrijf in Macedonië dat veel fake news maakt, we schreven al eerder over hem. Het bedrijf haalde miljoenen views binnen met nepberichten en verdiende aan de verkoop van de advertenties. De interviewer vraagt aan Anker hoe een nepbericht als 'de paus steunt Trump' viral ging. ,,Natuurlijk hadden er alarmbellen moeten gaan rinkelen, maar de volgende vraag is: wat doe je eraan en is het de taak van een distributeur om daar iets aan te doen?''

Tessa Lyons, productmanager bij Facebook bestrijd tegenwoordig desinformatie bij het bedrijf. ,,Het was niet duidelijk hoe groot het probleem was.''



'Mensen die wilden ingrijpen kregen te horen: sorry, we zijn een open platform'



Inzet van de verkiezingen
Facebook was ook inzet van de verkiezingen. Pagina's waarop stond dat migranten over de muren klommen kregen veel shares. ,,De dingen die ons het meest verdelen, lopen goed want ze komen bovenaan in de nieuwsfeed. McName, investeerder van het eerste uur, begon zich zorgen te maken. ,,Ik ben opgeleid als analyticus, zag veel tekens dat er iets mis is met het algoritme van Facebook. Want polarisatie was de basis van het model. Het was lonend om angst en woede te genereren. Meer tijd op Facebook betekent meer geld en reclame.'' Hij stuurde een brief met zijn analyse naar Zuckerberg en Sandler, maar ze gaven aan dat het losstaande problemen waren en geen systeemfout.

Ironisch gezien won Trump de verkiezingen, mede door de campagnes op Facebook. Zuckerberg kreeg het verwijt dat hij teveel nepnieuws had doorgelaten waarvan Trump profiteerde. Toen er na de verkiezingen naar werd gevraagd tijdens een lezing vond Zuckerberg het maar een rare veronderstelling dat nepnieuw invloed had op de verkiezingen. 

Topinterviewster van Recode Media Kara Zwischer over dat antwoord. ,,Als ik hem voor me had gehad had ik gezegd dat hij loog. Geen impact op de verkiezingen? Ik was woedend, als je dat zegt ben je een leugenaar.'' Begrijpt hij de invloed van zijn platform niet? ,,Inderdaad, hij begrijpt niet wat hij heeft gecreëerd of hij wil dat niet begrijpen. Ze willen het niet weten terwijl in hun vliegtuig stappen en naar hun dure huizen gaan.''



Twee maanden kwam de National Intelligence met een rapport over Russische inmening in de verkiezingen via social media. Alex Stamos onderzocht de inmenging bij Facbook en bracht verslag uit bij de directie. ,,Hij vond de invloed terug en wist ook dat hij alleen het topje van de ijsberg kon zien.'' Er werd een groep gevormd die alle advertenties onder de loep namen en uiteindelijk werd er een link gevonden naar Reserach Agency in Sint Petersburg, dezelfde groep die dat deed in Oekraine. 

Ze maakten oproepen voor internetgroepen met bedenkelijke ideeën onder Amerikaanse namen en verzamelden zo groepen mensen om daar nepnieuws op te verspreiden. Zo kwam links en rechts met elkaar in confrontatie in de buurt van een moskee in Houston. Er was een systeem ontstaan waarbij de Russen alle groepen tegen elkaar ophitsten om zo verdeeldheid te zaaien. ,,De Russen hebben veel mensen opgeroepen om te stemmen en zo Trump in het zadel geholpen.'' 

Het komt er op neer dat Facebook veel te groot is geworden om het nepnieuws te controleren en niemand daar bovendien de verantwoordelijkheid voor. David Madden is tech ondernemer in Myanmar en hij waarschuwde tegen propaganda die de strijd tussen moslims en boeddhisten aanwakkerde. De eerste signalen kwamen in 2014 toen er een nepbericht verscheen waarbij een boeddhist verkracht zou zijn door een moslim, er braken rellen uit met twee doden tot gevolg. 

Madden presenteerde zijn bevindingen bij Facebook en waarschuwde. Het geweld werd steeds erger. In 2017 vertelde hij nogmaals tegen Facebook dat de nepberichten bleven bestaan en dat ze zich zorgen maakten. Uiteindelijk werden de moslims verjaagd uit Myanmar en de VN oordeelde dat Facebook een voorname rol speelde bij genocide. De interviewer vraagt dat aan Monica Bickert, manager global policy management voor Facebook, wat er misging. ,,We hebben geleerd hoe we die content vinden en we moeten met lokale partijen samenwerken. Die relaties zijn we aan het opbouwen.'' Naomi Gjelt: ,,We hebben nu 20.000 mensen werken aan veiligheid. Ik betreur het dat het zo langzaam ging. We waren gewoon te idealistisch.''

Voornaamste bron van informatie
Madden zegt het treffend. ,,Facebook is in veel landen de voornaamste bron van informatie dat levert veel verantwoordelijkheid op. Het voorbeeld van Myanmar betekent dat dit groot aangepakt moet worden.''

En toen kwam het afgelopen jaar het schandaal met Cambridge Analytica naar buiten waarbij Cambridge de data gebruikte van tientallen miljoenen mensen. Zuckerberg moest zich verantwoorden in het congres. Tim Wu, auteur van The Curse of Bigness vat de kern wel goed samen. ,,We zijn op het punt gekomen dat er iets aan gedaan moet worden. Er zijn veel problemen, maar alle problemen worden erger als een bedrijf teveel macht heeft en te veel informatie heeft over mensen. Als je zo de mensen hoort die er nog werken dan merk je dat ze optimistisch zijn, maar ook dat het nog even kan duren allemaal. Zorgen zijn er ook. ,,Ze zullen hun businessmodel niet veranderen zo lang er winst wordt gemaakt.''

Het Facebook-dilemma
Want dat is natuurlijk het Facebook dilemma; als je iedereen toegang geeft om anderen te bereiken dan is het onvermijdelijk dat je ook mensen met kwade bedoelingen aantrekt. En als je de perfecte tool voor adverteerders wil neerzetten dan is het logisch dat je te maken krijgt met problemen. Wat perfect is voor de adverteerder is verre van perfect voor de consument.

Steeds meer zie je dat Facebook gebouwd is door briljante geesten die vergaten om ook eens lekker cynisch te zijn. Dat positieve hielp het bedrijf naar ongekende hoogtes, maar het zorgde ook voor een roze bril. Ze misten een cynicus die op dwingende toon zei: we kunnen computers geen grotemensenproblemen laten oplossen, maar dat moeten wijzelf doen.

Er had per land een lokale afdeling van Facebook moeten komen die zou functioneren zoals een normale krant is georganiseerd; met een hoofdredacteur, een advertentiebaas, een ombudsman en journalisten die alles checken voordat ze het doorgeven. Ze zouden zich aan de lokale wetten voor mediabedrijven houden en dus niet alleen aan de eigen regels. Als Facebook iets doms deed, kon je gewoon bellen en als je ontevreden was, zegde je abonnement op. Want ja, misschien is dat ook wel de les van de 21ste eeuw; leuke dingen kosten geld.

 

MEEPRATEN OVER DIT ONDERWERP? REAGEER

Er zijn nog geen reacties gegeven. Wees de eerste die een reactie geeft