#FakeNews: ogni soluzione funzionalmente inutile è una pessima idea (e va combattuta)

#

Molti mi chiedono in queste ore una parola, o più, sulla Task Force anti fake-news promossa a livello governativo, peraltro in cui compaiono alcuni amici di cui ho una stima immensa e di cui sono certo della ottima preparazione.

Credo però che la moda del “soluzionismo digitale” – la smania e di risolvere problemi complessi con un giochino/task-force/app facendola facile – in questo campo come in tanti altri compreso il contact-tracing sia particolarmente poco efficiente ed una pessima visione della soluzione dei problemi in via emergenziale e non sistemica.

Ho provato a metterla sul ridere su Twitter con un tweet:

https://twitter.com/lastknight/status/1246501804994674688

Ma, colpa mia sicuramente, la battuta sul fatto che la news stessa della creazione della task-force proveniva da un account non verificato è stata presa come gara di social-performance invece che fare riflettere – come avrei sperato – che se non si riesce a legittimare nemmeno la fonte primaria l’intero processo viene a cadere

Provo allora a raccontare più nel dettaglio perché la task-force è, soprattutto in questo caso, funzionalmente inutile. E vorrei spiegarmi con tre differenti argomentazioni, ciascuna – secondo me – più che sufficiente.

Debunking e controllo non funzionano.
Lo sappiamo da anni.

“Se le notizie false non possono essere risolte con iniziative di controllo dei fatti, non possono essere risolte nemmeno con un aumento del controllo centrale. Tale soluzione è incompatibile con il dibattito democratico quando è attuata da uno Stato, e ancor più quando è attuata dagli stessi media.
È una pessima idea chiedere a Facebook, Google, YouTube o qualsiasi altra piattaforma di vigilare sul dibattito pubblico ed è illusorio credere che si possano sviluppare algoritmi per identificare ed eliminare le notizie false. Data l’impossibilità di delimitare le notizie false, tali soluzioni algoritmiche saranno nel migliore dei casi inutili e nel peggiore nasconderanno iniziative di censura sotto la falsa premessa dell’oggettività meccanica“.

Enfasi e traduzione mia del bel documento di Tommaso Venturini, ricercatore presso il Centro per Internet e la Società del CNRS. È anche ricercatore associato dell’INRIA e del Médialab di Sciences Po Paris e membro fondatore del Public Data Lab.
Le ha pubblicate nel 2018 in un documento lucido e preciso che ogni tanto rileggo, intitolato “Confession of a Fake News Scholar (or “on to study popular subject”)” e presentato alla 68esima Conferenza annuale della International Communication Association nel Maggio 2018, quindi nemmeno sotto la scia emotiva del CoronaVirus.

La posizione è semplice: non esiste modo di fermare algoritmicamente le fake news e non esiste modo di creare fact-checking per un numero anche solamente parzialmente significativo di quelle che circolano. E date queste premesse il “soluzionismo digitale” questa volta non può fare altro – oltre le buone intenzioni – che ottenere un risultato al più frazionario andando però a comprimere fortemente la libertà di espressione del pensiero.

Non esiste quindi alcuna possibilità che una task-force riesca a limitare in modo significativo il proliferare del fenomeno.

Cosa è Fake?

Non solo questo qualcuno ha già pensato a questa soluzione, proprio riguardo alle fake news sanitarie, ma esiste una sottile linea che separa cosa è una fake-news da news assolutamente reali ma che mancano di parte del contesto. Come la notizia dei COVID19 che è “otto volte più infettivo della Sars”, lanciato online da Feigl-Ding, che non supera ma si avvicina fortemente alla linea di ciò che l’etica professionale permetterebbe alle autorità sanitarie pubbliche di dire.

Ne tesse molto bene la storia un lungo articolo, che consiglio parimenti, dell’Atlantic, un articolo che chiunque voglia creare e presiedere una task-force dovrebbe leggere approfonditamente. Il tweet certamente non era fake news: Ding ha sostenuto solo che il nuovo virus era otto volte più contagioso della SARS, quando in realtà la SARS aveva un R0 che variava da 2 a 5, molto comparabile con queste stime per il nuovo coronavirus.

Di certo non appoggiava le teorie cospirazioniste sulle armi biologiche e gli zombie, come alcuni hanno suggerito durante l’epidemia di coronavirus. Ma era anche lontano dalla calma, dalla lentezza, dalla posizione della maggioranza degli altri funzionari. E, naturalmente, è questo che ha reso il suo messaggio così irresistibile.

Ecco, questo non potrebbe in alcun modo essere classificato come Fake News e come questo tante altre soluzioni di “frontiera”.

Ma proprio sul contenuto “di frontiera” ci si batte da anni su Facebook, ed è lo stesso Zuckerberg che già qualche anno fa racconta di come le fake-news non siano – soprattutto in contesto sanitario – legate a falsità, ma soprattutto a contenuto “borderline”.

Il grafico dell’articolo di Zuckerberg sulle Fake News

E, citando verbatim:

La nostra ricerca suggerisce che non importa dove tracciamo le linee di confine per ciò che è permesso, quando un contenuto si avvicina a quella linea, le persone aumentano l’engagement medio – anche quando poi ci dicono che non gli piace il contenuto.

Decifrando: non è il contenuto falso che attira, ma quello borderline. Una linea sottile che non è spesso discernibile nemmeno dalla comunità scientifica, figuriamoci se può essere arbitrariamente deciso da una task-force per quanto in gamba e ferrata.

Il nemico sbagliato

Questa è molto più semplice, invece: il vero problema della disinformazione sul CoronaVirus non viene dalle fake-news ma dalla ripresa ed amplificazione di queste sui media mainstream. Punto.

Anche questo lo sappiamo da anni non solo per le campagne di oltreoceano, ma anche proponendo cospirazionismo nostrano e soprattutto alimentando la visibilità delle teorie complottistiche facendo “debunking” invece che semplicemente ignorarle, tattica che da anni sappiamo che ha un unico risultato, quello di amplificare le diffusione invece che limitarla.

Una task-force che, come in questo caso, non ha alcun potere di intervento sulla Stampa è una task force che, al massimo, riesce a chiedere agli OTT la rimozione di dati fattualmente errati e non certo il blocco della stampa cospirazionista che nemmeno l’Ordine dei Giornalisti sembra in grado di arginare.

Quindi funzionalmente utile su una parte residuale e praticamente ininfluente del ciclo di vita delle fake-news.

Quindi?

Quindi sappiamo che le fake-news sono un problema complesso la cui risoluzione non è né algoritmica né situazionista. È un complesso iter che si articola principalmente sulla riconquista della fiducia nei corpi intermedi della informazione, vigilando sulla corretta informazione dei media mainstream e non dei contenuti che lo sconosciuto utente della rete va a postare. Che non è parte dei compiti della task-force.

Forse, invece, quello che serve è una task-force di corretta informazione sul COVID19 e di vigilanza sulla correttezza dei contenuti veicolati dai media main stream.

E quindi lasciatemi finire con un commento non tanto sulla task-force, quanto sulla opportunità o utilità della task-force stessa.

Una Task Force che non è dotata di sufficienti poteri di intervento, soprattutto nei riguardi dei media mainstream, è per definizione funzionalmente inutile. Non per mancanza di competenze, ma per mancanza di possibilità concreta di applicarle in modo significativo.

E ogni soluzione funzionalmente inutile che limita selettivamente la libertà è sicuramente una pessima idea e va contrastata. Tutto qui.


E, se volete continuare la ricerca:

  • Boullier, D. (2015). Socio Vie et mort des sciences sociales avec le big data. Socio. 4. pp. 19–37.
  • Bounegru, L., Abildgaard, M.S., Birkbak, A., Gray, J., Jacomy, M., Elgaard, T.J., Koed Madsen, A. & Munk, A.K. (2017). Main Document – with full author details. Forthcoming.
  • Bounegru, L., Gray, J., Venturini, T. & Mauri, M. (2017). A Field Guide to Fake News: A Collection of Recipes for Those Who Love to Cook with Digital Methods.
  • Boyd, D. (2017). Did Media Literacy Backfire? 2017. Points
  • Cardon, D. (2010). La démocratie sur Internet. Promesses et limites. Paris: Seuil.
  • Chomsky, N. (1991). Media control : the spectacular achievements of propaganda. New York: Seven Stories.
  • Claire, W. & Derakhshan, H. (2017). Information Disorder: Toward an interdisciplinary framework for research and policymaking (Report to the Council of Europe).
  • Deuze, M. (2005). What is journalism? Journalism: Theory, Practice & Criticism. [Online]. 6 (4). pp. 442
  • Dewey, J. (1938). Logic: The Theory of Inquiry. New York: Holt, Rinehart And Winston.
  • Dewey, J. (1946). The public and its problems: an essay in political inquiry. [Online]. Chicago: Gateway Books.
  • Ellul, J. (1965). Propaganda: the Formation of Men’s Attitude. New York: Random House.
  • Flichy, P. (2007). The Internet Imaginaire. Cambridge Mass.: MIT Press.
    Jenkins, H., Ford, S. & Green, J.B. (2013). Spreadable media. Postmillennial pop. [Online]. p.p. 351.
  • Keyes, R. (2004). The Post-Truth Era: Dishonesty and Deception in Contemporary Life. New York: St. Martin’s.
  • King, G., Pan, J. & Roberts, M.E. (2017). How the Chinese Government Fabricates Social Media Posts for Strategic Distraction, Not Engaged Argument. American Political Science Review. [Online]. 111 (3).
    pp. 484–501.
  • Kohler, R.E. (1994). Lords of the Fly. Drosophila Genetics and the Experimental Life.
  • Lasswell, H.D. (1927). Propaganda Technique in World War. Chicago: Chicago University Press.
  • Latour, B. (2002). Gabriel Tarde and the End of the Social. In: P. Joyce (ed.). The Social in Question. New Bearings in the History and the Social Sciences. London: Routledge, pp. 117–132.
  • Latour, B., Jensen, P., Venturini, T., Grauwin, S. & Boullier, D. (2012). ‘The whole is always smaller than its parts’: a digital test of Gabriel Tardes’ monads. The British Journal of Sociology. [Online]. 63 (4). pp.
    590–615.
  • Latour, B. & Woolgar, S. (1979). Laboratory Life. The Construction of Scientific Facts. Los Angeles: Sage.
  • Lippmann, W. (1922). Public Opinion.
  • Lippmann, W. (1927). The Phantom Public. New York: The Macmillan Company.
  • Lynch, M. (2017). Post-truth, alt-facts, and asymmetric controversies. 2017. First 100 Days.
  • Morin, E. (1969). La rumeur d’Orléans. Paris: Seuil.
  • Pettegree, A. (2014). The Invention of News: How the World Came to Know About Itself. New Haven: Yale University Press.
  • Sanjuán, R. & Domingo-Calap, P. (2016). Mechanisms of viral mutation. Cellular and Molecular Life Sciences. 73 (23). p.pp. 4433–4448.
  • Shifman, L. (2013). Memes in Digital Culture. Cambridge Mass.: MIT Press. Tandoc, E.C., Lim, Z.W. & Ling, R. (2017). Defining ‘Fake News’. Digital Journalism. [Online]. 811 (August). pp. 1–17.
  • Tarde, G. (1890). Les lois de l’imitation.
  • Venturini, T., Jacomy, M., Meunier, A. & Latour, B. (2017). An unexpected journey: A few lessons from sciences Po médialab’s experience. Big Data & Society 4 (2).

l'autore

Matteo Flora

Mi chiamo Matteo Flora, sono imprenditore seriale, docente universitario e keynote panelist e divulgatore. Mi occupo di cambiare i comportamenti delle persone usando i dati.
Puoi trovare informazioni su di me ed i miei contatti sul mio sito personale, compresi i link a tutti i social, mentre qui mi limito a raccogliere da oltre quattro lustri i miei pensieri sparsi.
Buona lettura.

di Matteo Flora

Matteo Flora

Mi chiamo Matteo Flora, sono imprenditore seriale, docente universitario e keynote panelist e divulgatore. Mi occupo di cambiare i comportamenti delle persone usando i dati.
Puoi trovare informazioni su di me ed i miei contatti sul mio sito personale, compresi i link a tutti i social, mentre qui mi limito a raccogliere da oltre quattro lustri i miei pensieri sparsi.
Buona lettura.