Good morning privacy!

Guido Scorza

Viviamo nella società dei dati, la nostra vita, in tutte le sue dimensioni è sempre più influenzata dai nostri dati personali, da chi li utilizza, da cosa ci fa, da dove e quanto li conserva. Senza dire che anche gli algoritmi ne sono straordinamente golosi, direi voraci. Ecco perché dedicare tre minuti al giorno alla privacy potrebbe essere una buona idea, il tempo di un caffè veloce, un buongiorno e niente di più, per ascoltare una notizia, un'idea, un'opinione o, magari, per sentirti cheiedere cosa ne pensi di qualcosa che sta accadendo a proposito di privacy e dintorni. Non una rubrica per addetti ai lavori, ma per tutti, un esercizio per provare a rendere un diritto popolare, di tutti e per tutti, centrale come merita nella nostra esistenza.

  1. JAN 15

    Basta un dito per proteggere la privacy dei nostri figli

    Se proprio non sappiamo resistere alla tentazione di pubblicare le loro foto, basta un dito per proteggere la privacy dei nostri figli Oggi nessuna notizia di attualità per iniziare la giornata ma un consiglio utile, anzi, secondo me prezioso, per tutti ma, in particolare, per noi genitori. Pubblicare le foto dei nostri figli è spesso una tentazione irresistibile. Lo si fa di continuo. Il primo bagnetto, il primo giorno di scuola, il compleanno e chi più ne ha più ne metta. È una pessima abitudine ma è dura a morire. Quindi in attesa di riuscire a sconfiggerla vale, forse, la pena provare a limitarne le conseguenze. La sigla e vi racconto come. [—] La necessaria premessa è questa: pubblicare online una foto dei nostri figli non è una buona idea, anzi, se mi si consente un abuso di schiettezza è davvero una pessima idea. Le ragioni sono tante. Ve ne racconto tre. La prima è che non dovremmo mai dar per scontato che crescendo i nostri figli siano felici della nostra scelta di condividere le loro immagini da bambini con il resto del mondo ma, a quel punto, tornare indietro potrebbe essere – e nella più parte dei casi sarà – impossibile. Mentre, infatti, ci vuole un attimo a pubblicare un contenuto online, una vita può non bastare per renderlo di nuovo privato. E iniziano a moltiplicarsi in giro per il mondo le azioni proposte da ex bambini, divenuti adolescenti, nei confronti di genitori, zii e persino nonni, perché cancellino le loro foto dai social network perché non vogliono, per esempio, che quella foto del loro primo bagnetto o della loro prima corsetta in costume sulla spiaggia rappresenti il loro biglietto da visita nel primo giorno di liceo. La seconda è che, sfortunatamente, con l’intelligenza artificiale che avanza, ormai, chiunque, in pochi tap sullo schermo di uno smartphone può prendere da una foto che abbiamo pubblicato online pieni di orgoglio materno o paterno il viso dei nostri figli e trasformarlo in quello di pornoattore o di una pornoattrice destinato a soddisfare gli appetiti più malati e perversi di quella parte di umanità disumana che ci piacerebbe non esistesse ma, invece, esiste. Capita molto più spesso di quanto si possa immaginare. La terza è che le foto che pubblichiamo e il loro sfondo – magari con la targa della scuola frequentata dai nostri figli o il campetto dove giocano a pallone – potrebbero fornire indicazioni preziose a quella stessa umanità disumana che potrebbe volerli adescare. E, anche questo, purtroppo, la cronaca racconta che succede, succede e ancora succede. Ma se nonostante queste e le tante altre ragioni che suggeriscono di non farlo non sappiamo resistere dal pubblicare online la foto dei nostri figli, almeno, sfochiamo i loro visi. Farlo è facilissimo. Sull’iphone, dalla versione IOS18 in avanti – e, quindi, senza bisogno di avere l’ultimo modello – basta un dito e una manciata di secondi. Si fa così. Si sceglie la foto che non si sa resistere alla tentazione di pubblicare. Si va su “modifica” e quindi su “ripulisci”. A questo punto si cerchia il viso con un dito. L’intelligenza artificiale di Apple fa il resto e sfoca il volto di nostra figlia o nostro figlio rendendo impossibile per chiunque, dopo la pubblicazione, visualizzare il suo volto. È facile, costa poco tempo, garantisce un risultato ragionevole – anche se non il massimo – in termini di bilanciamento tra la spinta a pubblicare quella foto e l’esigenza di proteggere la privacy dei nostri figli e lasciare, come dovrebbe venirci in realtà naturale, che divenuti capaci di farlo siano loro a scegliere in autonomia dove tracciare la linea di confine tra le dimensioni pubblica, privata e segreta della loro esistenza. Pochi secondi, un dito e, certo, la rinuncia a far veder al mondo intero il sorriso dei nostri figli. È il prezzo di una scelta giusta o, almeno, meno sbagliata di quella che in tanti, da genitori, facciamo spesso. Buona giornata e good morning privacy!

    4 min
  2. Basta schiavi dei nostri tap sugli smartphone

    JAN 14

    Basta schiavi dei nostri tap sugli smartphone

    Ci sono due notizie rimbalzate nei giorni scorsi online che suggeriscono una riflessione amara ma necessaria. La prima è la decisione del Governo indiano di chiedere alle aziende di e-commerce istantaneo di smettere di promettere ai propri utenti consegne in dieci minuti. La seconda sono le rivelazioni di un ingegnere informatico che racconta di aver lavorato sin qui una grande società di consegne a domicilio e di essersi licenziato per una sorta di obiezione di coscienza. Entrambe le storie hanno la stessa morale: il lusso che ci piace a tutti di ordinare qualsiasi cosa restando seduti sul nostro divano attraverso un tap sullo schermo dello smartphone sta assumendo dei costi sociali insostenibili per le centinaia di milioni di persone che lavorano nel settore. La sigla e ve ne parlo per qualche minuto. Nel resto del mondo la tendenza non ha ancora preso così tanto piede ma nelle grandi città indiane sembra, ormai, irreversibile: si ordina un prodotto, uno qualsiasi, da una playstation a del cibo e ci si aspetta di vederselo consegnare in dieci minuti anche perché tanto promettono una serie di aziende specializzate in questo genere di e-commerce istantaneo. Ma, naturalmente, mantener fede a una promessa del genere, significa far correre fino allo sfinimento i propri corrieri senza riguardo alle condizioni atmosferiche, al traffico, allo stress e alla stanchezza. È per questo che il Governo indiano ha appena chiesto alle leader di questo settore di mercato di ripensare il modello di business, di smettere di promettere consegne tanto rapide, di rispettare di più i lavoratori e farli rischiare di meno lungo le strade delle grandi città. Il lusso di chi ordina, infatti, è diventato un costo insostenibile per i lavoratori che devono consegnare l’ordine. E non succede solo in India e non succede solo con il commercio elettronico istantaneo. Negli Stati Uniti, infatti, nei giorni scorsi una gola profonda ha denunciato una serie di pratiche algoritmiche disumane che sembrerebbero diffuse nel settore delle consegne a domicilio. Una su tutte, tanto per evitare che il caffè diventi lungo. Uno dei parametri utilizzati dall’algoritmo che gestisce l’assegnazione delle corse ai rider sarebbe questo: se un rider, in una stessa serata, accetta un certo numero di corse di modesto o modestissimo valore, lo si contraddistingue come “disperato” e, da quel momento in poi non gli si propongono più corse meglio pagate. La ratio è tanto semplice quanto disumana e disumanizzante: se è disposto a correre e lavorare tanto per un pugno di dollari, perché pagargliene di più? Un ragionamento che, probabilmente, per la società che gestisce l’applicazione vale una significativa impennata dei guadagni e un’ottimizzazione nella gestione delle risorse umane ma che, evidentemente, non ha niente ma proprio niente a che fare con la dignità delle persone e dei lavoratori. Due storie lontane, due storie diverse, due storie che suggeriscono, certamente, di puntare l’indice e di indirizzare un duro j’accuse all’industria del settore ma, al tempo stesso, due storie che dovrebbero impedirci di autoassolverci, di sentirci innocenti, di sottrarci alle nostre responsabilità. In fondo se le cose stanno andando come stanno andando, con persone trattate da autentici schiavi anziché da madri, padri, figlie, figli, persone, insomma, in carne ed ossa, la colpa è anche nostra e di lussi e privilegi digitali talvolta stupidi ai quali, forse, potremmo rinunciare. Perchè in fondo attendere trenta minuti anziché dieci per ricevere una playstation a casa non ci cambia la vita. Come non ce la cambia fare lo sforzo – si fa per dire – di pensare a quello che avremmo voglia di mangiare a cena trenta minuti prima. Insomma se ciascuno di noi facesse un piccolo passo indietro nelle proprie aspettative digitali, potrebbe contribuire a fare un grande passo avanti alla dignità di centinaia di milioni di lavoratori della gig economy oggi calpestata e travolta dalla ferma volontà del mercato di soddisfare ogni nostro desiderio e capriccio. Buona giornata e, come sempre, good morning privacy!

    4 min
  3. Sbaglia anche Dr. Google! Bisogna correre ai ripari in fretta.

    JAN 13

    Sbaglia anche Dr. Google! Bisogna correre ai ripari in fretta.

    Domenica scorsa, a seguito di una bella inchiesta giornalistica del The Guardian, Google ha impedito al suo AI Overview -il riassunto generato artificialmente che da un po' compare in cima ai risultati delle ricerche nel tentativo di soddisfare il più rapidamente possibile la curiosità degli utenti – di rispondere a alcune domande, in particolare, su alcuni valori delle analisi del sangue relativi a possibili patologie epatiche. I giornalisti del The Guardian avevano, infatti, denunciato la circostanza che talune di queste risposte erano sbagliate e fuorvianti e avrebbero potuto ingenerare gravi errori sulle condizioni di salute degli utenti. Bene lo stop di Google – che, pure, sostiene di aver agito prudenzialmente ma di non esser certa dell’erroneità delle risposte della sua intelligenza artificiale -, non benissimo e, comunque, francamente, non credo il problema possa esser affrontato e risolto in maniera episodica. Ma ve ne parlo dopo la sigla. —- Dr. Google esiste da quando esiste Google. Era il 1998. È da allora che ci siamo abituati a consultarlo, tra l’atro, sulle nostre condizioni di salute, sulle diagnosi e sulle terapie. E, però, fino a qualche mese fa la risposta è sempre stata un lungo elenco di link a fonti più o meno autorevoli tra le quali navigare alla ricerca di informazioni capaci di soddisfare i nostri interessi e la nostra curiosità. Con OverviewAI è cambiato tanto se non tutto perché Google ha iniziato a usare l’intelligenza artificiale per generare una sintesi editoriale del contenuto delle principali fonti proposte tra i risultati della ricerca. Obiettivo: semplificarci ancora di più la vita, farci risparmiar tempo, fornirci risposte piu1 centrate rispetto alla domanda senza imporci di andarle a cercare in infinite, per quanto autorevoli, pagine web. Molto nobile e molto bello ma soprattutto indispensabile in termini competitivi davanti a quello che stava accadendo: frotte di utenti che stavano smettendo di interrogare il motore di ricerca più famoso del mondo e iniziando a interrogare ChatGPT, l’intelligenza artificiale più popolare del momento perché, naturalmente, siamo tutti pigri e, sfortunatamente, preferiamo una risposta sintetica e preconfezionata che dover navigare in un lungo elenco di risultati della ricerca. Meglio ChatGPT che Google insomma e, pazienza, per l’accuratezza della risposta, pazienza se l’intelligenza artificiale non è nata per far sintesi accurate specie in taluni ambiti, pazienza se l’errore è sempre in agguato, pazienza se OpenAI non è l’editrice di una blasonata enciclopedia. Questo è accaduto in tutti gli ambiti dello scibile umano, salute inclusa. Anche perché, altrimenti, lo studio medico del Dr. Google si sarebbe svuotato a tutto vantaggio di quello del Dr. ChatGPT perché chi ha appena fatto un’analisi del sangue e vuole sapere se sta bene senza attendere di vedere il medico, avrebbe preferito di gran lunga la risposta sintetica e preconfezionata di ChatGPT che il lungo elenco di link di Google. Ma, come si dice spesso, la sintesi è nemica dell’analisi e, soprattutto, la sintesi è un’attività creativa, difficile, complessa con la naturale conseguenza che sbagliare facendo sintesi è possibile, facile, in alcuni ambiti – a cominciare proprio da quello medico – frequente. E quando si sbaglia a leggere un’analisi medica, a proporre una diagnosi a suggerire una terapia le conseguenze possono essere gravi e gravissime. Gli utenti, sfortunatamente, tendono a credere all’onniscienza dell’intelligenza artificiale e a fidarsene persino quando la stessa intelligenza artificiale suggerisce loro di interpellare un medico. È qui che sta il problema che non è episodico ma sistemico e non si può risolvere con l’eliminazione di alcune risposte sbagliate suggerite come tali da un’inchiesta giornalistica. Io non credo che un’intelligenza artificiale di tipo generativa come quella di Google o OpenAI, ma lo stesso vale per qualsiasi altro concorrente, possa dare indicazioni mediche di qualsivoglia genere se non dopo che il servizio venga testato, collaudato, certificato come dispositivo medico. Non mi pare sostenibile ulteriormente che progettare, produrre e distribuire un termometro o un test di gravidanza sia più complicato e richieda maggiori tutele che distribuire sul mercato soluzioni di intelligenza artificiale capaci di fatto, di sostituirsi a un medico, proponendo diagnosi e terapie. Voi che ne pensate? Buona giornata e good morning privacy!

    4 min
  4. Tra moglie e marito non mettere ChatGPT

    JAN 12

    Tra moglie e marito non mettere ChatGPT

    Decidono di sposarsi e chiedono a un amico che li conosce bene di celebrare il matrimonio per rendere la cerimonia più intima e romantica. Lui accetta ma non avendo mai celebrato un matrimonio chiede a ChatGPT di scrivergli il discorso che avrebbe dovuto pronunciare, promesse e obblighi che avrebbe dovuto chiedere ai due promessi sposi di assumere. Detto fatto. O, meglio, chiesto e scritto da ChatGPT. Ma non è tutto oro quello che luccica e non son sempre nozze quelle che sembrano esserlo. Lo racconta bene una storia che rimbalza da un Tribunale olandese. Se vi interessa ascoltate il podcast. Ma dopo la sigla [SIGLA] L’ufficiale dell’anagrafe che avrebbe dovuto trascrivere il matrimonio nel registro dello stato civile per renderlo valido leggendo promesse e obblighi assunti dagli sposi o, meglio, dai due sfortunati che pensavano di essersi sposati ha notato che qualcosa non andava e ha, quindi, chiesto ai Giudici di verificare se il matrimonio potesse essere registrato. Nei giorni scorsi è arrivata la risposta. Un fermo, per quanto dispiaciuto, no. Il discorso pronunciato dall’amico della coppia incaricato e autorizzato a officiare il matrimonio e, soprattutto, le promesse e gli obblighi assunti dai due nubendi erano difformi da quanto previsto dal codice civile olandese. Impossibile, sulla base di quel che si sa, dire se per colpa del prompt ovvero della richiesta con la quale l’amico dei due ha chiesto a ChatGPT di aiutarlo a trovare le parole giuste per dichiararli marito e moglie e unirli in matrimonio o per colpa di ChatGPT ma fatto sta che le parole pronunciate, tanto dall’officiante che dai due promessi sposti, non sono state quelle giuste. Romantiche e divertenti più del solito certamente si. Valide a norma di legge per unire due persone in matrimonio certamente no. E, in fondo, cuore e romanticismo a parte, il matrimonio è un contratto che senza le formule di rito non può considerarsi valido. Inutile la difesa della coppia che ha, naturalmente, confermato ai giudici la serietà delle intenzioni e l’ignoranza delle mancanze nelle quali erano incorsi e inutile anche l’invito rivolto ai Giudici a non cancellare con una sentenza la data delle loro nozze, scelta tra tante possibili e alla quale erano affezionati. Comprendiamo tutto, comprendiamo bene ma dura lex sed lex hanno risposto i Giudici olandesi costringendo i due a celebrare, anche se solo per esigenze di forma, un nuovo matrimonio in municipio. Vicenda più da sorriso del mattino che da sottili riflessioni giuridiche anche se, forse, una considerazione la suggerisce. Stiamo, evidentemente, acquisendo così tanta fiducia nell’intelligenza artificiale e in particolare, in questo caso, in quella generativa da affidarle compiti sempre più rilevanti per le nostre vite e per quelle di chi ci sta vicino. Ma la fiducia cieca in strumenti e servizi che per quanto possano apparire capaci di soddisfare ogni nostra richiesta come se stessimo strofinando la lampada di Aladino sono nati con ambizioni più modeste e dovrebbero, essenzialmente, esser usati per mettere in fila parole in maniera statisticamente lessicalmente corretta è, spesso, mal riposta. I due sposi olandesi e il loro amico, certamente, non dimenticheranno la lezione tanto facilmente. Ma dobbiamo farla nostra anche noi. Bene usare l’intelligenza artificiale generativa ma solo per far prima in domini nei quali siamo in condizione di poter verificare il contenuto che genera, insomma, ricordando che magari sa scrivere bene e velocemente ma non è la grande saggia che talvolta pensiamo che sia. Oggi un caffè leggero. Buona giornata e good morning privacy.

    4 min
  5. Morire d’amore per un chatbot

    JAN 9

    Morire d’amore per un chatbot

    Nel febbraio del 2024 un ragazzino americano di quattordici anni si è ucciso sparandosi un colpo di pistola in testa dopo aver allacciato una lunga relazione con un chatbot creato attraverso CharacterAI. Nei giorni scorsi la causa promossa dalla mamma davanti ai Giudici della Florida contro Character AI e Google è stata chiusa con una transazione. È una storia che merita qualche riflessione. La sigla e ne parliamo. Leggere l’atto di citazione con il quale Megan Garcia, la mamma del ragazzo morto suicida aveva chiesto ai Giudici di Orlando, in Florida di accertare la responsabilità di CharacterAI e Google nella morte del figlio e condannarle al risarcimento dei danni è un esercizio dolorosissimo ma prezioso perché racconta di una storia normale a dispetto del tragico epilogo. Quella di Sewell, così si chiamava il figlio quattordicenne che non c’è più è, infatti, probabilmente una storia eguale a quelle di milioni di altri bambini e adolescenti, storie delle quali, magari, da adulti, non ci rendiamo conto, non ci accorgiamo o non percepiamo con la necessaria urgenza e gravità proprio come accaduto a Megan Garcia. Sewell, in pochi mesi, aveva stretto una vera e propria relazione sentimentale e sessuale con un chatbot generato attraverso i servizi di CharacterAI, una relazione della quale non era più in grado di fare a meno, una relazione che lo aveva profondamente cambiato tanto nel rapporto con i genitori tanto in quelli a scuola e con gli amici. Questo la mamma, in qualche modo, lo aveva intuito tanto da portare il figlio da uno psicologo che aveva confermato i suoi sospetti. Nessuno però aveva immaginato e, forse, avrebbe potuto immaginare che la condizione di dipendenza del ragazzino nei confronti del chatbot era tanto profonda da impedirgli di farne a meno, da costringerlo a rinunciare alle merende per pagare il canone dei servizi di abbonamento premium necessari a avere conversazioni sentimental-sessuali con il suo amore artificiale, tanto, quando la mamma nella speranza di aiutarlo gli ha tolto il telefonino, da portarlo a fare ogni genere di tentativo per ritrovarlo o collegarsi al chatbot diversamente e, poi, vistosi perso, chiudersi in bagno, scambiare poche parole proprio con il chatbot in questione attraverso lo smartphone momentaneamente ritrovato e, quindi, spararsi un colpo di pistola in testa. Il giudizio non accerterà mai se e quali responsabilità effettive siano imputabili a chi ha progettato, gestito e distribuito il servizio utilizzato da Sewell perchè, appunto, le parti, nei giorni scorsi, hanno raggiunto un accordo transattivo i cui termini non sono stati resi noti. E, però, noi, da adulti, da genitori, da istituzioni qualche domanda dobbiamo porcela perché quello che è successo a Sewell domani potrebbe accadere a chiunque altro, a un altro bambino, un altro adolescente, a una nostra figlia o a un nostro figlio. Tra queste domande, una delle più importanti, probabilmente, riguarda la sostenibilità dell’idea – sin qui imposta da industria e mercato – che chatbot di questo genere, chatbot che si presentano come capaci di esserci amici, fidanzate, amante e psicoterapeutici possano essere, sostanzialmente, utilizzabili da chiunque, a prescindere dall’età e, quindi, anche da bambini e adolescenti. È davvero accettabile? Perché la cronaca, purtroppo, racconta che in giro per il mondo ci sono già decine di casi di adulti che si sono tolti la vita all’esito di relazioni di diverso genere con chatbot di ogni tipo ed è facile capire che se quel genere di relazioni è pericolosa per un adulto non può che esserlo ancora di più per un bambino o per un adolescente. E, forse, non è un caso che l’accordo transattivo arrivi proprio mentre in California, dove hanno sede CharacterAI e Google, entra in vigore la prima legge al mondo che impone, tra l’altro, alle aziende che forniscono servizi di chatbot di verificare l’età degli utenti e di limitare in maniera straordinariamente rigorosa ogni possibilità che i chatbot in questione abbiano conversazioni di tipo sessuale con i più giovani. Varrebbe, forse, la pena, senza attendere un’altra tragedia come quella di Sewell, seguire l’esempio californiano. È ovvio che non è solo una questione di età ma, al tempo stesso, non c’è dubbio che tenere i più piccoli lontani da certi rischi insostenibili potrebbe essere un buon inizio. Buona giornata e, come sempre, good morning privacy.

    5 min
  6. La privacy vince sulla violenza mediatica anche in guerra

    JAN 7

    La privacy vince sulla violenza mediatica anche in guerra

    In Italia la notizia l’hanno battuta in pochi e, forse, non c’è da sorprendersi: la BBC, il servizio pubblico televisivo inglese, uno dei laboratori più blasonati di giornalismo di qualità, nei giorni scorsi ha raggiunto un accordo transattivo con una famiglia israeliana dopo averne violato la privacy. La famiglia, attaccata da Hamas il 7 ottobre 2023 aveva citato l’emittente televisiva in Tribunale dopo che una troupe era entrata nella sua abitazione, subito dopo l’attacco al quale era miracolosamente sopravvissuta e aveva ripreso scene di disperazione e sconforto facilmente immaginabili, oggetti e foto personali e personalissimi. La sigla e ne parliamo "Non solo i terroristi hanno fatto irruzione in casa nostra e hanno cercato di ucciderci – hanno detto i sopravvissuti all’attacco - ma poi la troupe della BBC è entrata di nuovo, questa volta con una telecamera come arma, senza permesso o consenso. È stata un'altra intrusione nelle nostre vite.  Sentivamo che tutto ciò che era ancora sotto il nostro controllo ci era stato portato via.". Sono parole che rendono meglio di tante altre l’idea di quanto valga o, almeno, dovrebbe valere l’intimità, la privacy, la riservatezza per ciascuno di noi e quanto rispettarla debba, o, almeno, dovrebbe essere un dovere di tutti a cominciare da chi fa informazione. Una famiglia appena sopravvissuta alla violenza di granate lanciate dai terroristi contro la porta di casa che vive come analoga e, anzi, forse ancora più prepotente e violenta, la violazione della propria intimità commessa da una troupe televisiva entrata, senza alcun permesso, dentro quella stessa casa. E una troupe televisiva, di un’emittente simbolo del giornalismo di qualità che, per raccontare una scena di guerra, di inaudita violenza, usa altrettanta violenza. Disumanità dopo disumanità. Inciviltà dopo inciviltà. Una sequenza di episodi che non avrebbe mai dovuto trovare spazio nella storia dell’umanità. Ma, forse, anche una sequenza di episodi che può insegnarci molto a condizione di non lasciarcela scivolare addosso come una notizia qualsiasi, una di quelle che contano di meno, una di quelle da consegnare in fretta agli archivi storici dei giornali. Anche e soprattutto in un momento nel quale, ovunque nel mondo, Italia inclusa, si fa sempre più fatica a tracciare la linea di confine tra giornalismo, anche d’inchiesta e la protezione della privacy delle persone. Il diritto di cronaca non è un diritto assoluto proprio come non lo è il diritto alla privacy e, quindi, neppure il sacrosanto diritto-dovere di raccontare gli orrori di un’autentica guerra giustificano la violazione dell’intimità della casa di un’intera famiglia, bambini inclusi, appena scampata a un attacco terroristico. È una lezione che la BBC ha fatto propria in fretta, rinunciando a difendere in Tribunale l’idea che la propria missione informativa fosse una valida giustificazione per entrare, telecamere alla mano, dentro casa della famiglia senza neppure aver chiesto permesso. Quella storia si poteva – e, anzi, forse, si doveva – raccontare senza violare la privacy di quella famiglia o chiedendo e ottenendo il consenso a entrare dentro quella casa o non raccogliendo e trasmettendo quelle immagini di ordinario disumano dolore che, purtroppo, ormai, aggiungono poco all’orrore di quella guerra. E c’è da augurarsi che sia una lezione che anche chi fa giornalismo nel resto del mondo, a cominciare da casa nostra, impari in fretta e per davvero. Non c’è ragione per vedere nella privacy una nemica del buon giornalismo, proprio come il buon giornalismo non è nemico della privacy. Un equilibrio è possibile. E, in fondo, anche se pochi lo ricordano, il diritto alla privacy, quello teorizzato per la prima volta nel 1890 da Warren e Brandeis nel loro saggio sulla Harvard Law Review, nasce proprio come reazione a una serie di articoli pubblicati sul giornale addirittura di quel Joseph Pulitzer che sarebbe presto diventato il nome simbolo del miglior giornalismo possibile, a conferma, probabilmente, del fatto che privacy e informazione sono diritti complementari, simbiotici, alleati, capaci di migliorarsi a vicenda e, insieme, rendere migliore la vita delle persone e delle nostre democrazie.

    6 min
  7. Informazione: è cambiato tutto e tutto cambierà ancora

    12/19/2025

    Informazione: è cambiato tutto e tutto cambierà ancora

    Il Pew Research center ha pubblicato, qualche settimana fa, una ricerca straordinariamente istruttiva sul rapporto tra giovani, meno giovani e anziani e l’informazione negli Stati Uniti d’America. Ma difficile pensare che da questa parte dell’oceano, nella società globalizzata nella quale viviamo, le cose siano particolarmente diverse. Le differenze tra il consumo di informazione tra le persone di età compresa tra i 18 e i 29 anni e gli ultrasessantacinquenni sono decisamente tante e importanti. La sigla e proviamo a mettere in fila qualche numero. [sigla] La conclusione, probabilmente, più importante di tutte quelle a cui approda la ricerca sarà, magari, per molti scontati: i più giovani si informano sempre meno dal 2016 ad oggi e, soprattutto, enormemente di meno dalla popolazione più anziana. E, soprattutto, mentre i più anziani ricercano attivamente l’informazione, i più giovani, nella migliore delle ipotesi, si lascia raggiungere dall’informazione in modalità sostanzialmente passiva. Tanto per dare qualche numero: il 62% degli ultrasessantacinquenni si informa attivamente contro un appena 15% che fa altrettanto tra gli ultra diciottenni e infra ventinovenni. Inutile, probabilmente, aggiungere che la stragrande maggioranza dei più giovani si informa o, forse, meglio, si lascia informare dai socialnetwork con Tik Tok e Instagram in testa. E, naturalmente, è vero anche il contrario con il doppio degli anziani rispetto ai più giovani davanti al televisore. Qui c’è spazio per una riflessione interessante perché in fondo la ricerca suggerisce che le diete mediatico-informative sono stabilite da soggetti diversi a seconda l’età dei fruitori delle notizie: ancora largamente la televisione nel caso degli ultrasessantacinquenni, appunto i social nel caso dei diciottenni, infra ventinovenni. La ragione è presto detta. L’informazione sui social network corre più veloce e, soprattutto è proposta ai più giovani dai loro beniamini digitali che, ormai chiamiamo tutti influencer. Lo fanno in quattro su dieci tra i 18 e i 29 anni. Al di fuori dei social media, non esiste nessun'altra piattaforma digitale per il consumo di notizie in cui gli adulti sotto i 30 anni siano così costantemente diversi da tutti i gruppi di età più anziani. Gli stessi chatbot basati sull’intelligenza artificiale dei quali pure si parla tantissimo come dei prossimi protagonisti indiscussi della dieta mediatica del mondo intero sembrano dover fare ancora tanta strada prima di poter insidiare il primato dei socialnetwork. I giovani sono leggermente più propensi rispetto ai più anziani ad affermare di ricevere notizie tramite chatbot basati sull'intelligenza artificiale (13%), ma la percentuale di coloro che ricevono notizie in questo modo è ancora relativamente piccola rispetto ad altre piattaforme digitali. Un’altra differenza importante tra più e meno giovani si registra sul versante dell’affidabilità delle fonti: i più giovani si fidano enormemente di più dei social network che dei media tradizionali. Ancora una volta un’osservazione che appare significativa. Niente privacy oggi anche se, in realtà, dietro a tutto il mondo dell’informazione digitale i dati personali ci sono e come e hanno anche un ruolo di indiscussi protagonisti perché, alla fine, che si parli dei social, dei chatbot o dei giornali, sono tutti li a contendersi l’unica cosa che online conta per davvero: l’attenzione degli utenti e attraverso l’attenzione il loro tempo e, quindi, i loro dati personali da rivendersi, in un modo o nell’altro agli investitori pubblicitari. Buona giornata e, come sempre, good morning privacy.

    4 min
  8. La tua SmartTV ti guarda mentre la guardi

    12/18/2025

    La tua SmartTV ti guarda mentre la guardi

    Il Procuratore Generale del Texas Ken Paxton ha appena intentato una causa contro Sony, Samsung, LG, Hisense e TCL Technology Group Corporation. L’accusa è aver spiato i texani attraverso le loro SmartTV. Un’iniziativa che merita di esser raccontata e seguita perché educativa e istruttiva. La sigla e ne parliamo. [SIGLA] C’erano una volta le televisioni che si lasciavano guardare punto e basta. Non ci sono più. Le televisioni che abbiamo oggi in salotto, quelle che il mercato ci ha imparato a chiamare SmartTV, infatti, ci guardano mentre le guardiamo. E, per dirla tutta, ci guardano con molta più attenzione e molto più in profondità di quanto noi non si faccia con loro. Ma secondo il Procuratore Generale del Texas ci sarebbe molto di più. Non solo, infatti, le SmartTV e, per loro, i loro produttori ci guarderebbero mentre noi le guardiamo ma, letteralmente, ci spierebbero. Si farebbero, insomma, i fatti nostri a nostra insaputa. E lo farebbero, inutile dirlo, per far soldi, tanti soldi rivendendo poi sul mercato della pubblicità tutto quello che scoprono su di noi, le nostre abitudini di consumo di contenuti digitali, i nostri gusti, i nostri orari e tanto di più deducibile da quello che guardiamo, come lo guardiamo e quando lo guardiamo. Una miniera d’oro di dati personali che arriverebbe nei forzieri digitali dei produttori di SmartTV direttamente dai nostri salotti e dalle nostre camere da letto. Secondo quanto dedotto nei cinque giudizi promossi dal Procuratore generale texano tutto questo sarebbe possibile essenzialmente grazie a quelli che, da un po', da questa parte dell’oceano, chiamiamo dark pattern, una congerie di informazioni in eccesso, interfacce disegnate a arte e flussi di raccolta dei consensi degli utenti a questo o quel trattamento di loro dati personali progettata e sviluppata scientificamente così da fare in modo che sia enormemente più facile prestare il consenso alle più invasive delle forme di monitoraggio commerciale immaginabili che negarlo. È così che le SmartTV starebbero spiando i texani ed è per questo che i loro produttori, oltre a smettere di farlo, dovrebbero risarcirli. Tutto questo, naturalmente, per stare ai cinque giudizi in Texas. E, però, visto che le TV sono sostanzialmente le stesse, legittimo ipotizzare che da questa parte dell’oceano le cose non vadano così tanto diversamente. Insomma, magari, la prossima volta che ci mettiamo davanti alla TV varrà la pena pensare che mentre noi la guardiamo, anche lei ci guarda e, ancora prima, varrebbe forse la pena dedicare qualche minuto in più alle informative sulla privacy che ci propongono quando le accendiamo per la prima volta e investire qualche minuto in più – secondo il Procuratore generale texano l’impresa è difficile e faticosa ma non impossibile – per negare tutti i consensi possibili a che le televisioni anziché lasciarsi guardare ci guardino. In fondo le SmartTV le paghiamo già una volta quando le compriamo e non c’è davvero ragione per pagarle una seconda volta con i nostri dati personali per di più accettando l’idea che, in un modo o nell’altro, qualcuno curiosi nel nostro salotto o nella nostra camera da letto. Buona giornata e, come sempre, good morning privacy.

    3 min

About

Viviamo nella società dei dati, la nostra vita, in tutte le sue dimensioni è sempre più influenzata dai nostri dati personali, da chi li utilizza, da cosa ci fa, da dove e quanto li conserva. Senza dire che anche gli algoritmi ne sono straordinamente golosi, direi voraci. Ecco perché dedicare tre minuti al giorno alla privacy potrebbe essere una buona idea, il tempo di un caffè veloce, un buongiorno e niente di più, per ascoltare una notizia, un'idea, un'opinione o, magari, per sentirti cheiedere cosa ne pensi di qualcosa che sta accadendo a proposito di privacy e dintorni. Non una rubrica per addetti ai lavori, ma per tutti, un esercizio per provare a rendere un diritto popolare, di tutti e per tutti, centrale come merita nella nostra esistenza.