Cerca nel blog

2024/03/29

Podcast RSI - Novità da Meta: interoperabilità, accuse di intercettazione dei rivali, il gioco nascosto dentro Instagram

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

Da pochi giorni Threads, l’app di messaggistica di Meta, permette di scambiare messaggi anche con chi non ha Threads: è insomma diventata interoperabile, e anche WhatsApp e Messenger stanno abbattendo le barriere di compatibilità. È una rivoluzione silenziosa nel modo in cui usiamo Internet. Ma non è l’unica notizia che ci arriva da Meta: c’è un’azione legale, negli Stati Uniti, che accusa i massimi dirigenti di Meta di aver violato le leggi sulla concorrenza e sulla riservatezza delle comunicazioni pur di riuscire ad acquisire dati sulle attività del rivale Snapchat.

Benvenuti alla puntata del 29 marzo 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica e in particolare, questa volta, a notizie che arrivano da Meta, come quella del giochino nascosto nell’app di Instagram. Se vi interessa sapere come attivare questo gioco, magari per stupire gli amici, restate in ascolto. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Meta entra davvero nel fediverso

Immaginate di poter usare una sola app per postare contemporaneamente su tutti i social network e per scambiare messaggi con chiunque usi un social diverso da quello che usate voi. Da WhatsApp potreste scrivere a chi sta su Messenger o Mastodon e viceversa, per esempio. Invece di tenere sul telefono tante app di messaggistica differenti e doversi ricordare che Mario è su Telegram e Piera sta su Snapchat e saltare in continuazione da un’app all’altra, potreste semplicemente scegliere una di queste app e usarla per comunicare con tutti.

Sarebbe bello, e sta cominciando a diventare realtà. Meta ha annunciato pochi giorni fa che la sua app Threads è ora in grado di scambiare messaggi con qualunque social network che usi lo standard ActivityPub, come per esempio Mastodon. E su un binario differente, anche WhatsApp e Messenger stanno diventando interoperabili con le app di messaggistica di altri gestori: in altre parole, stanno diventando capaci di scambiare messaggi con utenti che usano piattaforme differenti, a condizione che usino il protollo standard Signal o un suo equivalente.

Nel caso di Threads, questa interoperabilità è già attiva adesso per gli utenti che abbiano più di 18 anni, abbiano profili pubblici e abbiano account basati negli Stati Uniti, in Canada o in Giappone; gli altri paesi seguiranno a breve. È una funzione opzionale: per attivarla occorre andare nelle impostazioni dell’account Threads, leggere la spiegazione di cos’è il fediverso, e poi cliccare sul pulsante di attivazione. Per WhatsApp e Messenger, invece, bisognerà aspettare che i gestori delle altre piattaforme sottoscrivano gli accordi tecnici con Meta. Ma a parte questo, sembra che tutto sia pronto. Anche in questo caso sarà il singolo utente a decidere se attivare o meno questa possibilità di comunicare con una sola app verso piattaforme di messaggistica differenti.

Questo crollo dei muri di incompatibilità che per anni hanno tenuto in ostaggi gli utenti, che erano costretti a usare una specifica piattaforma e app, non avviene per caso. È merito della pressione dell’Unione Europea sui grandi social network, applicata anche tramite la nuova legge europea, il Digital Markets Act o DMA, entrato da poco in vigore, che obbliga Meta e gli altri gestori a diventare compatibili tra loro e abbattere questo ostacolo alla libera concorrenza.

Ci vorrà ancora parecchio tempo prima che si arrivi all’interoperabilità completa, anche perché ci sono ostacoli tecnici notevoli da superare, ma la tendenza è ormai chiara e inarrestabile, con una notevole semplificazione una volta tanto a favore di noi utenti.

Fonte aggiuntiva: TechCrunch.

Se sei su Snapchat, YouTube o Amazon, forse Facebook ti ha spiato

Un’azione legale in corso negli Stati Uniti ha rivelato che Facebook aveva un progetto segreto concepito per sorvegliare gli utenti del rivale Snapchat, che poi si è esteso a coprire anche YouTube e Amazon. La vicenda risale al 2016, quando Snapchat stava avendo un boom di utenti e Mark Zuckerberg, allora CEO di Facebook (oggi Meta), voleva a tutti i costi informazioni sul traffico di dati degli utenti di Snapchat, le cosiddette analytics, per capire i motivi del successo del concorrente e sviluppare prodotti che potessero arginarlo. Ma queste informazioni non erano disponibili, perché Snapchat usava la crittografia per proteggere il proprio traffico di dati.

Così la società Onavo, acquisita da Facebook tre anni prima, fu incaricata di sviluppare una soluzione a questo problema: un kit che veniva installato sui dispositivi iOS e Android per intercettare il traffico prima che venisse crittografato, usando un attacco di tipo man in the middle tipicamente adoperato dai malintenzionati.

Questo kit fu distribuito da altre aziende come se fosse un loro prodotto, con un loro marchio distinto, in modo che fosse difficile ricollegare i vari prodotti alla singola fonte, ossia Onavo. Inoltre a volte gli utenti più giovani di Snapchat venivano pagati fino a 20 dollari al mese ciascuno per accettare di installare questi kit spioni, presentati agli utenti come se fossero delle VPN, sotto il nome di Onavo Protect: questo comportamento fu segnalato pubblicamente dal sito TechCrunch e denunciato dalla commissione australiana per la concorrenza e poco dopo Facebook chiuse il progetto, che era stato attivato nel 2016 per intercettare il traffico di Snapchat e poi era stato esteso a YouTube nel 2017 e ad Amazon nel 2018, creando anche certificati digitali falsi per impersonare server fidati di queste aziende e decifrare i dati sul traffico degli utenti, passandolo a Facebook.

L‘azione legale attualmente in corso chiarirà colpe e responsabilità dal punto di vista tecnico e giuridico, ma le dichiarazioni interne degli addetti ai lavori di Facebook, rese pubbliche dagli atti della class action intentata da utenti e inserzionisti pubblicitari, sembrano piuttosto inequivocabili.

Non riesco a pensare a una sola buona ragione per dire che questa cosa è a posto”, aveva scritto per esempio in una mail interna Pedro Canahuati, all’epoca responsabile principale per l’ingegneria di sicurezza di Facebook. I responsabili della sicurezza dell’azienda, insomma, erano contrari a questo tipo di comportamento, ma furono scavalcati.

Oltre alla prassi discutibilissima di presentare un software di sorveglianza dicendo che si tratta solo di una VPN, cioè di una cosa che gli utenti interpretano come un prodotto che protegge la privacy delle loro attività online, c’è anche il problema che secondo gli inserzionisti pubblicitari Facebook approfittò dei dati intercettati usando questo software, per imporre costi di inserzione ben più alti di quelli che avrebbe potuto chiedere in un mercato non alterato. Tutte cose da ricordare la prossima volta che Meta fa promesse di privacy ai suoi tre miliardi e mezzo di utenti.

Fonte aggiuntiva: Ars Technica.

Il giochino nascosto in Instagram

E per finire, una piccola chicca che forse alcuni di voi conoscono già: negli ultimi aggiornamenti dell’app di Instagram c’è un gioco nascosto, che richiama un po’ i vecchi videogiochi come Breakout o Pong. C‘è un emoji che si muove sullo schermo e c’è in basso un cursore scuro da usare con un dito per parare quell'emoji ed evitare che cada, facendolo rimbalzare il più a lungo possibile sullo schermo. Man mano che riuscite a continuare queste parate, l’emoji si muove sempre più velocemente.



Per accedere a questo giochino nascosto bisogna inviare un messaggio diretto a qualcuno, scrivendo in quel messaggio un singolo emoji, quello con il quale desiderate giocare. Magari è il caso anche di avvisare la persona a cui mandate questo messaggio che non state mandand emoji a caso. Dopo averlo inviato, toccate l’emoji e si avvierà il gioco. Un altro modo per rivelare il gioco è cliccare su un emoji inviato da qualcun altro tramite messaggio diretto. A quanto pare il gioco non è ancora disponibile a tutti gli utenti, per cui provate e vedete cosa succede. Buon divertimento!

Fonte: TechCrunch.

2024/03/26

L’intelligenza artificiale è una minaccia per i media e per il servizio pubblico radiotelevisivo? Ne parliamo stasera alle 18 a Bellinzona

Stasera (26 marzo) sarò all’auditorium di BancaStato a Bellinzona per partecipare a un dibattito pubblico sul tema dell’intelligenza artificiale, e in particolare della sua eventuale pericolosità per i media e per il servizio pubblico radiotelevisivo.

Sosterrò la posizione ‘pro’, ossia che l’IA sia soprattutto una minaccia per questo settore, insieme a Pierfranco Longo, presidente della Conferenza cantonale dei genitori e membro del Consiglio regionale Ssr.Corsi. 

A difendere la posizione ‘contro’ saranno presenti Reto Ceschi (responsabile del Dipartimento informazione alla Rsi) e Alessandro Trivilini (docente e ricercatore in ingegneria e sicurezza informatica alla Supsi).

L’appuntamento è organizzato nell’ambito della collaborazione fra Ssr, Corsi e La gioventù dibatte ed è aperto a tutti. Dopo il dibattito seguiranno le domande del pubblico e un aperitivo offerto al ristorante Prisma. Se vi interessa partecipare, è gradita l’iscrizione attraverso il sito gioventudibatte.ch.

La serata verrà videoregistrata e resa disponibile successivamente.

Se volete saperne di più:

2024/03/23

Retrocomputing: Apple II, Commodore PET e TRS-80 in mostra a Lugano

Il 20 marzo scorso ho moderato la serata “Quando i computer divennero POP”, dedicata al retrocomputing, al Campus Est USI-SUPSI di Lugano-Viganello, resa possibile dagli sforzi coordinati di AStISI (Associazione per la storia dell’informatica nella Svizzera italiana), SUPSI (Scuola universitaria professionale della Svizzera italiana), ESoCoP (European Society for Computer Preservation) e Fondazione Möbius.

Dopo l’introduzione fatta da Alessio Petralli, direttore della Fondazione Möbius, hanno parlato Sergio Gervasini (vicepresidente ESoCoP) e poi Marco Foco (Senior Manager presso NVIDIA), Fabio Guido Massa (Senior System Administrator), e Carlo Spinedi (presidente AStISI), presentando il contesto storico e le vicende tecniche e umane legate a oggetti fondamentali della storia dell’informatica come l’Apple II, il Commodore PET e il TRS-80, di cui c’erano in sala dei magnifici esemplari.

Ecco qualche foto della serata e dei suoi protagonisti umani e tecnologici.

Il professor Carlo Spinedi (AStISI) e, sullo sfondo, Sergio Gervasini (ESoCoP).
Marco Foco (NVIDIA).
Fabio Guido Massa.
Sergio Gervasini (ESoCoP).
Un Commodore PET aperto.
Un Apple II.
Foto di gruppo finale.

2024/03/22

Podcast RSI - Story: Dietro le quinte delle truffe sugli investimenti in criptovalute

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: voce di donna complice dei truffatori che parla con una delle vittime: “Nice to see you, I will message on WhatsApp, OK?”]

Pig butchering: letteralmente, “macellazione del maiale”. È il nome spietato che viene usato dai criminali informatici per indicare un particolare tipo di truffa online basata su un misto di belle ragazze, criptovalute, false app e soprattutto call center organizzatissimi dove lavorano migliaia di persone. Se siete stati contattati da qualcuno che vi offre metodi rapidi per fare soldi con Bitcoin e simili e avete cominciato a fidarvi perché vi sono davvero arrivati dei soldi sul vostro conto corrente, fate attenzione: è quasi sicuramente una truffa.

Questa è la storia di un caso concreto di pig butchering, portato alla luce da un esperto del settore, che mostra l’incredibile sofisticazione raggiunta da queste bande criminali organizzate e rivela dove si trovano le loro sedi operative e le tecniche usate per ingannare le vittime.

Benvenuti alla puntata del 22 marzo 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo: un po’ giù di voce, come potete sentire.

[SIGLA di apertura]

Lo schema della truffa

Da alcuni anni su Internet è facile imbattersi in una truffa che è particolarmente crudele già a partire dal suo nome: viene chiamata pig butchering, ossia “macellazione del maiale”, perché è così che i criminali vedono le proprie vittime. I truffatori selezionano i propri bersagli usando le informazioni che trovano sui social network: età, situazione sentimentale, foto. Scelgono le persone che non hanno un partner e che mostrano nelle fotografie sui social un’età adulta e suggeriscono una certa disponibilità economica significativa perché mostrano per esempio la loro auto, il loro abbigliamento o le immagini dei loro viaggi.

Una volta scelta la vittima, i criminali la circuiscono con il metodo ormai tristemente classico del romance scam o truffa sentimentale: si presentano come uomini o donne molto attraenti, intrecciano una lunga relazione a base di messaggi e foto, senza chiedere nulla di insolito, diventano conoscenti di lunga data e si conquistano la fiducia del bersaglio con parole affettuose e una presenza costante e piacevole.

L’inganno scatta solo dopo settimane o anche mesi di corteggiamento, ma a differenza della truffa classica, nella quale il criminale finge di avere bisogno di soldi temporaneamente per tirarsi fuori da un guaio burocratico o di salute, nel pig butchering non c’è nessuna richiesta di denaro, almeno inizialmente, e questo fa abbassare ancora di più le difese psicologiche delle vittime.

A un certo punto il truffatore, ormai diventato uno di famiglia per la sua vittima, “rivela” a quella vittima di aver fatto un ottimo investimento in criptovalute e le propone di fare altrettanto, dandole tutte le istruzioni necessarie su come versare i soldi per aprire un conto. Ma l’investimento non esiste, il conto è una finzione gestita dal truffatore o da suoi complici, e i soldi investiti dalla vittima non verranno mai restituiti integralmente.

Fin qui lo schema è abbastanza noto, anche se c’è sempre qualcuno che non lo conosce e ci casca perdendo somme ingenti, a giudicare dalle telefonate e dalle mail che mi arrivano continuamente: ma grazie all’esperto di truffe informatiche Jim Browning possiamo andare oltre questo schema astratto e vedere concretamente dove e come lavorano questi criminali.

Dentro la sede dei criminali

Browning ha infatti pubblicato su Youtube un’inchiesta in cui mostra come funziona in dettaglio questa truffa, con immagini girate all’interno degli edifici dove lavorano migliaia di persone che passano la giornata a cercare online vittime da sedurre e derubare in tutto il mondo.

Se vi siete mai chiesti come facciano le persone a cadere in queste trappole, la ragione principale è che sono costruite in maniera estremamente professionale, assumendo persino delle modelle in carne e ossa per fare le conversazioni online con le vittime.

Nel caso descritto da Browning, la sede dei criminali è un grande complesso di edifici ad alcuni chilometri dal centro di Dubai, negli Emirati Arabi Uniti. Otto palazzine di otto piani occupate in buona parte da un esercito di imbroglioni, così numeroso che è stato necessario installare un’antenna cellulare mobile apposita per gestire tutto il loro traffico telefonico. Browning indica l’indirizzo preciso, perché tanto sa benissimo che entro pochi giorni questi professionisti del crimine avranno già traslocato altrove.

Questi edifici sono pieni di postazioni dotate di computer, sui quali sono installate le app di vari siti di incontri per persone in cerca di compagnia. È questo il serbatoio iniziale dal quale i truffatori pescano le proprie vittime, usando delle VPN per fingere di essere in un paese insospettabile e così eludere i controlli dei gestori di questi siti di incontri.

Il copione di chi lavora a queste postazioni è sempre lo stesso: fingere di essere una persona facoltosa e attraente che ha uno stile di vita molto dispendioso, esibito tramite foto e video eloquenti. I gestori della truffa gli affidano un personaggio preciso e dettagliato e gli forniscono un software che traccia altrettanto dettagliatamente l'andamento di ciascun tentativo di raggiro.

Dopo aver agganciato la vittima su un sito di incontri, facendo per esempio con lui o con lei delle chat romantiche o erotiche, il criminale cerca sempre di portare la conversazione fuori da questi siti, che sono monitorati contro le truffe, e invita a proseguirla su WhatsApp o su Telegram, dove non c’è nessuna salvaguardia.

La conversazione prosegue in maniera inizialmente innocente, con un po’ di chiacchiere per presentarsi e magari qualche foto di qualche piatto consumato in un ristorante costoso ed esotico. Il truffatore dice di lavorare nel settore della finanza, e a un certo punto si offre di condividere alcuni dei suoi trucchi per fare soldi. Un’offerta molto generosa da fare a un perfetto sconosciuto, e questo dovrebbe insospettire, ma l’inganno è costruito così bene che il sospetto passa in fretta.

I truffatori, spiega Browning, adoperano un’app chiamata Hello World Pro, che è capace di gestire varie sessioni Telegram e WhatsApp contemporaneamente e traduce la conversazione dall’inglese, che è la lingua solitamente parlata dal criminale, verso la lingua della vittima. C’è anche un gruppo Telegram usato da tutti i truffatori della banda per comunicare con i propri capi e i propri colleghi.

Gli operatori di questi call center professionalissimi sono in molti casi dei migranti, che vengono sfruttati dai gestori, che sono cinesi. I contratti sono in inglese e cinese; tutti i computer sono impostati in cinese e anche le reti Wi-Fi usate nei call center hanno nomi cinesi. Gli operatori lavorano e vivono come schiavi e i loro datori di lavoro sequestrano i loro passaporti.

Le dimensioni di questa organizzazione, una delle tante del suo genere, sono impressionanti. Browning riesce a procurarsi la planimetria degli edifici in cui si svolge la truffa e nota che ci sono oltre cinquanta stanze per piano, ciascuna stanza è occupata da quattro operatori, e ci sono otto piani per ciascuno dei quattro edifici coinvolti. Probabilmente qui lavorano oltre mille persone, reclutate tramite il passaparola dicendo che si tratta di un lavoro di marketing regolare.

Solo dopo che il lavoratore firma il contratto e inizia a lavorare si rende conto che si tratta di una truffa, con tanto di copione dettagliato di una quindicina di pagine, che si articola su vari giorni, fatto apposta per conquistare man mano la fiducia della vittima. Gli operatori vengono pagati a commissione: se non riescono a reclutare vittime non prendono soldi e vengono licenziati e rimpiazzati da altri disperati in cerca di lavoro.

Tutta questa organizzazione, però, serve solo per gestire il primo livello della truffa, perché la trappola è ancora più complessa.

Trappola professionale

Per riuscire a convincere una persona ad affidare a uno sconosciuto i propri soldi, magari i risparmi di una vita, è necessario costruire una situazione di fiducia, e per farlo i gestori della truffa assumono anche modelle in carne e ossa, donne attraenti reali, e organizzano videochiamate fra queste donne e le vittime, guidandole anche qui con un copione, per far vedere che la persona con la quale le vittime stanno chattando esiste veramente.

[CLIP: voce di donna complice dei truffatori che parla in videochiamata in diretta con una delle vittime: “Nice to see you, I will message on WhatsApp, OK? OK, thank you, bye bye, gracias”]

Browning riesce anche a mostrare una di queste modelle grazie a delle riprese effettuate da un lavoratore pentito.

[CLIP: voce di donna che parla in inglese a un interlocutore nel call center]

Lei dice senza troppi giri di parole che le sue uniche alternative erano fare la escort o fare video per le piattaforme di pornografia e siccome non voleva che la sua famiglia la vedesse su un sito a luci rosse ha scelto questa carriera. E così si presta a conquistare la fiducia di gente che, grazie a lei, perderà tutti i propri soldi.

Nella fase successiva del raggiro, la modella invita la vittima a iscriversi a un servizio legittimo di compravendita di criptovalute, come per esempio Binance. I gestori della truffa le mettono a disposizione screenshot già pronti, con freccine esplicative chiarissime, per spiegare alle vittime esattamente come procedere. È tutto molto, molto professionale e rassicurante.

È solo a questo punto che scatta la trappola vera e propria. Browning spiega che i truffatori chiedono alla vittima di scaricare un’app di compravendita di criptovalute, che è accompagnata da precisi video tutorial su YouTube che spiegano come usarla e da recensioni che ne confermano in apparenza la bontà e affidabilità totale. Ma l’app, i tutorial e le recensioni sono tutte parte della finzione: i gestori si intascano subito i soldi investiti dalla vittima e non fanno altro che mostrare un saldo fittizio sullo schermo del telefonino.

Fra l’altro, molti di questi truffatori invitano le vittime a reclutare altre persone, in un classico schema a piramide, col risultato che può capitare che la proposta di iscriversi a questo raggiro ci arrivi da un amico di cui ci fidiamo e che è caduto nella trappola. Attenzione, quindi, anche agli amici che ci promettono rendimenti mirabolanti.

Un altro modo usato dai truffatori per rendersi credibili è restituire alle vittime una parte del denaro che hanno investito. Sì, i soldi arrivano davvero, e vanno veramente sul conto della vittima presso una banca regolare. Ma non sono mai tutti quelli affidati ai criminali.

Ci possono essere molte variazioni a questo schema generale, ma il principio di fondo è che una persona molto attraente, solitamente una giovane donna, vi contatta su WhatsApp o in un sito di incontri e dopo un po’ vi incoraggia a investire i vostri soldi in qualche affare online che probabilmente non avete mai sentito nominare. Se lo fate e poi cercate di farvi ridare il vostro denaro, salterà fuori che il bonifico è in attesa di approvazione o ci sarà qualche altra scusa, e non rivedrete mai tutti i soldi che avete inviato.

Se vi riconoscete in questa descrizione, troncate i rapporti con i truffatori, e non mandate loro altri soldi sperando che vi ridiano quelli già dati: sono persi. Segnalate la vicenda alla polizia, che ne ha bisogno a fini statistici, e non fidatevi di sedicenti società di recupero di criptovalute che vi contatteranno promettendo di farvi riavere i vostri risparmi se solo anticipate le spese: sono complici dei truffatori. E se conoscete qualcuno che si trova in questa situazione, avvisatelo che è caduto in una trappola estremamente professionale, e preparatevi al fatto che non vi crederà.

Vista la provenienza specifica dei capibanda, è proprio il caso di dire che si tratta di uno schema crudelissimo a scatole cinesi, in cui l’unico modo per vincere è non partecipare. Fate attenzione, e mettete in guardia amici e colleghi.

2024/03/18

Ci ha lasciato Tom Stafford, astronauta lunare (1930-2024)

È morto a 93 anni Thomas Patten Stafford, l’astronauta che volò fino alla Luna a maggio del 1969 con la missione Apollo 10, la prova generale dell’allunaggio. Lascia la moglie Linda e sei tra figli e figlie.

Aveva già volato nello spazio due volte, con le missioni Gemini 6A (dicembre 1965, primo rendez-vous di veicoli spaziali con equipaggio) e Gemini 9 (giugno 1966). Avrebbe volato nello spazio una quarta volta, come comandante della storica missione Apollo-Soyuz, primo volo congiunto fra sovietici e statunitensi, nel 1975.

Dopo i suoi voli, la sua carriera proseguì, facendolo salire al grado di generale, coinvolgendolo nella definizione delle procedure di sicurezza dello Shuttle dopo il disastro del Columbia nel 2003 e delle tecniche di riparazione del telescopio spaziale Hubble. Fra le altre cose, fu uno dei padri dei velivoli Stealth, definendone le specifiche e coordinando il programma che portò all’aereo da attacco al suolo F-117 e al bombardiere B-2, e fu direttore della celebre Area 51.


Fonti: NASACollectSpace, Stripes.com, Oklahoman, WPR.orgWashington Post.

2024/03/15

Il podcast salta anche questa settimana

Rimettere insieme i pezzi di una vita troncata improvvisamente non è mai facile e sta impegnando completamente la Dama del Maniero e me insieme a lei. Ho dovuto annullare il podcast anche questa settimana, insieme a quasi tutti gli impegni, per via di complicazioni burocratiche oltrefrontiera che ci hanno assorbito per giorni. Ora le cose cominciano a sistemarsi.

Il funerale del fratello di Elena, mancato improvvisamente, si terrà martedì 19 alle 10 alla chiesa di San Martino Siccomario.

Grazie a tutti per i vostri messaggi, la Dama li apprezza molto anche se non sempre riesce a ringraziarvi personalmente.

2024/03/08

Niente podcast del Disinformatico questa settimana

È mancato improvvisamente Roberto Faro, fratello di Elena, mia moglie, e siamo in modalità di crisi per gestire la situazione. Roberto lavorava alle Poste di Pavia: lo segnalo qui nella speranza di raggiungere grazie a Google i suoi molti amici e familiari che non siamo riusciti a contattare.

La data dei funerali non è ancora stata definita, in attesa che si risolvano alcune formalità mediche. Ho dovuto annullare la puntata di questa settimana del podcast.

Gli appuntamenti di Bologna restano invariati.

2024/03/01

Podcast RSI - Le IA danno voce a vittime di stragi e imbarazzano le aziende, Avast spiona

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

---

[CLIP: Joaquin che parla]

Questa è la voce di Joaquin Oliver, un diciassettenne morto in una sparatoria di massa negli Stati Uniti, che racconta al passato i dettagli di come è stato ucciso. Una voce resa possibile dall’intelligenza artificiale nella speranza di muovere i cuori dei politici statunitensi sulla questione annosa del controllo delle armi da guerra.

È una delle storie della puntata del primo marzo 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica: le altre notizie riguardano un software di intelligenza artificiale che ha dato informazioni sbagliate a un cliente di una compagnia aerea canadese, facendogli perdere parecchi soldi, e quando il cliente ha contestato il fatto la compagnia ha risposto che lei non era responsabile delle azioni della sua intelligenza artificiale. Non è andata finire molto bene, soprattutto per il software. E poi c’è la scoperta che Avast, un noto produttore di applicazioni per tutelare la sicurezza informatica e la privacy, ha in realtà venduto a oltre cento aziende i dati degli utenti che diceva di proteggere. Anche in questo caso la storia non è finita bene, ma contiene una lezione interessante.

Benvenuti a questo podcast. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Air Canada e il suo chatbot “responsabile delle proprie azioni”

L’intelligenza artificiale ormai è dappertutto, e quindi qualche caso di applicazione maldestra è normale e inevitabile. Quello che non è normale è l’applicazione arrogante. Questa vicenda arriva dal Canada, dove la compagnia aerea Air Canada ha pensato di adottare l’intelligenza artificiale per rispondere automaticamente alle domande dei clienti sul proprio sito di prenotazioni di voli.

Uno di questi clienti, il signor Moffatt, si è rivolto a questo sistema di risposta automatica tramite chat per chiedere informazioni sulle tariffe speciali riservate ai voli prenotati all’ultimo momento a causa di lutti in famiglia, visto che aveva appena saputo del decesso della nonna.

Il sistema di chat o chatbot gestito dall’intelligenza artificiale gli ha fornito informazioni dettagliate su come procedere alla richiesta di riduzione del prezzo del biglietto, spiegando che questa richiesta andava inviata alla compagnia aerea entro tre mesi dalla data di rilascio del biglietto, compilando l’apposito modulo di rimborso. Istruzioni chiare, semplici e non ambigue. Ma completamente sbagliate.

In realtà il regolamento di Air Canada prevede che le richieste di riduzione debbano essere inviate prima della prenotazione, e quindi quando il signor Moffatt ha poi chiesto il rimborso si è sentito rispondere dal personale della compagnia che non ne aveva diritto, nonostante il chatbot di Air Canada gli avesse detto che lo aveva eccome. La conciliazione amichevole è fallita, e così il cliente fuorviato dall’intelligenza artificiale ha portato la compagnia aerea dal giudice di pace. Ed è qui che è arrivata l’arroganza.

Air Canada, infatti, si è difesa dicendo che il cliente non avrebbe mai dovuto fidarsi del chatbot presente sul sito della compagnia aerea e ha aggiunto che, cito testualmente dagli atti, “il chatbot è un’entità legale separata che è responsabile delle proprie azioni”.

Che un software sia responsabile delle proprie azioni è già piuttosto surreale, ma che la compagnia prenda le distanze da un servizio che lei stessa offre e oltretutto dia la colpa al cliente per essersi fidato del chatbot senza aver controllato le condizioni di rimborso effettive è una vetta di arroganza che probabilmente non ha precedenti nella storia degli inciampi delle intelligenze artificiali, e infatti il giudice di pace ha deciso pienamente in favore del cliente, dicendo che la compagnia è responsabile di tutte le informazioni presenti sul proprio sito: che siano offerte da una pagina statica o da un chatbot non fa alcuna differenza, e i clienti non sono tenuti a sapere che il chatbot potrebbe dare risposte sbagliate.

A quanto risulta il chatbot è stato rimosso dal sito della compagnia, che fra l’altro aveva dichiarato che il costo dell’investimento iniziale nell’intelligenza artificiale per l’assistenza clienti era stato largamente superiore al costo di continuare a pagare dei lavoratori in carne e ossa. La speranza era che l’intelligenza artificiale riducesse i costi e migliorasse l’interazione con i clienti, ma in questo caso è successo l’esatto contrario, con l’aggiunta di una figuraccia pubblica non da poco. Una lezione che potrebbe essere preziosa anche per molte altre aziende che pensano di poter risparmiare semplicemente sostituendo in blocco i lavoratori con un’intelligenza artificiale esposta al pubblico senza adeguata supervisione.

Fonte aggiuntiva: Ars Technica.

Avast ha fatto la spia, dice la FTC

Avast (o a-VAST, secondo la pronuncia inglese corretta, che però in italiano non usa praticamente nessuno) è un nome molto noto nel campo della sicurezza informatica, in particolare per i suoi antivirus. Ma è emerso che mentre diceva pubblicamente di proteggere la privacy dei propri clienti in realtà stava vendendo i loro dati a oltre cento aziende.

Secondo le indagini e la decisione della Federal Trade Commission, l’agenzia federale statunitense di vigilanza sul commercio, fra il 2014 e il 2020, mentre Avast dichiarava pubblicamente che i suoi prodotti avrebbero impedito il tracciamento delle attività online di chi li usava, in realtà collezionava le informazioni di navigazione dei propri utenti e le rivendeva tramite Jumpshot, un’azienda acquisita da Avast che nel proprio materiale pubblicitario rivolto alle aziende si vantava di poter fornire loro una visione privilegiata delle attività di oltre cento milioni di consumatori online in tutto il mondo, compresa la capacità, cito, di “vedere dove vanno i vostri utenti prima e dopo aver visitato il vostro sito o quello dei concorrenti, e persino di tracciare quelli che visitano uno specifico URL”, ossia una specifica pagina di un sito.

Anche se Avast e Jumpshot hanno dichiarato che i dati identificativi dei singoli utenti venivano rimossi dalle loro raccolte di dati, secondo la FTC i dati includevano anche un identificativo unico per ogni singolo browser. La stessa agenzia federale ha documentato che questi dati venivano acquistati da varie aziende, spesso con lo scopo preciso di abbinarli ai dati raccolti in altro modo da quelle aziende, ottenendo così un tracciamento individuale tramite dati incrociati.

Fra i clienti di Jumpshot c’erano pezzi grossi come Google, Microsoft e Pepsi, e le indagini giornalistiche hanno rivelato che i clienti potevano acquistare dati che includevano le consultazioni di Google Maps, le singole pagine LinkedIn e YouTube, i siti pornografici visitati e altro ancora. La FTC ha appurato che fra i miliardi di dati raccolti da Avast c’erano orientamenti politici, informazioni di salute e finanziarie, link a siti di incontri (compreso un identificativo unico per ogni membro) e informazioni sull’erotismo in cosplay.

La FTC ha ordinato ad Avast di pagare 16 milioni e mezzo di dollari, da usare per risarcire i consumatori, e le ha imposto il divieto di vendere dati di navigazione futuri e altre restrizioni. Nel frattempo, però, l’azienda ha chiuso Jumpshot nel 2020 ed è stata acquisita da Gen Digital, che possiede anche Norton, Lifelock, Avira, AVG e molte altre aziende del settore della sicurezza informatica.

Gli antivirus e i prodotti per la protezione della navigazione online sono fra i più delicati e importanti per un utente, perché per loro natura vedono tutto il traffico di chi li usa, e quindi l’utente compie un gesto importante di fiducia nei confronti di chi fa questi prodotti. Scoprire che uno di questi produttori non solo non proteggeva dalla sorveglianza pubblicitaria ma addirittura la facilitava e ci guadagnava è un tradimento del patto sociale fra produttori di software per la sicurezza e privacy da un lato e gli utenti dall’altro: io ti lascio vedere tutto quello che faccio, ma tu mi devi proteggere da chi vuole spiarmi e non devi essere tu il primo fare la spia. Anche perché una volta raccolti e rivenduti, i dati personali non si possono revocare e non c’è risarcimento che tenga.

Per Avast questa decisione della FTC è un danno reputazionale non da poco, perché quando un’azienda in una posizione così delicata tradisce la fiducia degli utenti e se la cava con una sanzione tutto sommato leggera per un budget da multinazionale, è inevitabile pensare che se lo ha fatto una volta potrebbe rifarlo. Se usate Avast come antivirus o come prodotto per la protezione della vostra sicurezza informatica o privacy, potrebbe valere la pena di esplorare qualche alternativa.

Fonte aggiuntiva: Ars Technica.

Le voci dei morti nelle sparatorie telefonano ai politici americani

Questa non è una storia facile da raccontare, perché parla delle persone uccise nelle sparatorie di massa tragicamente frequenti negli Stati Uniti. Questa è la voce di Joaquin Oliver, una di queste persone.

[CLIP: voce di Joaquin]

Joaquin spiega che sei anni fa frequentava la scuola di Parkland, in Florida, dove il giorno di San Valentino del 2018 morirono molti studenti e docenti, uccisi da una persona che usava un’arma da guerra. Lui fu una delle vittime, eppure la sua voce racconta i fatti al passato.

La sua voce è infatti sintetica: la sua parlata, la sua intonazione, il suo timbro di giovane studente diciassettenne sono stati ricreati con l’intelligenza artificiale di Elevenlabs partendo dai campioni della sua voce reale pubblicati sui social network e registrati nei suoi video, e così ora Joaquin, ucciso da un’arma da fuoco, è una delle tante voci ricreate con questa tecnica dopo stragi di questo genere che telefonano ai politici chiedendo loro di risolvere il problema delle stragi armate negli Stati Uniti.

L’idea di far chiamare i decisori politici dalle voci delle persone uccise è dei genitori di Joaquin, Manuel e Patricia, che hanno lanciato pochi giorni fa il progetto The Shotline: un sito, Theshotline.org, che ospita le voci ricreate delle persone morte nelle sparatorie di massa e permette ai visitatori di inviare al loro rappresentante politico locale, scelto indicando il numero di avviamento postale, una telefonata automatica, in cui una di queste voci chiede leggi più restrittive sulle armi. Finora le telefonate fatte da Theshotline.org sono oltre ottomila.

I familiari delle vittime possono compilare un modulo per inviare le voci di chi è stato ucciso dalle armi a The Shotline, in modo che possano aggiungersi a quelle esistenti.

Ricevere una telefonata da una persona morta, che ti racconta con la propria voce come è morta e dice che bisogna trovare modi per impedire le stragi commesse usando armi da guerra, è forse un approccio macabro e strano a questo dramma incessante, ma come dicono i genitori di Joaquin, se è necessario essere inquietanti per risolverlo, allora ben venga l’inquietante.

2024/02/23

Podcast RSI - Sora genera video sintetici perfetti in HD

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Google Podcasts, Spotify e feed RSS.

---

CLIP: “Hai mai messo in dubbio la natura della tua realtà?” dalla serie TV Westworld]

Riprendo questa frase emblematica, tratta dalla serie televisiva di fantascienza Westworld, a distanza di poco meno di un anno da quando l’ho citata per la prima volta in questo podcast. Era la fine di marzo 2023 e stavo raccontando la novità dell’arrivo dei primi generatori di immagini tramite intelligenza artificiale capaci di produrre immagini praticamente indistinguibili dalle foto reali, che erano un salto di qualità tecnica enorme rispetto alle immagini da fumetto o da videogioco di prima.

Undici mesi dopo, dalle immagini sintetiche fotorealistiche, che erano già uno shock non solo tecnologico ma anche e soprattutto culturale, siamo già arrivati ai video realistici generati dai computer e indistinguibili dai video reali.

OpenAi ha infatti presentato Sora, un software di intelligenza artificiale capace di generare video fotorealistici, in alta definizione, lunghi fino a un minuto. E qualcuno già parla di collasso della realtà mediatica [Ars Technica], perché se non possiamo più credere alle foto e nemmeno ai video, che sembravano impossibili da falsificare, e se possiamo generare qualunque ripresa video semplicemente descrivendola a parole, la fiducia già traballante nei mezzi di comunicazione finisce a pezzi, travolta da fiumi di video falsi a supporto dell’ondata di fake news, e tutta una serie di mestieri rischia di diventare inutile. A cosa servono fotografi, operatori di telecamere, scenografi, attrezzisti e gli stessi attori se chiunque, con un computer di media potenza, può ricreare qualunque scenografia e qualunque volto in qualunque situazione?

Benvenuti alla puntata del 23 febbraio 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Il 15 febbraio scorso OpenAI, la società che sta dietro ChatGPT e molti altri prodotti di enorme successo basati sull’intelligenza artificiale, ha annunciato il suo nuovo software Sora con una serie di video che hanno comprensibilmente lasciato moltissimi a bocca aperta e con quel brivido di fascino e disorientamento che si prova quando ci si rende conto di essere di fronte a un cambiamento epocale, a qualcosa che non trasforma solo la tecnologia ma rischia di trasformare l’intera società.

Se non avete ancora visto questi video di Sora, guardateli: li trovate presso Openai.com/sora. Sono effettivamente impressionanti. Per esempio, in uno di questi video una donna elegantemente vestita passeggia di notte per le vie di Tokyo, sull’asfalto bagnato che riflette perfettamente la scena, e anche nei suoi occhiali c’è il riflesso dell’ambiente. Una sequenza che avrebbe richiesto trasferte, permessi di ripresa, addetti alle luci, costumisti, truccatori, e ovviamente una modella o un’attrice, si genera oggi interamente al computer, semplicemente dicendo la seguente frase in inglese:

Una donna elegante cammina lungo una via di Tokyo piena di insegne al neon animate con colori caldi. Indossa una giacca di pelle nera, un vestito rosso lungo e stivali neri, e porta una borsetta nera, occhiali da sole e rossetto rosso. Cammina con aria sicura di sé e con disinvoltura. La strada è bagnata e riflettente, creando un effetto specchio sulle luci colorate. Circolano numerosi pedoni”*

* In originale: A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about.

Chiunque lavori nel mondo dei media sta probabilmente avendo una crisi di panico all’idea di essere sostituito di colpo da una macchina, a tariffe e con velocità di realizzazione con le quali non può assolutamente competere. E non sostituito fra qualche anno, come sembravano indicare i primi, timidi esperimenti di video sintetici di undici mesi fa, ma subito, quando non ci si è ancora ripresi dallo sconquasso delle immagini sintetiche che hanno eliminato il lavoro di tanti fotografi, anche se Sora non è ancora pubblicamente disponibile come lo è invece ChatGPT e lo stanno provando solo alcuni artisti visivi e realizzatori di film.

Che la rivoluzione dei video sintetici fosse nell’aria e sarebbe arrivata prima o poi era chiaro a tutti; che sarebbe arrivata così in fretta probabilmente se lo aspettavano in pochi. Ma è successo.

O almeno così sembra dai commenti di molti addetti ai lavori e del pubblico a questo annuncio di OpenAI. Ma se proviamo a scremare il sensazionalismo dei primi e le paure dei secondi viene a galla una situazione piuttosto differente. Forse ce la possiamo cavare con un panico controllato.

La valle inquietante

Una delle prime cose che si notano in questi video dimostrativi, una volta superato lo shock iniziale, è che manca l’audio, che a quanto pare Sora non è ancora in grado di generare sincronizzandolo con le immagini. Ma l’audio si può sempre generare in seguito, usando tecniche tradizionali, come il doppiaggio o il foley, il lavoro dei rumoristi.

L’altra particolarità di questi video sintetici di OpenAI è la fluidità dei movimenti delle persone e degli animali, che risulta leggermente dissonante rispetto alla realtà. In altri di questi video dimostrativi, un gatto e un cane corrono e saltano, ma c'è qualcosa che non va nei loro movimenti: sono quasi perfetti, ma è un quasi che rompe completamente l’illusione.

Il nostro cervello ha milioni di anni di esperienza e di evoluzione su cui contare per il riconoscimento dei movimenti delle persone e degli animali familiari, e per ora i video sintetici, a differenza delle foto sintetiche, sono nel pieno della cosiddetta uncanny valley o valle inquietante, ossia quella teoria, proposta dal professore di robotica Masahiro Mori ben 54 anni fa, nel 1970, secondo la quale un oggetto animato produce una risposta emotiva favorevole se non somiglia affatto a un essere umano o a un animale reale oppure se è assolutamente identico a quello reale, ma produce invece repulsione, inquietudine e rifiuto se è molto simile ma non identico all’originale. Quella zona di quasi-somiglianza è la Valle Inquietante, situata fra i due pianori della credibilità.

I personaggi digitali di Toy Story, per esempio, funzionano emotivamente perché non hanno la pretesa di essere persone reali: sono giocattoli e quindi i loro movimenti possono essere innaturali e anche caricaturali senza causare disagio o disorientamento. Gli animali sintetici fantastici di Avatar e di altri film risultano credibili perché non abbiamo alcun termine di paragone con la realtà. Invece gli animali fotorealistici del remake del Re Leone o della Sirenetta, o anche l’Indiana Jones ringiovanito del Quadrante del Destino, per quanto siano il frutto di immense fatiche di tecnici e animatori, spesso stentano a convincerci: basta un minimo movimento innaturale per spezzare la magia, l’empatia e l’immedesimazione.

La terza anomalia di questi video di OpenAI emerge soltanto se si ha l’occhio estremamente allenato e ci si sofferma sui dettagli: alcune persone sullo sfondo appaiono dal nulla e poi svaniscono, e la donna che cammina per le vie di Tokyo a un certo punto inverte le proprie gambe. Tutte cose che al primo colpo d’occhio non verranno notate da nessuno, specialmente se la scena fa parte di una sequenza che ha un montaggio molto dinamico, ma sono cose che rendono questi video inadatti a un uso per un film o un telefilm di qualità.

Il quarto aspetto insolito di Sora è la sua fisica, ossia il modo in cui gli oggetti si comportano. Uno dei video rilasciati da OpenAI mostra un bicchiere appoggiato su un tavolo. Di colpo il liquido rosso contenuto nel bicchiere attraversa il vetro del bicchiere e si spande sul tavolo, senza motivo, mentre il bicchiere fa un salto altrettanto senza motivo, si inclina e poi ricade sul tavolo flettendosi, cosa che un bicchiere di vetro non farebbe mai.

Da questo e altri esempi risulta chiaro che Sora non permette ancora di sostituire in tutto e per tutto il lavoro manuale delle persone, ma produce già ora risultati sufficienti per le riprese generiche. Martin Scorsese o Christopher Nolan non hanno motivo di preoccuparsi, perché realizzano prodotti finemente cesellati, ma Sora mette invece a repentaglio tutto il mondo delle riprese stock, ossia degli spezzoni generici che vengono realizzati e venduti per esempio per creare i video industriali o promozionali o le panoramiche e le riprese ambientali nei telefilm.

Nicchie e autenticità

Se lavorate in questi settori, insomma, conviene che impariate in fretta come funzionano questi software e li adottiate, perché o ci si adatta o si perisce. Oppure si trasforma il proprio mestiere, trovando una nicchia specialistica che il software non riesce a coprire.

E questa nicchia c’è: anche se OpenAI sottolinea orgogliosamente, nel documento tecnico che ha rilasciato insieme ai video, che Sora migliora semplicemente aggiungendovi potenza di calcolo e che quindi certe limitazioni di oggi potrebbero svanire domani, chi si occupa già di immagini sintetiche fisse sa che è relativamente facile ottenere un’immagine che somiglia grosso modo a quella desiderata, ma convincere un’intelligenza artificiale a creare esattamente un’immagine che avevamo in mente è difficilissimo, e questo sembra essere un limite intrinseco del suo modo di generare immagini, che non dipende dalla potenza di calcolo e non è rimediabile semplicemente spendendo altri gigadollari in hardware.

L’intelligenza artificiale, insomma, sta trasformando anche questo settore lavorativo, come ha già fatto per tanti altri, dalla scrittura alla traduzione alla musica alla grafica, ma in questo caso specifico ha anche un effetto molto più perturbante a livello sociale.

Se già adesso Midjourney o Stable Diffusion stanno mettendo in crisi l’informazione permettendo di produrre immagini sintetiche che vengono spacciate per vere, alimentando la propaganda, le truffe e la produzione di fake news a basso costo, possiamo solo immaginare cosa succederà quando anche i video che vengono pubblicati online dovranno essere considerati inattendibili perché potrebbero essere stati generati dall’intelligenza artificiale. Non potremo più credere a niente di quello che vediamo sullo schermo e dovremo diffidare di tutto, con il rischio di sprofondare nell’apatia.

Fra l’altro, questo vuol dire non solo fake news, ma anche per esempio che i sistemi di riconoscimento facciale usati da molti servizi e da molte banche online o dai sistemi di controllo degli accessi potranno essere beffati e in alcuni casi lo sono già.

Ma in realtà c’è già una soluzione a questo rischio: il primo passo è definire delle autorità di certificazione dell’autenticità dei video. Se un video viene depositato presso uno o più enti indipendenti, che ne garantiscano l’integrità attraverso strumenti matematici appositi, che esistono già e vengono già applicati in altri settori, come quello giudiziario per esempio per garantire l’integrità delle registrazioni audio e video degli interrogatori, allora si può stare tranquilli che quel video è reale.

Inoltre si può sempre ricorrere alla catena delle garanzie: se un video viene pubblicato da una testata giornalistica affidabile ed è stato girato da un reporter affidabile, allora ci si può ragionevolmente fidare. Mai come oggi, insomma, il giornalismo può avere un ruolo chiave nell’arginare lo tsunami delle fake news.

Ma per avere questo ruolo è indispensabile imporre standard di verifica nelle redazioni che oggi, purtroppo, spesso scarseggiano. Si prende a volte la prima immagine trovata su Internet chissà dove e la si sbatte in prima pagina; si spacciano spezzoni di videogiochi per scene dai fronti di guerra; e cosi via.

Non è solo un problema redazionale del giornalismo: le immagini sintetiche vengono pubblicate senza controllo anche da riviste scientifiche irresponsabili. Un caso recentissimo e particolarmente memorabile ci è stato regalato dalla rivista Frontiers in Cell and Developmental Biology, che ha pubblicato in un suo articolo una illustrazione scientifica dei genitali di un ratto vistosissimamente generata dall’intelligenza artificiale. Lo si capiva dalle didascalie, che erano parole senza senso, e lo si capiva soprattutto dalle dimensioni colossalmente impossibili dei testicoli del superdotato roditore.

Nessuno ha controllato, né i ricercatori autori dell’articolo né i redattori, e così l’articolo scientifico è stato pubblicato con l’immagine sintetica. La rivista ha così perso ogni credibilità perché è stata colta clamorosamente in fallo.

Se vogliamo sfruttare i benefici dell’intelligenza artificiale senza farci travolgere dai rischi, non ci servono mirabolanti tecnologie o gadget salvifici per rivelare quando un’immagine o un video sono sintetici, come chiedono in molti. Ci basta creare una filiera di autenticazione e controllo, gestita da esseri umani competenti, con procedure redazionali rigorose, e abituarci all’idea che d’ora in poi tutto quello che vediamo muoversi sullo schermo rischia di essere falso se non è stato verificato da questa filiera.

In altre parole, ci basta cambiare metodo di lavoro, e questa è una decisione che non dipende né dalla potenza di calcolo né dalla tecnologia, ma dipende dalla nostra volontà. Il modo in cui reagiremo alla sfida dell’intelligenza artificiale sarà un perfetto indicatore della nostra intelligenza naturale.

Fonte aggiuntiva: Mashable.

2024/02/19

Video: ho raccontato gli inganni della mente e dei sensi a Verona per il Darwin Day

Pochi giorni fa sono stato ospite del Circolo UAAR di Verona e ho tenuto una conferenza interattiva sugli inganni della percezione. L’audio è piuttosto rimbombante e ovviamente le immagini perdono gran parte della loro efficacia se non vengono viste dal vivo, ma se volete farvi un’idea dei contenuti di questa conferenza, date un’occhiata.