Il computer sa cosa guardi

Lavoratrici e Lavoratori Aci Informatica - Monday, December 1, 2025

(Fonte) Max Kozlov – 14 novembre 2025

Una nuova tecnica basata sull’intelligenza artificiale, chiamata mind captioning, è in grado di generare descrizioni molto accurate di ciò che una persona sta guardando, semplicemente analizzando la sua attività cerebrale. Presentata su Science Advances, questa tecnologia offre nuove informazioni su come il cervello rappresenta il mondo prima che i pensieri vengano trasformati in parole e potrebbe rivelarsi utile per aiutare persone con disturbi del linguaggio — ad esempio dopo un ictus — a comunicare meglio. Secondo il neuroscienziato Alex Huth, il modello riesce a ricostruire con notevole dettaglio ciò che l’osservatore vede, un risultato sorprendente vista la complessità del compito.

Da oltre dieci anni i ricercatori sanno ricostruire ciò che una persona vede o sente analizzando lattività cerebrale, ma decodificare contenuti complessi, come brevi video, è sempre stato difficile. I tentativi precedenti riuscivano a estrarre solo parole chiave, senza cogliere il contesto completo.

Il neuroscienziato Tomoyasu Horikawa ha sviluppato un nuovo approccio: prima ha creato una “firma di significato” digitale per più di duemila video, analizzandone i sottotitoli con un modello linguistico. Poi ha addestrato un’altra IA a collegare queste firme ai pattern di attività cerebrale osservati in sei volontari tramite risonanza magnetica.

Quando il sistema analizza una nuova scansione celebrale mentre qualcuno guarda un video, riesce a prevedere la relativa firma di significato, e un generatore di testo trova la frase che meglio la rappresenta. Così, da un semplice video di una persona che salta da una cascata, il modello è riuscito passo dopo passo a ricostruire una descrizione completa e accurata.

Il metodo ha funzionato anche quando i partecipanti richiamavano alla memoria video già visti: l’IA ha generato descrizioni basate sui ricordi, suggerendo che il cervello utilizza rappresentazioni simili per visione e memoria.

Timori per la privacy 

La nuova tecnica, basata su risonanza magnetica funzionale non invasiva, potrebbe migliorare le interfacce neurali impiantate che mirano a trasformare direttamente in testo le rappresentazioni mentali non verbali. Secondo Alex Huth – che nel 2023 ha sviluppato un modello simile per decodificare il linguaggio da registrazioni cerebrali non invasive – questi progressi potrebbero aiutare persone con difficoltà comunicative.

Allo stesso tempo, però, emergono timori sulla privacy mentale: la possibilità di rivelare pensieri, emozioni o condizioni di salute potrebbe essere sfruttata per sorveglianza o discriminazione. Huth e Horikawa sottolineano che i loro modelli non oltrepassano questo limite: richiedono il consenso dei partecipanti e non sono in grado di leggere pensieri privati, una capacità che – ribadisce Huth – nessuno ha ancora dimostrato.

The post Il computer sa cosa guardi first appeared on Lavoratrici e Lavoratori Aci Informatica.