Ma quali pappagalli stocastici!
Il paper “Automated Profile Inference with Language Model Agents”
(arXiv:2505.12402) studia una nuova minaccia per la privacy online resa
possibile dai modelli linguistici di grandi dimensioni (LLM). Questa minaccia,
chiamata inferenza automatizzata del profilo, consiste nell’uso di agenti AI per
raccogliere e analizzare automaticamente le attività pubbliche degli utenti su
piattaforme pseudonime (come forum o social media) al fine di estrarre
informazioni personali sensibili, con il rischio di re-identificare le persone.
WHY I DON’T THINK AI IS A BUBBLE
https://honnibal.dev/blog/ai-bubble
L’autore, sostiene che, al di là delle valutazioni finanziarie, i progressi
tecnici dell’IA non mostrano segni di imminente plateau. Contesta l’argomento
comune secondo cui i miglioramenti derivino solo dallo “scaling” (modelli sempre
più grandi e costosi) e siano quindi destinati a esaurirsi. Honnibal spiega che
questa visione, forse valida per i primi modelli come GPT-1 e GPT-2 (definibili
“fancy autocomplete”), è oggi superata. Il vero salto di qualità è arrivato
dall’integrazione con il reinforcement learning, che ha permesso di creare i
cosiddetti “reasoning models”.