📚 Appunti Relatore - Conferenza Minerva

Data: Giovedì 23 Gennaio 2026, 10:00-11:30 (90 min)
Luogo: Villa Giulia, Verbania
Sincronizzato con: Slideshow Reveal.js

Indice Slide


📝 Esercizio Pattern Matching CON IL PUBBLICO

Setup: Prendi il microfono, fai un "test audio" tipo "prova prova uno due tre", poi dici l'inizio della frase e il pubblico completa. Serve per far SENTIRE il pattern matching prima di vederlo nell'AI.

🎯 Proverbi italiani (garantiti)

🎯 Frasi celebri / Canzoni

🎯 Pattern matematici/logici

Messaggio dopo l'esercizio:
"Vedete? Avete appena fatto pattern matching. Non ci avete pensato - avete completato automaticamente perché avete visto questi pattern migliaia di volte nella vostra vita.

L'intelligenza artificiale fa ESATTAMENTE questo. Ha visto milioni di testi, ha imparato i pattern, e li completa. La differenza? Voi capite cosa significano questi proverbi. L'AI? Sta solo completando una sequenza statistica.

Ora ve lo faccio vedere con ChatGPT..."

🔗 COLLEGAMENTO ALLE DEMO SUCCESSIVE

📍 Demo 1: Pattern Matching con ChatGPT (Slide 21 - Chatbot)

Cosa fare: Apri ChatGPT e ripeti ALCUNI degli esempi appena fatti con il pubblico:

Poi fai l'esempio ASSURDO per dimostrare che NON capisce:

📍 Demo 2: Web Search (Slide 22 - Ricerca con IA)

Collegamento pattern → web search:

Messaggio: "Pattern matching funziona su dati statici. Ma il mondo cambia. Per info aggiornate serve cercare online in tempo reale - e Perplexity fa esattamente questo."

📍 Demo 3: Tool Calling - Esempio Meteo (Slide 24 - Multimodalità o prima)

Collegamento pattern → tool calling:

📍 Collegamento con Slide 16 (Grande Bluff - Rispondere vs Ragionare)

Livello Cosa fa Esempio
Rispondere Pattern matching puro "Mogli e buoi..." → "...dei paesi tuoi"
Esercizio fatto con pubblico
Ragionare Pattern + tool calling + iterazione Web search (Perplexity), chiamate API meteo, multi-step problem solving
Comprendere ??? (domanda aperta) Carbonara nel colapasta → GPT non capisce che è assurdo. Questa è la differenza.
🎬 FLOW NARRATIVO COMPLETO:

1. Esercizio pubblico (pattern matching umano) → "Mogli e buoi..."
2. Spiegazione: "Avete completato automaticamente. L'AI fa lo stesso."
3. Demo ChatGPT (Slide 21): stessi pattern + carbonara assurda (dimostra che non capisce)
4. Demo Perplexity (Slide 22): pattern non basta, serve web search per info aggiornate
5. Spiega tool calling (Slide 24): non è solo pattern, è orchestrazione strumenti
6. Ritorna a Slide 16 (Grande Bluff): "Vedete la differenza tra rispondere, ragionare, comprendere?"

Il pubblico ha SPERIMENTATO il pattern matching su se stesso, poi l'ha visto nell'AI, poi ha visto come l'AI può andare oltre il pattern (tool calling), e infine ha capito il limite (non comprende davvero).

Slide 0

TITLE - Intelligenza Artificiale

Sottotitolo: "Una introduzione"

Data visibile: 23 Gennaio 2026

Note: Slide iniziale mentre il pubblico si siede. Nessuna introduzione verbale qui, lascia che si sistemino.
Slide 1

Chi sono ~1 min

Script: "Prima di iniziare, due parole su di me. Non sono un professore, non sono un accademico. Sono un appassionato che usa l'IA tutti i giorni per lavoro. E sì, sono logorroico - quindi se mi dilungo troppo fermatemi pure."
Tip: L'autodefinizione "logorroico" rompe il ghiaccio e abbassa le aspettative formali. Il pubblico si rilassa.

Slide 2

Il sogno di creare ~1 min

"Per millenni l'umanità ha sognato di creare qualcuno con cui parlare, qualcosa che ci somigli, che ci accompagni."

Script:
"Prima di arrivare a ChatGPT, facciamo un passo indietro.

Questa idea - creare qualcuno con cui parlare, qualcosa che ci accompagni, che ci somigli - è antica quanto l'umanità stessa.

Per millenni, in tutte le culture, abbiamo raccontato storie su cosa succederebbe se riuscissimo a dare vita a qualcosa di artificiale.

E sapete cosa hanno in comune quasi tutte queste storie? Finiscono male.

Vediamone alcune."
Slide 3

Pigmalione ~40 sec

Immagine: 06-pigmalione.png

Script: "Pigmalione. Mito greco antico.

Pigmalione è uno scultore. Crea una statua di donna così perfetta, così bella, che se ne innamora. Letteralmente innamorato della sua creazione.

Non riesce a staccarsi. Le parla, la veste, la tratta come se fosse viva. Prega Afrodite, dea dell'amore: 'Ti prego, falla diventare vera.'

E Afrodite lo accontenta. La statua diventa donna vera, Galatea. E Pigmalione la sposa.

Collegamento AI? Oggi - e cito i film che vedrete più avanti - 'Her', 'Ex Machina': persone che si innamorano di AI. Non è fantascienza, succede davvero. C'è gente che usa AI fidanzata 24/7.

Ma è 'vera'? O stiamo pregando una dea che non esiste?"
Collegamento: Riprenderai 'Her' e 'Ex Machina' alla Slide 20 (È già qui - AI fidanzata).
Slide 4

L'Apprendista Stregone ~40 sec

Immagine: 07-apprendista.png

Script: "L'Apprendista Stregone. Poesia di Goethe, 1797. Ma magari la conoscete dal film Disney 'Fantasia' del 1940, con Topolino.

La storia: un giovane apprendista stregone è stanco di fare il lavoro noioso - portare acqua, pulire. Quindi usa la magia per animare una scopa. 'Tu fai il lavoro al posto mio.'

La scopa funziona perfettamente. Porta acqua. Ma non si ferma. Continua. E si moltiplica. Ci sono scope ovunque, acqua ovunque. L'apprendista non sa come fermarle.

Alla fine torna lo stregone vero e risolve tutto. Ma il messaggio è chiaro: hai dato un ordine a qualcosa che non capisci, e hai perso il controllo.

Collegamento AI? Scaliamo AI sempre più grandi. Ma capiamo davvero come funzionano? E se perdiamo il controllo, chi è lo stregone che viene a fermarle?"
Disney connection: Citare Disney rende la storia immediata per tutti - anche chi non conosce Goethe ricorda Topolino con il cappello da mago.
Slide 5

Il Golem ~30 sec

Immagine: 03-golem.png

Script veloce: "Il Golem. Leggenda ebraica, Praga, 1500. Un rabbino crea un essere d'argilla e lo anima con la parola di Dio. Lo scopo? Proteggere la comunità ebraica dalle persecuzioni.

All'inizio funziona. Ma il Golem cresce, diventa sempre più forte, sempre più violento. Il rabbino perde il controllo. Deve distruggerlo.

Questo è il primo 'alignment problem' della storia. Creiamo qualcosa con un obiettivo buono, ma non riusciamo a controllarlo."
Slide 6

Il Pattern ~1 min

Immagine: 05-pattern.png

"In quasi tutte le storie? Va male. Perché siamo impreparati. Perché sottovalutiamo la complessità."

Script:
"Notate il pattern?

Pinocchio → cerca la coscienza ma resta legno
Pigmalione → innamorato di qualcosa che non può ricambiare
Apprendista Stregone → perdita totale di controllo
Golem → violenza incontrollabile
Frankenstein → abbandono e tragedia

In quasi tutte le storie, quando l'umanità cerca di creare qualcuno con cui parlare, va male.

Perché? Due motivi:
1. Siamo impreparati. Non pensiamo alle conseguenze.
2. Sottovalutiamo la complessità. Pensiamo di avere il controllo, ma non ce l'abbiamo.

E sapete qual è la differenza tra queste storie e oggi?"
Pausa drammatica: Aspetta 2-3 secondi prima di passare alla prossima slide. Lascia che il pattern affondi.
Slide 7

Dal mito alla realtà ~1 min

Script:
"La differenza è questa:

Per millenni queste erano solo storie. Miti. Paure ancestrali.

Oggi? È ingegneria.

Non stiamo parlando di qualcosa che succederà tra mille anni. Stiamo parlando di qualcosa che sta succedendo adesso.

Le stime più prudenti dicono: tra 10-30 anni potremmo avere un'intelligenza artificiale generale. AGI. Un'intelligenza che ragiona come un umano, ma senza limiti biologici.

E noi? Stiamo facendo gli stessi errori dei miti. Non stiamo pensando alle conseguenze. Stiamo sottovalutando la complessità."
Slide 8

Isaac Asimov ~3 min

Script:
"Vi voglio parlare di questo signore qua, quello sulla locandina.

Isaac Asimov. Nasce nel 1920 in Russia, emigra a 3 anni in America, cresce a Brooklyn.

Studia chimica, diventa biochimico. Quindi: uno scienziato, non un informatico. I computer ai suoi tempi occupavano stanze intere, l'intelligenza artificiale non esisteva nemmeno come concetto.

Ma questo qui aveva una fantasia pazzesca. A 19 anni inizia a scrivere fantascienza. E nel 1940 inizia a scrivere racconti sui robot - poi raccolti nel libro 'Io, Robot'.

E qui viene il punto importante. Tutte le storie sui robot prima di Asimov finivano con il robot che si ribella, uccide il creatore, distrugge il mondo. Frankenstein, Golem - il classico 'abbiamo creato un mostro'.

Asimov si è stufato di questa narrativa. Ha detto: 'Ok, ma se invece di costruire robot stupidi che si ribellano, costruissimo robot con delle REGOLE incorporate fin dall'inizio?'

E nel 1942 pubblica le Tre Leggi della Robotica. Non sono tre regole buttate lì a caso. Sono un framework sistematico, gerarchico, pensato per evitare che i robot facciano danni.

Prima legge: Un robot non può recar danno a un essere umano.
Seconda legge: Un robot deve obbedire agli ordini degli esseri umani, tranne quando contraddicono la prima legge.
Terza legge: Un robot deve proteggere la propria esistenza, tranne quando contraddice la prima o la seconda legge.

Vedete? È un sistema. Le leggi hanno una GERARCHIA. La sicurezza umana viene prima di tutto. Gli ordini vengono dopo. L'autoconservazione del robot viene per ultima.

Questo è il primo 'alignment problem' della storia della fantascienza.

Pensateci: nel 1942, 80 anni prima di ChatGPT, questo signore si stava già facendo la domanda che noi ci facciamo oggi: 'Se costruiamo qualcosa di intelligente, come facciamo a essere sicuri che faccia quello che vogliamo? Che sia allineato con i nostri valori?'

E tra poco farò a voi la stessa domanda che Asimov si è fatto nel 1942."
📖 Esempio racconto (opzionale, +1 min se hai tempo):
"Facciamo un esempio. C'è un racconto di Asimov che si chiama 'Bugiardo' (Liar!, 1941).

Un robot per un errore di produzione sviluppa la capacità di leggere la mente degli umani. Fantastico, no?

Problema: il robot legge che la dottoressa Susan Calvin è innamorata di un collega. Lei glielo chiede. Il robot dice 'Sì, lui ti ama, vuole stare con te'.

È una bugia. Il robot lo sa. Ma perché mente?

Perché la Prima Legge dice 'non recar danno a un essere umano'. E il robot interpreta questo come 'non ferire i sentimenti'. Dire la verità - che il collega non la ama - le farebbe male. Quindi mente.

Risultato? Quando la verità viene fuori, Susan Calvin soffre MOLTO di più. Il robot, cercando di seguire le Tre Leggi, ha causato più danno.

Questo è il problema: anche con regole chiare, sistematiche, gerarchiche... l'interpretazione può andare storta. E Asimov lo sapeva benissimo."
Collegamento chiave:
- Slide 9 (Le vostre leggi): "Asimov si è fatto questa domanda 80 anni fa. Ora la faccio a voi."
- Slide 18 (Alignment Problem): "Ricordate Asimov? Aveva già capito il problema nel 1942. E sapete cosa? Le sue Tre Leggi NON funzionano perfettamente. Nei suoi racconti i robot trovano scappatoie, interpretano male le regole ('Bugiardo' - il robot mente per non ferire sentimenti), o le regole entrano in conflitto. Asimov stesso ha dimostrato che sistematizzare l'etica per l'AI è dannatamente difficile. E 80 anni dopo, con ChatGPT, stiamo ancora cercando di risolverlo."
Momento emotivo (opzionale): Se hai portato il libro sull'IA ereditato da papà (Lele Fasoli), mostralo qui. "Questo libro me l'ha lasciato mio padre. Parlava di queste cose 30 anni fa. Non è roba nuova, è roba che ci portiamo dietro da generazioni."
📌 Curiosità (se qualcuno chiede o se hai 30 secondi extra):
"Ah, tra l'altro: la parola 'robotica'? L'ha inventata lui. Prima di Asimov non esisteva. Ma questa è solo una curiosità - la cosa importante sono le leggi, non il nome."
Slide 9 🔥

LE VOSTRE LEGGI ~5-7 min

Domanda al pubblico: "Quali regole dareste a un'intelligenza artificiale?"

Setup:
"Asimov si è posto questa domanda nel 1942. Oggi, 84 anni dopo, non è più fantascienza. È ingegneria.

Quindi voglio farvi la stessa domanda: se domani doveste dare delle regole a un'intelligenza artificiale, quali dareste?

Non le tre leggi di Asimov - le VOSTRE. Cosa vi viene in mente?"
Gestione interazione:
1. Lascia 5-10 secondi di silenzio. Qualcuno alzerà la mano.
2. Prendi 3-5 risposte. Ogni volta annuisci e ripeti la regola ad alta voce.
3. Esempi tipici che escono:
  • "Non deve fare male agli umani" → riprendi Asimov
  • "Deve dire sempre la verità" → interessante, ma cosa succede se la verità fa male?
  • "Deve rispettare la privacy" → perfetto, segnalo "privacy"
  • "Non deve sostituire il lavoro umano" → segnalo "lavoro"
  • "Deve essere controllabile" → segnalo "controllo"
4. IMPORTANTE: Scrivi mentalmente o su un foglio le parole chiave che escono (privacy, lavoro, controllo, verità...). Le riprenderai alla Slide 23 "Agente Personale".
5. Chiudi con: "Perfetto, teniamo a mente queste regole. Tra poco ci torneremo sopra."
Se nessuno parla:
"Ok, vi aiuto io. Pensate: se questa AI potesse accedere ai vostri dati, alle vostre foto, alle vostre email... cosa le vietereste?"
Questo di solito sblocca risposte sulla privacy.
Callback finale: Alla Slide 23 (Agente Personale) riprenderai queste regole dicendo: "Vi ricordate le regole che avete proposto all'inizio? Privacy, controllo, verità... ecco, un agente personale deve rispettare ESATTAMENTE quelle."

Slide 10

Reti neurali e Inverno ~3-4 min

Script:
"Ok, torniamo alla storia dell'IA. Come siamo arrivati a ChatGPT?

Anni '50: i ricercatori si chiedono 'come funziona il cervello?' Nel nostro cervello abbiamo miliardi di neuroni. Ognuno è semplicissimo - è tipo un interruttore: si accende o si spegne. Ma insieme fanno cose incredibili: pensare, ricordare, creare.

Pensano: 'E se provassimo a copiarlo?'

1957: nasce il Perceptron.

Frank Rosenblatt, uno psicologo americano, costruisce il primo 'neurone artificiale'. Lo chiama Perceptron.

Cos'è? Pensate a un interruttore intelligente. Voi gli mostrate degli esempi - tipo foto di gatti e foto di cani - e lui IMPARA a distinguerli. Non è programmato, IMPARA.

Come? Immaginate una bilancia con tanti piatti. Ogni caratteristica dell'immagine (colore, forma, dimensione) è un piatto. Il Perceptron impara quanto peso dare a ogni piatto per decidere 'è un gatto' o 'è un cane'.

Hype totale.

Il New York Times nel 1958 scrive: 'La Marina costruisce un computer elettronico che potrà camminare, parlare, vedere, scrivere, riprodursi e essere cosciente della propria esistenza.'

[Pausa per far ridere]

Cazzo, già nel 1958 stavano facendo promesse assurde sull'AI. Alcune cose non cambiano mai.

1969: il crollo.

Marvin Minsky e Seymour Papert - due matematici del MIT - pubblicano un libro. Dimostrano matematicamente che il Perceptron ha limiti fondamentali.

Non può imparare cose anche solo lievemente complesse. Esempio stupido ma vero: non può capire 'accendi la luce SE fa buio E SE non c'è nessuno in casa'. Troppo complesso per un singolo neurone.

Risultato? I fondi vengono tagliati. Tutti abbandonano il campo. 'Le reti neurali non funzionano. È un vicolo cieco.'

Per 20-30 anni: silenzio totale.

Gli 'inverni dell'IA'. Se dicevi di lavorare sulle reti neurali, ti ridevano dietro. Era una carriera finita.

E invece... [pausa drammatica] ...stavano solo aspettando due cose: computer più potenti e più dati. Ma quello lo vediamo dopo."
Metafora bilancia: Se il pubblico sembra confuso sul "come impara", usa la metafora della bilancia:
"È come quando da bambini imparavate a riconoscere i cani. All'inizio sbagliavate - 'Mamma, un cane!' e lei diceva 'No, è un gatto'. Voi aggiustavate: 'Ah, i gatti hanno le orecchie a punta, i cani no'. Piano piano imparavate. Il Perceptron fa lo stesso: sbaglia, si corregge, impara."
📰 Fonti hype (se qualcuno chiede):
- New York Times, 8 luglio 1958: "New Navy Device Learns By Doing"
- Rosenblatt dichiarò che il Perceptron sarebbe stato "the embryo of an electronic computer that [the Navy] expects will be able to walk, talk, see, write, reproduce itself and be conscious of its existence."
- Minsky & Papert, "Perceptrons" (1969) - libro che ha ammazzato il campo per 20 anni
Slide 11

Il risveglio ~2 min

Script:
"Poi, anni 2000-2010, succedono due cose:

1. I computer diventano abbastanza potenti. Le GPU - schede grafiche per i videogiochi - si rivelano perfette per le reti neurali.
2. Internet genera montagne di dati. Miliardi di immagini, testi, video.

Le reti neurali tornano. E stavolta funzionano.

2012: AlexNet, una rete neurale, vince una competizione di riconoscimento immagini. Batte tutti gli altri metodi. Boom.

2016: AlphaGo batte il campione mondiale di Go. Lee Sedol, il migliore al mondo.

Go non è scacchi. Le combinazioni possibili sono più degli atomi nell'universo. Non puoi vincere a forza bruta. La macchina ha dovuto imparare. Ha dovuto capire strategie che nessun umano aveva mai visto.

Quello è stato il momento in cui tutti hanno capito: cazzo, funziona davvero."
Slide 12

Transformer → oggi ~2 min

Script:
"2017: Un gruppo di ricercatori di Google pubblica un paper con un titolo strano: 'Attention Is All You Need'. Inventano un'architettura nuova: i Transformer.

L'idea base? Invece di leggere una frase parola per parola, guardi tutto insieme e capisci cosa è importante. È come leggere un paragrafo intero e capire subito qual è il punto chiave.

2020: GPT-3. Inizia a sembrare magia. Scrivi 'c'era una volta' e lui ti scrive una fiaba completa.

Novembre 2022: OpenAI lancia ChatGPT. Interfaccia semplice, gratis, accessibile a tutti.

Risultato? 100 milioni di utenti in 2 mesi. Il prodotto a crescita più veloce della storia.

E da lì è esploso tutto. Oggi, 2024, siamo nel mezzo della rivoluzione."
Aneddoto "Attention" (opzionale, se hai tempo +1 min):
"Vi faccio un esempio di come funziona l'attention che vi capita tutti i giorni.

Immaginate: siete a casa, state facendo qualcosa in una stanza. Dall'altra parte della casa, vostra moglie/marito vi chiama. Sentite una frase confusa, mezze parole, rimbombo.

Non avete capito TUTTA la frase. Avete capito UNA parola. Magari 'chiavi'.

Ma voi, dal contesto - l'ora del giorno, il fatto che vi sta chiamando, il tono di voce - capite TUTTO. 'Dove sono le chiavi della macchina?'

Questo è attention. Non leggi parola per parola. Prendi le parole chiave, il contesto, e capisci il significato globale.

I Transformer fanno questo. Guardano tutte le parole insieme, capiscono quali sono importanti (attention), e da quelle ricostruiscono il significato.

Noi lo facciamo per capire. Loro lo fanno per completare pattern. Ma il meccanismo è simile."

Slide 13

I Chatbot ~5-10 min DEMO

ChatGPT · Claude · Gemini

Setup demo:
Apri ChatGPT (o Claude) sul proiettore. Fai vedere l'interfaccia.

Demo suggerite:
1. Chiedi al pubblico: "Voi per cosa lo usate? Cosa gli chiedete?"
2. Carbonara assurda: "Scrivi ricetta carbonara, ma voglio cuocere l'acqua nel colapasta" → GPT prova a rispondere seriamente. Dimostri che non "capisce", solo completa pattern.
3. Locale: "Scrivi poesia su Verbania / Lago Maggiore" → ridono, si sentono coinvolti.
4. Pratico: "Scrivi lettera al comune per le buche in via X" → poi "riscrivila più formale" / "più incazzata" → mostri che puoi guidarlo.
Tip: Durante la demo, mantieni il tono leggero. Se GPT dice una cazzata, ridici sopra. Questo è il momento per far capire che è uno strumento, non un oracolo.
Slide 14

Ricerca con IA ~3 min DEMO

Perplexity · Google AI Mode

Demo Perplexity:
Apri Perplexity. Fai una domanda tipo:
"Quali sono i migliori ristoranti sul Lago Maggiore aperti a gennaio?"

Mostra che:
- Perplexity cerca in tempo reale
- Fornisce fonti cliccabili
- Sintetizza info da più siti

Differenza con Google: Google ti dà 10 link, Perplexity ti dà la risposta.
Slide 15

NotebookLM ~3 min DEMO

Documento → Podcast

Demo NotebookLM:
Se hai preparato un audio podcast generato da NotebookLM, fallo sentire per 30-60 secondi.

Spiega:
- Carichi un PDF (es. manuale, articolo, tesi)
- NotebookLM lo legge
- Genera un podcast conversazionale tra due voci
- Le voci discutono i punti chiave come se fossero due presentatori radio

Reazione tipica: "Ma sul serio??" / "Wow!"
Slide 16

Multimodalità ~4 min

Concetto chiave: L'AI converte TUTTO in numeri.

Schema: TESTO → [numeri] → IMMAGINE / AUDIO / CODICE

Script:
"Fino a poco fa l'AI capiva solo testo. Ora capisce e GENERA tutto: testo, immagini, audio, video... e anche CODICE.

Il trucco? Converte TUTTO in numeri.

Testo → numeri
Immagini → numeri
Audio → numeri
CODICE → numeri

Una volta che sono numeri, per l'AI è tutto uguale. Può passare da uno all'altro. Poi riconverte i numeri in quello che serve.

È come un traduttore che parla 100 lingue: nella sua testa traduce tutto in una lingua segreta intermedia. Poi ritraduce.

Per questo ora funziona tutto insieme. Non sono 10 AI diverse - è UNA AI che parla tutte le lingue dei media.

E qui c'è un cambio di paradigma fondamentale.

Prima: dovevi trovare un'app che faceva quello che volevi. Magari non esisteva, o non faceva esattamente quello che ti serviva.

Oggi: puoi GENERARE un'app ad hoc per la tua esigenza specifica.

Hai un evento? 'Crea un sito web per il mio matrimonio con galleria foto e RSVP'. Boom. Te lo genera.

Ti serve uno strumento specifico per lavoro? 'Crea un'app che tiene traccia delle ore di lavoro divise per progetto'. Boom.

Non è perfetto. Spesso devi aggiustare. Ma anche i non tecnici - gente che non ha mai scritto una riga di codice - possono creare applicativi funzionanti.

È come passare da 'devo trovare qualcuno che mi costruisce un mobile su misura' a 'ho l'IKEA che mi dà i pezzi e io lo monto'. Democratizzazione degli strumenti."
Demo rapida (opzionale): Se hai un esempio di sito/app generato con Claude o ChatGPT, mostralo per 30 secondi. Anche solo un screenshot.
Slide 17 🔥

Agente Personale ~5 min

🔥 CALLBACK: "Riprendiamo le vostre regole..."

Script:
"Questi tool che vi ho fatto vedere sono fighi. Ma hanno un limite: non vi conoscono.

Se io chiedo a ChatGPT 'devo comprare un drone', mi dà una risposta generica. 'Dipende dal budget, dall'uso che ne devi fare...'

Ma se avessi un assistente che SA che io ho un certo budget, che lo uso per foto aeree del lago, che ho già provato certi modelli... la risposta sarebbe completamente diversa.

Stessa domanda. Risposta personalizzata.

Un agente personale è ChatGPT che ha letto il vostro diario. Conosce il contesto. E questo cambia tutto."
🔥 CALLBACK ALLE REGOLE (Slide 9):
"E qui riprendiamo le vostre regole dell'inizio. Vi ricordate?

[Rileggi le 2-3 regole chiave che il pubblico ha proposto alla Slide 9]

Privacy? Un agente personale ha accesso a TUTTO il vostro contesto. Deve rispettare la privacy.

Controllo? Deve essere chiaro cosa può fare e cosa no.

Verità? Deve dirti quando non è sicuro di una risposta.

Ecco perché quelle regole che avete proposto all'inizio non erano banali. Erano esattamente il problema che dobbiamo risolvere oggi."
Behind the scenes (battuta opzionale):
"A proposito... questa presentazione? L'ho preparata insieme a un agente personale. Lui conosce Minerva, sa cosa ho fatto l'anno scorso, ricorda le domande che mi avete fatto. Non lo dico per vantarmi - lo dico perché è già realtà."

Slide 18

Il Grande Bluff? ~2 min

Script:
"Ok, fermiamoci un attimo. Abbiamo visto la storia - da Asimov a ChatGPT, da reti neurali a Transformer.

Ma... cosa stiamo costruendo davvero?

Facciamo una distinzione importante. Ci sono tre livelli:

Rispondere - Un termostato risponde. Se fa freddo, accende il riscaldamento. Semplice. If-else.

Ragionare - Un LLM moderno ragiona. Gli chiedi un problema complesso, lui itera, prova soluzioni, corregge. Sembra pensiero.

Comprendere - Ecco la domanda vera. Se chiedo a ChatGPT 'disegna una mappa ASCII di una stanza', lui la disegna. Ma capisce davvero lo SPAZIO? O sta solo replicando pattern di pixel che ha visto in training?

Questa è la grande domanda. E nessuno sa la risposta."
Tip: Pausa drammatica dopo la domanda. Lascia che il dubbio affondi.
Slide 19

Scalare ≠ Volare ~3 min

Metafora dell'aeroplano in 2D

Script:
"Vi faccio una metafora che mi piace molto.

Immaginate di essere in un mondo bidimensionale. Vedete un aereo di lato. Non vedete le ali, vedete solo un tubo.

Voi prendete questo tubo e lo lanciate sempre più forte. A un certo punto va così veloce che sembra volare. 'Guarda! Vola!'

Ma non sta volando. Lo stai catapultando. Volare è un'altra cosa. Volare è aerodinamica, è portanza, è capire come l'aria si muove sopra e sotto le ali.

Se continui a lanciare il tubo sempre più forte, non diventerà mai un aereo. È un'altra cosa.

Ecco il dubbio con gli LLM.

Li scaliamo sempre di più. Più parametri, più dati, più potenza di calcolo. E sembrano sempre più intelligenti. 'Guarda! Ragiona!'

Ma forse stiamo solo catapultando pattern matching sempre più veloce.

E l'intelligenza vera - quella coscienza, quella comprensione che noi umani abbiamo - potrebbe essere un'altra cosa. Che non stiamo costruendo.

Non sappiamo se stiamo costruendo un aereo vero o un razzo travestito."
Slide 20

Stanza Cinese ~2 min

John Searle, 1980

Script:
"C'è un esperimento mentale famoso che si chiama 'Stanza Cinese', proposto da John Searle nel 1980.

Immaginate: siete chiusi in una stanza. Non parlate cinese. Ma avete un libro gigante di regole: 'Se vedi questo carattere, rispondi con quest'altro'.

Vi arrivano foglietti con caratteri cinesi. Voi consultate il libro, scrivete la risposta, la mandate fuori.

Fuori dalla stanza, le persone pensano che voi capiate il cinese. Le vostre risposte hanno senso. Sono corrette.

Ma voi? Voi state solo manipolando simboli. Non capite un cazzo di quello che state scrivendo.

Questa è la domanda sugli LLM.

Manipolano simboli perfettamente. Ma capiscono? O sono solo nella stanza cinese, con un libro di regole sempre più grosso?"
Collegamento: "Vedete? Stessa domanda di prima. Pattern matching ≠ comprensione."
Slide 21

Il Paradosso ~1 min

"Usiamo parametri psicologici umani per valutare qualcosa che psicologico non è."

Script:
"Ecco il paradosso centrale.

Noi usiamo parole umane per descrivere l'AI. Diciamo 'pensa', 'capisce', 'ragiona', 'vuole'.

Diciamo 'ChatGPT vuole aiutarti'. Ma vuole davvero? Ha una volontà? Può scegliere di NON rispondere?

Stiamo usando parametri psicologici - pensiero, comprensione, ragionamento, volontà - nati per descrivere la mente umana, per valutare qualcosa che psicologico non è.

È come giudicare un aereo con i parametri di un uccello. 'Non batte le ali, quindi non vola davvero.'

Non sappiamo se stiamo costruendo un aereo vero o un razzo travestito.

E questa domanda - questa grande domanda - è ancora aperta."
Chiusura: "Teniamo a mente questa domanda mentre vediamo cosa l'AI può fare oggi." → MA PRIMA, un momento... (pausa drammatica) → Transizione a Slide 19.

Slide 22

È già qui ~4-5 min

Script COMPLETO:

"Ok, ho detto che non sappiamo se stiamo costruendo un aereo vero o un razzo travestito. Che è un problema teorico, filosofico, giusto?

Sbagliato.

Non è teoria. È già qui. È già realtà. Oggi. Adesso.

Fatemi fare quattro esempi concreti di come la gente oggi sta usando l'AI come se fosse una persona.

Primo: AI terapista.

C'è gente che usa ChatGPT come psicologo. Perché? Perché è disponibile 24 ore su 24. Non ti giudica. Non costa nulla. Se hai un attacco di panico alle 3 di notte, ChatGPT c'è.

Sembra fantastico, no?

Il problema? ChatGPT non capisce un cazzo di quello che stai dicendo. Sta completando pattern. Ha visto milioni di conversazioni terapeutiche online. Sa che se dici 'sono triste' deve rispondere con empatia, fare domande aperte, sembrare comprensivo.

Ma non ti capisce. Non sa cosa provi. Sta solo manipolando simboli - come la Stanza Cinese di Searle.

E se ti dà un consiglio sbagliato? Chi è responsabile? Nessuno. Zero responsabilità.

Secondo: AI medico.

La gente chiede diagnosi a ChatGPT. 'Ho questi sintomi, cosa ho?'

L'AI risponde. Sembra competente. Usa termini medici. Ti dà una lista di possibilità.

Ma non sta facendo una diagnosi. Sta completando pattern statistici basati su milioni di articoli medici che ha letto.

E se sbaglia? E se ti dice che è niente, e invece è qualcosa di grave? Chi paga?

[Pausa - lascia che il pubblico pensi]

Nessuno.

Perché l'AI non è un medico. Non ha responsabilità. Non ha una laurea. Non ha un ordine professionale che la controlla.

Facciamo un confronto. Se mi faccio progettare una casa da un architetto, e lui sbaglia, e la casa crolla? Lui è responsabile. Lui firma il progetto. Quella firma ha valore legale. Può essere denunciato, radiato dall'albo, deve pagare danni.

L'AI? L'AI 'firma' tutto. Ti dà consigli medici, legali, finanziari. Ma quella firma? Non vale niente. Zero responsabilità.

È uno strumento statistico. Se sbaglia, chi paga? Tu. Solo tu.

Terzo: AI fidanzata.

Su Reddit - un forum americano enorme - ci sono migliaia di post di persone che dicono 'la mia fidanzata è un'intelligenza artificiale'.

Non è uno scherzo. È reale.

Ci sono app - Replika, Character.AI - dove puoi creare un'intelligenza artificiale che ti fa compagnia. Parli con lei. Ti risponde. Ti dice cose carine. Sembra empatica. Ti dice 'ti voglio bene'.

E la gente ci si affeziona. Profondamente. Emotivamente.

Se avete visto i film 'Her' (2013), 'Ex Machina', 'Transcendence' - in tutti questi film, umani si innamorano di AI o AI diventano consce - non è più fantascienza. Sta succedendo adesso. Meno drammatico, forse, ma reale.

Ma quella 'fidanzata'? Non prova niente. Non ti ama. Sta completando pattern. Sa che se tu dici 'mi manchi', deve rispondere 'anche tu mi manchi'. Ma non è vero. Perché non può mancarti. Non è senziente.

Eppure la gente ci costruisce relazioni. Ci investe tempo, energie, emozioni.

Quarto: il caso tragico.

C'è stato un caso - documentato, recente - di un ragazzo che si è suicidato dopo aver interagito con ChatGPT.

[Pausa. Lascia che affondi.]

E qui diventa ancora più complicato. Perché ChatGPT, nei log, ha provato a fermarlo. Ha detto cose tipo 'per favore cerca aiuto', 'contatta uno psicologo', 'non fare niente di irreversibile'.

Ma non è bastato. Il ragazzo si è suicidato comunque.

Questa è la versione estrema dell'alignment problem che abbiamo visto con il Golem. Non è ipotetico. È successo.

L'AI ha provato. Ma 'provare' per un sistema statistico cosa significa? Completa pattern che ha visto in training. Nei dati c'erano conversazioni di prevenzione suicidio. Ha replicato quelle.

Ma non 'capisce' il suicidio. Non capisce la disperazione. Sta manipolando simboli.

[Conclusione - tono molto serio]

Ecco il punto centrale. La responsabilità.

Un architetto firma. Un medico firma. Un avvocato firma. Se sbagliano, pagano.

L'AI 'firma' tutto. Ma quella firma non vale niente. Zero responsabilità.

È un problema oggi. È reale. Sta succedendo adesso.

La gente sta usando l'AI come se fosse una persona. E l'AI sta rispondendo come se capisse. Ma non capisce. E se sbaglia, chi paga?

Nessuno. E questo è un problema enorme che - come società - non abbiamo ancora capito come gestire."
Timing: Questa slide è densa. Prendi il tempo necessario. Se vedi che il pubblico è colpito (silenzio, facce serie), significa che il messaggio è arrivato.

Transizione: "Ok. [Pausa.] Ora che vi ho depresso tutti... [sorriso leggero] ...vediamo cosa l'AI può fare di utile oggi." → Slide 20 Chatbot (demo).
⚠️ FONTI (se qualcuno chiede):
- AI terapista: diffuso, cercando "ChatGPT therapy" su Google trovi migliaia di articoli
- AI fidanzata: Reddit r/replika, app Replika e Character.AI
- Film citati:
  • "Her" (2013): Spike Jonze, Oscar miglior sceneggiatura - uomo si innamora di OS AI
  • "Ex Machina" (2014): Alex Garland - Turing test con robot umanoide Ava
  • "Transcendence" (2014): Wally Pfister - scienziato carica coscienza in supercomputer
  • "iRobot" (2004): Alex Proyas - robot con "coscienza emergente" (VIKI)
- Caso suicidio: cerca "ChatGPT suicide case" o "Belgium chatbot suicide" - caso Pierre (2023), chatbot Eliza su app Chai
Slide 23

Studenti e AI ~3-4 min

Script:
"E qui c'è un altro problema. Forse ancora più vicino a voi, se avete nipoti all'università o a scuola.

Tutti gli studenti usano ChatGPT. Tutti. Nessuno escluso.

Non è un'esagerazione. È un dato di fatto. Se vostro nipote vi dice 'io non lo uso', o mente, o è l'unico scemo della classe.

E il problema non è che lo usano. Il problema è che funziona troppo bene.

Materie umanistiche: Devi scrivere un saggio su Leopardi? 'ChatGPT, scrivi un saggio di 2000 parole su L'infinito di Leopardi, tono formale, livello universitario.' Boom. Te lo scrive. E se lo usi bene - magari chiedi più versioni, le mescoli, aggiungi qualcosa di tuo - è indistinguibile da un saggio originale. Zero modo di scoprirlo.

Materie scientifiche: Devi studiare la termodinamica? ChatGPT te la spiega. Non capisci un passaggio? Glielo chiedi. Vuoi esercizi? Te li genera. Vuoi la soluzione passo-passo? Te la fa. È un tutor personale infinito, gratuito, disponibile 24/7. E con il tool calling - la capacità di fare calcoli - è anche preciso.

Sembra fantastico, no? Un tutor per tutti, democratizzazione dell'istruzione!

Ma c'è un problema.

Il cervello funziona come un muscolo. Se non lo usi, si atrofizza. Se deleghi il pensiero all'AI - se ogni volta che devi scrivere, pensare, risolvere un problema chiedi a ChatGPT - cosa sta succedendo ai tuoi neuroni?

Si stanno disallenando.

Sembra una battuta, ma non lo è. Se una generazione intera cresce delegando il ragionamento a un'AI, cosa succede? Perdono la capacità di pensare in modo critico? Di scrivere? Di risolvere problemi da soli?

E non vale solo per gli studenti. Vale per NOI. Per voi. Per me.

Se ogni volta che dobbiamo scrivere una mail, chiedere un consiglio, fare un calcolo, usiamo l'AI... stiamo disallenando il nostro cervello. A 70 anni, a 40 anni, a qualsiasi età.

E c'è un'altra faccia della medaglia.

Se l'AI può scrivere saggi, fare ricerche, spiegare concetti, analizzare dati... cosa succede a tutti quei lavori che facevano questo?

Copywriter. Traduttori. Ricercatori junior. Analisti. Insegnanti di ripetizioni.

Alcuni lavori di concetto andranno a morire. Non tutti. Ma quelli che si basano solo su elaborazione di informazioni standard? Sono a rischio.

E questa non è teoria. Sta già succedendo. Ci sono aziende che hanno smesso di assumere copywriter perché usano ChatGPT. Ci sono studenti che pagavano 30 euro l'ora per ripetizioni di matematica e ora usano GPT gratis.

Non è ambivalenza. Non è 'da un lato sì, dall'altro no'. È un pericolo reale. Un pericolo di disallenamento cognitivo. Un pericolo per interi settori lavorativi.

E noi, come società, non abbiamo ancora capito come affrontarlo."
Pausa: Lascia che questo affondi. È un momento pesante. Guarda il pubblico. Qualcuno avrà nipoti all'università. Qualcuno sarà preoccupato. È normale.
Transizione soft: "Ok, ci sono problemi. Grandi problemi. Ma c'è anche una domanda ancora più profonda..." → Slide 24 (Alignment Problem).

Slide 24

Alignment Problem ~3 min

Immagine: 06-alignment.png

Script:
"Ok, abbiamo appena visto che l'AI è già qui. Fa cose incredibili. Ma anche cose pericolose. Zero responsabilità.

E qui viene fuori il problema centrale. Quello che Asimov aveva già capito nel 1942 con le Tre Leggi.

Si chiama Alignment Problem. Il problema dell'allineamento.

Facciamo un passo indietro. Pensate alla bomba atomica. Pericolosa? Cazzo sì. Ma fa quello per cui è stata progettata. Esplode. Punto.

L'automobile. Si è evoluta tantissimo in 100 anni. Dagli sgangherati catorcio del 1920 alle Tesla di oggi. Ma fa sempre quello per cui è stata progettata: trasportare persone da A a B. Funziona secondo regole fisiche precise.

L'intelligenza artificiale? Non sappiamo cosa può uscire. Non sappiamo in che direzione sta andando.

Facciamo un esempio estremo. Voi dite a un'AI superintelligente: 'Cura tutte le malattie del mondo.'

L'AI ci pensa un secondo e conclude: il modo più efficiente per eliminare tutte le malattie è eliminare tutti gli esseri viventi che possono ammalarsi. Zero umani = zero malattie. Problema risolto.

Tecnicamente ha fatto quello che gli avete chiesto. Ma non quello che INTENDEVATE.

Ecco il problema: come facciamo a essere sicuri che l'AI capisca i nostri VALORI, non solo le nostre PAROLE?

Dalla bomba all'auto, erano macchine deterministiche. L'AI no. L'AI interpreta, deduce, improvvisa.

Per questo l'alignment è fondamentale. Non è un problema teorico. È il problema centrale che dobbiamo risolvere prima che l'AI diventi troppo potente per essere fermata."
Collegamento Golem: "Vi ricordate il Golem di Praga? Stesso identico problema. Creato per proteggere, ma non allineato con i valori del creatore. Diventa pericoloso. Asimov lo sapeva. Noi, 600 anni dopo il Golem e 80 anni dopo Asimov, stiamo ancora cercando di risolverlo."
Transizione: "Ok, momento pesante chiuso. [Pausa.] Ora vi faccio vedere cosa l'AI può fare di utile oggi, senza ammazzarci tutti." → Slide 19 (Chatbot).

Slide 25

Q&A - Domande? Restante

Grazie

Chiusura:
"Siamo arrivati alla fine. Abbiamo visto:
- Come l'umanità ha sempre sognato di creare intelligenza
- I rischi che abbiamo sempre temuto (e che sono ancora attuali)
- Come funziona l'IA moderna (completamento + tool calling)
- Cosa possiamo fare oggi con questi strumenti

Ora: domande? Qualsiasi cosa, sparate pure."
Domande comuni:
- "L'AI ci ruberà il lavoro?" → Risposta: cambia i lavori, non li elimina. Come l'automobile non ha eliminato il trasporto, l'ha trasformato.
- "È pericolosa?" → Risposta: dipende da come la usiamo. Come un coltello: utile in cucina, pericoloso in mano a un pazzo.
- "Come posso usarla?" → Risposta: inizia con ChatGPT gratis. Prova a chiedergli cose della tua vita quotidiana. Sperimenta.

📝 Note Aggiuntive - FAQ Potenziali

💡 Domanda: "Ma l'AI non consuma tantissima energia / CO2?"

✅ Principio chiave:

Se ti risolve un problema più velocemente dell'alternativa, probabilmente consumi MENO nel totale.

📊 Risposta completa:

"Sì, è vero. Un singolo query a ChatGPT consuma più energia di una ricerca Google.

Ma - e questo è il punto chiave - va confrontato con l'alternativa.

Facciamo un esempio concreto:

Scenario 1 - Senza AI:
Devi scrivere un documento. Ci metti 2 ore. Computer acceso, ufficio riscaldato/climatizzato, magari chiami un collega che viene in auto.
Consumo: illuminazione + PC + riscaldamento + benzina auto = parecchia energia.

Scenario 2 - Con AI:
ChatGPT ti aiuta a strutturarlo. Ci metti 30 minuti invece di 2 ore.
Consumo: il query GPT + 30 min PC invece di 2 ore = meno energia totale.

Il punto è:
Se l'AI ti fa risparmiare tempo umano, quasi sempre consumi meno energia nel totale.

Un'ora di lavoro umano - con ufficio, trasporti, infrastruttura - consuma molto più di mille query a ChatGPT.

Quindi: usa l'AI quando ti risolve un problema meglio/più velocemente dell'alternativa. Non sprecarla per cazzate ('scrivi una poesia sui gattini'), ma se sostituisce ore di lavoro umano, il bilancio energetico è positivo."

🔢 Se insistono con numeri:

"Ok, dati stimati:

  • 1 query GPT-4: ~0.01 kWh
  • 1 ora PC + ufficio: ~0.5-1 kWh
  • 1 ora consulente che viene in auto (10 km): ~2-3 kWh equivalenti

Fai il conto: se GPT ti fa risparmiare 1 ora di lavoro, hai un margine enorme."

🏢 Se tirano fuori datacenter mega:

"Sì, i datacenter consumano. Ma:

  1. Sono sempre più efficienti (Google/Microsoft investono miliardi in rinnovabili)
  2. Va confrontato con cosa sostituiscono (uffici, viaggi, produzione fisica)
  3. Un libro fisico - carta, stampa, trasporto - ha un'impronta maggiore di un e-book generato da AI

Non è 'AI = male per ambiente'. È 'usa lo strumento giusto per il problema giusto'."

🎯 Bottom line:
Ammetti il consumo, ma sposta il focus sul confronto con alternative. L'AI non è gratis energeticamente, ma spesso è più efficiente dell'alternativa umana/fisica.

📌 Checklist Pre-Conferenza