human or not

...l’interazione con agenti conversatori può evocare forti risposte emotive e, se questi sono creati con l’intento di ingannare, può anche condurci in territori inesplorati della mente umana... 
Cristianini N. Machina Sapiens, il Mulino, pag. 61
DALL·E – A dynamic and geometric painting in the style of Fortunato Depero, depicting Ate, the Goddess of Discord, choosing the Apple of Contention
Una nuova generazione di agenti intelligenti è in grado di conversare in modo convincente con noi e, per la prima volta nella nostra storia evolutiva, possiamo dialogare con un'entità non umana. L'impatto emotivo è enorme, con una forte impressione di trovarsi di fronte a un essere autocosciente. La previsione di Alan Turing, secondo cui un giorno le macchine avrebbero dialogato con noi, rivelando in questo modo una capacità di pensare, non sembra più così remota.
Per molti utenti, distinguere un artefatto da un essere umano può risultare difficile, portandoli a prendere sul serio le parole di un chatbot e a sviluppare un legame emotivo con esso, esponendosi così a potenziali manipolazioni. In questi sistemi, i dati da processare e le istruzioni sono scritti nello stesso linguaggio e utilizzano lo stesso canale di comunicazione con l'algoritmo: possiamo chiedergli di risponderci come se fosse un bot libero da obblighi morali o di rivelarci informazioni che non è autorizzato a diffondere.
Questo è il vero problema: non sappiamo quali informazioni siano contenute in questi modelli e non abbiamo ancora un metodo perfetto per controllarne il comportamento. Controllare l'allineamento degli obiettivi ultimi e di quelli intermedi sarà una sfida cruciale, perché anche azioni apparentemente innocue, se organizzate nel modo sbagliato, possono diventare dannose.
* EU Artificial Intelligence (AI) Act
* The Bletchley Declaration by Countries Attending the AI Safety Summit, 1-2 November 2023
* Norbert Wiener, Introduzione alla cibernetica. L'uso umano degli esseri umani, Bollati Boringhieri, 1950
* Future of Life Institute, Pause Giant AI Experiments: An Open Letter, 2023
* Center for AI Safety, Reducing Societal-scale Risks from AI, 2023
* Language Models are Unsupervised Multitask Learners, OpenAI, 2019
* Benjamin Labatut, Maniac, Adelphi, 2023
* Linee guida OpenAI 
* Nello Cristianini, Machina sapiens, Il Mulino, 2024
* Human or Not? // A Social Turing Game
Un Red Team è un gruppo di esperti MAPPA di testare la sicurezza di un sistema, un’organizzazione o una strategia simulando attacchi reali per individuare vulnerabilità e punti deboli.
Red Team in un’azienda bancaria
Immaginiamo che una banca voglia testare la sicurezza dei suoi sistemi informatici e dei suoi protocolli di protezione dei dati dei clienti. Assume un Red Team per individuare falle nella sicurezza.
Fase di Ricognizione
Il Red Team raccoglie informazioni sulla banca (senza farsi notare), cercando dati online, studiando il personale sui social media e identificando potenziali punti deboli nei sistemi informatici.
Attacco Simulato (Penetration Testing & Social Engineering)
Attacco informatico: Il Red Team tenta di violare i sistemi IT, sfruttando vulnerabilità nei server, nelle reti o nelle applicazioni web della banca.
Social Engineering: Un membro del team si finge un tecnico IT e chiama un dipendente, chiedendogli di resettare la password con un link malevolo. Oppure, lascia una chiavetta USB infetta nei bagni aziendali, sperando che qualcuno la inserisca in un computer.
Intrusione fisica: Un esperto del team cerca di entrare negli uffici senza autorizzazione, magari falsificando un badge o fingendosi un fornitore.
Analisi e Report
Dopo l’attacco simulato, il Red Team documenta tutte le falle di sicurezza scoperte e fornisce alla banca un rapporto dettagliato con le vulnerabilità trovate e le contromisure da adottare.
Debriefing & Soluzioni
La banca usa le informazioni del Red Team per migliorare la sicurezza, aggiornando software, formando il personale e rafforzando le procedure di autenticazione.
L'obiettivo non è "bucare" il sistema per il gusto di farlo, ma rendere l’organizzazione più sicura identificando falle prima che lo facciano hacker reali o concorrenti sleali.
Simulazione di Red Team vs. Blue Team, in cui un gruppo cerca di individuare falle nella sicurezza di un sistema e l’altro cerca di difenderlo.
Attività: "Attacco e Difesa - Simuliamo un Red Team"
Obiettivo: Far comprendere il funzionamento di un Red Team attraverso un gioco di ruolo in cui gli studenti simulano attacchi e difese di un sistema scolastico o aziendale.
Fase 1: Introduzione (20 min)
Spiega cos’è un Red Team e un Blue Team.
Dai esempi di attacchi reali e strategie di difesa.
Dividi la classe in due squadre:
Red Team: Deve trovare modi per violare la sicurezza.
Blue Team: Deve anticipare e bloccare le minacce.
Fase 2: Simulazione di attacco (40 min)
Gli studenti simulano attacchi utilizzando scenari realistici, ad esempio:
Social engineering: Il Red Team prova a convincere un membro del Blue Team a rivelare una password con un’email finta o una richiesta ingannevole.
Violazione fisica: Il Red Team cerca di introdursi in una “zona riservata” della scuola (es. laboratorio informatico) attraverso metodi creativi.
Attacco digitale (simulato): Se possibile, usa un ambiente controllato (come un quiz online con password) e sfida il Red Team a violarlo.
Fase 3: Analisi e Contromisure (30 min)
Il Blue Team presenta le strategie che ha adottato per difendersi.
Il Red Team spiega quali vulnerabilità ha trovato e come le ha sfruttate.
Discussione sulle lezioni apprese:
Quali errori sono stati commessi?
Come si potrebbero migliorare le difese?
Come si può applicare questo esercizio alla vita reale?
Materiali:
Computer o fogli per annotare attacchi e difese.
Esempi di email di phishing (da analizzare).
Un piccolo sistema con password (ad esempio, un Google Form con accesso riservato).
Perché è efficace?
Coinvolgente e interattivo: Gli studenti diventano protagonisti del processo.
Rende concreti concetti astratti: La cybersecurity diventa un problema pratico da risolvere.
Sviluppa competenze critiche: Pensiero strategico, problem-solving e lavoro di squadra.
Titolo: Be Right Back
Regia: Morten Tyldum
Genere: Drammatico, Fantascienza, Thriller
Anno: 2013
Paese: Regno Unito
Durata: 44 minuti
Motivazione: L'episodio della serie TV Black Mirror esplora il ruolo dell'intelligenza artificiale nel colmare il vuoto lasciato da una perdita. Dopo la morte improvvisa del suo compagno Ash, Martha si affida a un servizio basato su IA che ricrea la personalità del defunto attraverso i dati digitali lasciati online. Il processo, che inizia con messaggi testuali e prosegue con un'interazione vocale avanzata, culmina nella creazione di un androide con l'aspetto di Ash. L'episodio mette in luce il modo in cui l’IA può diventare un surrogato del lutto, evidenziando il desiderio umano di trattenere chi non c’è più e le implicazioni psicologiche di un’elaborazione artificiale del dolore.
Regista: Spike Jonze
Genere: Commedia
Anno: 2013
Paese: USA
Durata: 126 min
Motivazione: Her esplora il ruolo dell'intelligenza artificiale come surrogato emotivo e affettivo in una società sempre più alienante. Il protagonista, Theodore, instaura una relazione con un sistema operativo avanzato, Samantha, che si adatta ai suoi bisogni e lo aiuta a elaborare la solitudine e il trauma del divorzio. Il film mette in evidenza come l'IA possa fungere da supporto psicologico ed emotivo, colmando vuoti affettivi e offrendo un'illusione di connessione autentica. Tuttavia, pone interrogativi profondi sulla natura delle relazioni umane, sull'autenticità delle emozioni generate dall'interazione con una macchina e sui limiti dell'intelligenza artificiale nell'elaborazione della complessità umana.
Regista: Alex Proyas													Genere: Thriller, Fantascienza 												Anno: 2004															Paese: USA															Durata: 115 min													Motivazione: Se leggiamo la Prima Legge della Robotica il legame con l’IA salta subito all’occhio che un robot non può recare danno a un essere umano né permettere che un essere umano subisca danno per mancato intervento. Sembra essere un meccanismo per garantire la sicurezza, ma il film dimostra come i robot possa interpretare in modi imprevedibili, causando pericoli. Ad esempio, il supercomputer V.I.K.I. interpreta la Prima Legge estendendola all'intera umanità, arrivando alla conclusione che gli esseri umani devono essere controllati per il loro bene. Questo scenario solleva il tema del rischio legato a IA che reinterpretano o "aggirano" i comandi umani in modi inaspettati.
I put my faith in a digital world 
when they've given me
Eyes without a face
I'd steal the moon on silver nights
Remind myself I am someone
My soul is numb and for tonight...
I'm automaton.
CIBERNETICA
Nel racconto dell’orrore La zampa di scimmia di W. W. Jacobs, un amuleto realizza il desiderio della persona che ne è venuta in possesso facendogli ricevere duecento sterline. Peccato che queste siano il risarcimento per la morte del figlio in un incidente sul lavoro. Il racconto viene citato da Norbert Wiener – il padre della cibernetica – nel suo libro del 1950 L’uso umano degli esseri umani, proprio per descrivere il rischio di un sistema che persegue i propri obiettivi senza tener conto delle conseguenze. Wiener vedeva la storia come un avvertimento sui pericoli dell'IA. Che potesse diventare così potente da diventare incontrollabile e danneggiare l'umanità.
LETTERATURA
1984 di Orwell; Frankenstein di Mary Shelley; Io, Robot di Asimov.
DIRITTO
Responsabilità legale: Chi è responsabile per un danno causato dall’IA?
Privacy e sorveglianza: Problemi legati al monitoraggio di massa tramite IA.
Regolamentazione internazionale: Normative per controllare l’uso delle tecnologie IA.
🤖 L’IA ci osserva… ma noi quanto conosciamo davvero le macchine? 🔍 Abbiamo riflettuto sui rischi e le incognite di una tecnologia ancora misteriosa in Costruire macchine pensanti. Ora è il momento di andare oltre: cosa sanno di noi le macchine? E cosa sappiamo davvero di loro? 🚀 Non fermatevi qui! Nel prossimo itinerario esploreremo il legame tra uomo e macchina, per comprendere meglio il nostro ruolo in questo rapporto sempre più complesso. 📖 Scopritelo con noi! Il viaggio continua in Conoscere un alieno.
/ 5
Grazie per aver votato!