Author: Francesca Fragassi
Committee: High School Committee, Game Committee
Date: 07/01/2026

Negli ultimi anni, il dibattito sull’impatto dell’intelligenza artificiale nell’ambito giuridico si è intensificato, spostandosi dalle riflessioni teoriche ai suoi impieghi pratici e alle loro implicazioni. Tra questi, nel quadro della riflessione sulla certezza e calcolabilità del diritto, sicuramente troviamo temi quali quello della c.d. Giurimetria, della c.d. Giustizia aumentata e della c.d. Giustizia predittiva che mirano, con diversi approcci, a comprendere come e in che misura sia possibile analizzare grandi moli di dati e proporre soluzioni “probabili”, stimolando così interrogativi profondi sul ruolo degli algoritmi nei processi decisionali, sulla tutela dei diritti e sul ruolo del giudizio umano in un sistema sempre più chiamato ad interfacciarsi con questo mondo.

Il progetto STEPPO ROLE-PLAY 2026 mira ad essere un punto di incontro di questa confluenza di interessi, rappresentando un’esperienza formativa che fonde sperimentazione, tecnologia e riflessione critica, il che rappresenta per gli studenti che vi aderiranno, specialmente quelli appartenenti alle scuole secondarie di primo grado,  una novità e una grande opportunità, se pensiamo che stando ai dati che sono stati raccolti dal Patto Educativo Digitale della città di Milano[1] [2], iniziativa promossa nell’ambito del progetto MUSA (Multilayered Urban Sustainability Action) e che ha visto la partecipazione di numerosi enti, tra cui l’Università di Milano-Bicocca, nel 2024 era questo ciò che esprimevano docenti e dirigenti scolastici in merito all’utilizzo di tale tecnologia:

 

Grafico tratto dal questionario somministrato a docenti e dirigenti che indica la distribuzione percentuale delle risposte alla domanda “Le chiediamo inoltre una sua opinione sull’ultima tecnologia rilevante arrivata nel panorama digitale: l’intelligenza artificiale generativa. Ci sono pareri diversi sull’utilizzo di questa tecnologia nella scuola. Quale tra le seguenti affermazioni si avvicina di più alla sua posizione su questo fenomeno?” per livello scolastico.

In quest’ottica, quindi, il progetto intende introdurre nell’esperienza di simulazione un elemento nuovo e far sì che il tratto più innovativo dell’esercitazione sia la presenza sistematica dell’AI generativa, non già a titolo dimostrativo, ma nel quadro di un esame critico delle prospettive e dei limiti di questi mezzi.

L’AI COME STRUMENTO E COME OGGETTO DI STUDIO: STEPPO ROLEPLAY QUALE LABORATORIO DI CONSAPEVOLEZZA DIGITALE

L’architettura della simulazione rimarrà invariata, prevedendo il coinvolgimento attivo di studenti delle scuole superiori e dell’università che vestiranno i panni dei protagonisti di un procedimento di competenza della Procura Europea (indagati, PED, testimoni, consulenti tecnici) sotto la supervisione tecnica di professionisti che li supporteranno nell’analisi del caso e lungo tutta la simulazione. Tuttavia, questa sarà arricchita da una serie di attività svolte con il supporto dell’AI, tra cui anticipiamo la generazione di atti (bozze di richieste, memorie, verbali, ecc.); l’analisi guidata del caso, con richieste all’AI di individuare questioni giuridiche rilevanti, norme applicabili e strategie argomentative; il lavoro sui prompt, per capire come la formulazione dell’input influenzi la qualità dell’output.

Questa sperimentazione verrà affiancata da un vaglio critico costante da parte di professionisti del diritto, che, in sinergia con gli studenti, verranno chiamati ad analizzare e contestualizzare gli atti prodotti dall’AI. Questo approccio permette agli studenti di confrontarsi con errori, bias, omissioni, fraintendimenti normativi e altre “fragilità” dell’AI generativa, comprendendo nella pratica perché il controllo umano sia imprescindibile. Una necessità, questa, ribadita anche dall’AI Act per i contesti ad alto rischio come quello giuridico [1].

Al di là delle sue debolezze, questa tecnologia permeerà sempre più il nostro lavoro e la nostra vita. Per questo è essenziale conoscerne i confini, senza però trascurare i grandi vantaggi e le potenzialità che può offrire, se ben padroneggiata. Risulta quindi fondamentale anche fare un esercizio di fiducia, attraverso laboratori sperimentali, verso queste tecnologie per comprenderne meglio il funzionamento per evitare di ignorare che questo è il futuro che siamo chiamati a vivere.

Strutturata in tal modo, la simulazione persegue il fine di promuovere un utilizzo consapevole dell’AI nel diritto. In ottica più generale, l’intento è trascendere la visione strumentale della tecnologia per abbracciare una prospettiva più ampia, ossia quella di comprendere l’AI come realtà sistemica che comporta implicazioni etiche e sociali imprescindibili per la società contemporanea.

L’INCONTRO CON IL PROF. FEDERICO CABITZA

In vista dell’avvio del progetto, abbiamo intervistato il professor Federico Cabitza, docente del dipartimento di informatica, sistemistica e comunicazione e studioso di interazione uomo-macchina e supporto decisionale basato su sistemi di intelligenza artificiale, incontrato in occasione del suo intervento nell’ambito dell’evento “Trasformazione digitale, intelligenza artificiale e benessere”, organizzato dal nuovo centro interdipartimentale del nostro Ateneo – Digital Transformation and Wellbeing Lab (DiTWeL)[2] – lo scorso 5 dicembre[3] .

Durante questo incontro, il professor Cabitza ha presentato un insieme di raccomandazioni per un uso consapevole dell’IA generativa da parte degli studenti universitari[4], frutto di un lavoro congiunto di più esperti del DiTWeL e del Nodo Locale del Laboratorio Nazionale CINI Informatica e Società[5], in collaborazione con il Dipartimento di Informatica, Sistemistica e Comunicazione.

 

 

INTERVISTA AL PROFESSOR FEDERICO CABITZA

(Domande riguardanti l’utilizzo consapevole dell’AI nella didattica)

1. Professore, nel suo intervento al DiTWeL ha parlato di “uso consapevole” dell’AI generativa da parte degli studenti. Cosa significa per lei, concretamente, utilizzare questi strumenti in modo consapevole e responsabile?

Risposta del Prof. Cabitza: Per me “uso consapevole” significa, prima di tutto, ricordarsi che l’AI è un aiuto, non un sostituto.

Concretamente, vuol dire almeno tre cose.

La prima: sapere cosa fanno e cosa non fanno questi strumenti. Non “capiscono” come noi, non garantiscono verità, possono inventare dati o citazioni. Quindi ogni risposta va verificata, soprattutto quando la usiamo per studiare o prepararci a un esame. La seconda: mantenere la paternità del proprio lavoro. Usare l’AI per chiarire concetti, fare esempi, migliorare una bozza va bene; copiare una soluzione o un testo senza capirlo è rinunciare a imparare, prima ancora che “barare”. La terza: proteggere sé stessi e gli altri. Non caricare dati sensibili, non usare questi strumenti per insultare, disinformare, produrre contenuti tossici. Quindi concretamente, usare l’AI in modo consapevole significa almeno porsi tre domande (e cercare di rispondere quanto più onestamente possibile): “mi sta davvero aiutando a capire?”, “sto restando autore di ciò che firmo?”, “che conseguenze può avere su di me e sugli altri quello che sto facendo?”

2. Uno degli obiettivi del nostro Role-Play è permettere agli studenti di toccare “con mano” sia le potenzialità sia i limiti dell’AI nel produrre atti giuridici per mezzo di questa tecnologia. Quali sono, secondo lei, i principali errori o rischi in cui gli studenti potrebbero incorrere nell’affidarsi a un sistema generativo (riferimento a quell’affidamento che in letteratura è conosciuto come “distorsione da automazione”), ma anche nel non affidarsi a quest’ultimo (riferimento al fenomeno dell’ “avversione all’algoritmo”)? Che impatto potrebbero avere? Quali potrebbero quindi essere i vantaggi e i punti di forza di questa “collaborazione” con la macchina ?

Risposta del Prof. Cabitza: Premetto che non sono un esperto di Role-Play. In generale, posso però elaborare sugli spunti che mi ha dato, offrendo la mia esperienza in ambito decisionale. Il rischio principale è quello dell’affidamento inappropriato (inappropriate reliance) e conseguente uso improprio (misuse) del sistema. Questo però ha due facce: il primo è l’affidamento eccessivo (abuse): credere cioè che il sistema “sappia il diritto”. È bene sapere che un sistema generativo può produrre testi e atti formalmente eleganti ma giuridicamente sbagliati, citare norme superate o che non esistono, confondere giurisdizioni, “inventare” precedenti. Se ci fidiamo troppo, rischiamo atti scorretti, ingiusti o persino dannosi per le parti. Il secondo è il rovescio della medaglia, l’avversione all’algoritmo e il conseguente “disuse”: rifiutare a priori ogni suggerimento perché “non è umano”. In questo modo si perde l’occasione per controllare incongruenze, esplorare argomenti alternativi, chiarire passaggi oscuri. È come avere sempre disponibile un “praticante” volenteroso e preparato e decidere di non interrogarlo mai per partito preso, più che per il rischio che questi possa darci informazioni scorrette. L’impatto negativo di questi usi impropri, sebbene opposti, è doppio: sulla qualità degli atti (più o meno accurati, chiari, coerenti) e sull’apprendimento degli studenti (più o meno consapevoli dei loro punti ciechi). Un aspetto che spesso si sottovaluta è che dalle macchine “intelligenti” si può imparare, purché le si usi come cognitive scaffodling, cioè impalcatura cognitiva per aggiungere qualcosa a quello che già si sa, piuttosto che come cognitive offloading, cioè scarico cognitivo a cui delegare compiti e funzioni. Dobbiamo invece cercare di trovare un punto di forza nella interazione, e direi financo collaborazione, tra persona e macchine: usare l’AI come “seconda mente” che propone, riformula, fa emergere opzioni, ma lascia a ciascuno di noi, e soprattutto chi è in formazione come gli studenti, il compito di valutare criticamente, scegliere (l’importanza del giudizio / judgemenet), e assumersi la responsabilità di tutto ciò che porta il nostro nome.

3. Crede che esercizi di simulazione strutturati come il nostro possano aiutare gli studenti a sviluppare un atteggiamento critico e un dialogo consapevole tra uomo e macchina verso gli strumenti digitali e, quindi, contribuire a formare una nuova cultura della tecnologia, più riflessiva e democratica ? In che modo?

Risposta del Prof. Cabitza: Non conosco i dettagli del vostro metodo, ma ritengo fortemente che, se ben progettati, gli esercizi di simulazione possano essere molto efficaci, anzi è il metodo migliore per sviluppare un rapporto costruttivo e funzionale con i sistemi di intelligenza artificiale (ne ho una esperienza diretta in ambito medico, dove la simulazione è parimenti cruciale). Lo penso perché si raggiungono almeno due obiettivi: prima di tutto, perché tali esercizi spostano gli studenti da un uso “magico” della tecnologia a un uso riflessivo: non si limitano a chiedere qualcosa alla macchina, come farebbero ad un oracolo, ma sono portati a verificare, correggere, integrare, motivare le proprie scelte. In altre parole, sono spinti a verificare in pratica che il sistema sia utile, ad affrontare l’eventualità che possa fallire, e che valutare in che modo la qualità dell’esito dipenda dall’interazione, più che dalle capacità “astratte” dell’algoritmo. In secondo luogo, le simulazioni promuovono una pratica in cui i criteri sono resi espliciti: quando un gruppo discute se accettare o meno una proposta di un sistema IA, sta già facendo educazione alla tecnologia democratica. Si negoziano argomenti, si valutano impatti sulle parti, si ragiona su cosa consideriamo “buono”, “giusto”, “accettabile”. Per questo ho sempre sostenuto che l’uso migliore di combinare esseri umani e sistemi IA sia quello dell’aggregazione: aggiungere il sistema ad un gruppo di persone, membri di una comunità di pratica, che lo inseriscono nelle loro pratiche di negoziazione dei significati e creazione e circolazione di conoscenza: dovremmo passare dallo human-in-the-loop alla IA-in-the-group, come anche sostenuto da grandi esperti quali Thomas Malone e Ben Shneiderman, autori di due libri che mi auguro siano tradotti preso in Italiano: Superminds e Human-centered AI, rispettivamente. E’ fondamentale quindi allenare le persone al dialogo umano–macchina (su questo si veda anche il recente libro di Elena Esposito, Comunicazione Artificiale): imparare a fare domande migliori, a interpretare le risposte alla luce dei limiti del sistema, a usarlo come supporto e non come oracolo. Questo, a mio avviso, è il nucleo di una nuova cultura della tecnologia: critica, responsabile e, appunto, più democratica, a cui nel mio TEDx ho dato il nome di cultura della Intelligenza Ibrida (https://www.youtube.com/watch?v=zK7KkeM-RoA )

(Domande riguardanti il ruolo dei docenti)

4. Abbiamo strutturato il gioco affinché gli studenti debbano formulare una strategia legale prima di consultare l’AI, seguendo quello che lei definisce un protocollo ‘Human-First’. Ci può spiegare perché questo approccio è fondamentale per prevenire il ‘deskilling’ e l’atrofia delle competenze nei professionisti? /

Risposta del Prof. Cabitza: Anche in questo caso, posso attingere alla mia esperienza nell’ambito della medicina. Chiedere agli studenti di formulare prima una strategia legale, esattamente come chiediamo agli specializzando di medicina di formulare una diagnosi o in, e solo dopo consultare l’AI, è essenziale per un motivo semplice: lavori intellettuali come  il diritto (o la medicina) li impari solo esercitandoli, non leggendo le soluzioni fornite da qualcun altro, che sia un collega o una macchina. Noi chiamiamo questo semplice protocollo “human-first”, prima l’umano, cioè chi è chiamato a valutare un caso, classificarlo, o prendere decisioni a riguardo deve fare la prima mossa, e possibilmente tenerne traccia su qualche supporto tecnologico. Se invece il primo passo è “vediamo cosa dice l’AI”, il cervello prende una scorciatoia pericolosa e impara a delegare: non alleni più la ricerca delle norme, la costruzione dell’argomentazione, il bilanciamento tra alternative. Nel tempo questo porta al deskilling, da intendersi proprio come erosione (o mancato sviluppo) delle competenze: sai “usare lo strumento”, quello che solitamente si nobilita con il termine reskilling, ma perdi profondità professionale e, soprattutto, diventi dipendente dal supporto, da quel supporto particolare, con quelle caratteristiche e capacità. Nel protocollo human-first la sequenza è rovesciata: prima attivo le mie competenze (analizzo il caso, formulo una tesi, preparo una linea d’azione o un atto); poi uso l’AI come controparte critica o, per cos dire, “avvocato del diavolo”: per vedere se mi sono perso qualcosa, esplorare varianti, migliorare il testo. In questo modo concreto, l’AI funziona come impalcatura anziché scarico. Per i futuri professionisti, ma anche per chi è già affermato e si ritiene esperto, questo è decisivo: mantiene vivo il giudizio, preserva l’autonomia e rende l’uso dell’AI un fattore di qualità, non di atrofia delle competenze.

5. Sempre con riguardo alle criticità, ma con riferimento ai processi educativi, quali sono, secondo lei, i principali rischi nell’adottare l’IA conversazionale in questi e come evitare la dipendenza cognitiva, la perdita di competenze o la riduzione della creatività?

Risposta del Prof. Cabitza: A rischio di ripetermi, Il rischio principale non è la tecnologia in sé, ma come la inseriamo nei processi educativi, cioè come definiamo e implementiamo quelli che chiamo “protocolli di collaborazione umano-macchina”. Ricapitoliamo brevemente: il primo rischio è la dipendenza cognitiva: se ogni esercizio inizia chiedendo ad un sistema generativo “fammi il compito”, il cervello smette di allenare comprensione, memoria, argomentazione. Il secondo rischio è il deskilling, nel significato definito sopra: si impara a “usare l’IA”, ma si scrive, si argomenta e si pensa sempre meno come espressione di sé e della propria competenza. Ora ne aggiungo un terzo che deriva dai primi due: l’omologazione: circolare testi tutti simili, puliti ma piatti, in cui si perde la voce personale e, con essa, una parte della creatività e della nostra capacità di contestualizzare ogni atto al caso che si deve considerare. Per ridurre questi rischi bisogna progettare l’uso didattico dell’IA, non subirlo. Alcuni esempi: chiedere agli studenti di presentare sia la bozza human-first, e poi quella definitiva, consolidata dopo aver consultato i sistemi IA, possibilmente più di uno, chiedendo loro di valutare criticamente il “percorso” e in cosa il supporto artificiale ha migliorato il risultato finale. Noi docenti dovremmo quindi valutare questo processo meta-cognitivo di valutazione del percorso, piuttosto che solo il prodotto finale.

5. Nel nostro format, gli esperti di diritto, insieme ai docenti supervisionano il lavoro dell’AI. Lei parla spesso di ‘Validation’, in cui l’esperto controlla e corregge l’output della macchina. Con l’AI generativa sempre più diffusa, come cambia il ruolo dell’esperto umano? Diventa soprattutto un validatore dei risultati dell’AI, oppure un mentore che aiuta a sviluppare senso critico verso ciò che la macchina produce?

Risposta del Prof. Cabitza: Sì, e mi ricollego alla mia risposta precedente. Il docente deve diventare entrambe le cose, sia valutatore che mentore, ma ritengo che quest’ultimo sia persino più importante di quello di semplice validatore. Ritengo che l’attività di validation sia fondamentale ma si debba anche andare oltre di questa: l’esperto è chiamato a controllare che l’AI non dica sciocchezze, correggere errori, integrare omissioni, fa parte di ciò che si ritenga sua responsabilità per garantire sicurezza e qualità, soprattutto in ambito giuridico. Ma se ci fermiamo qui, trasmettiamo agli studenti l’idea che il professionista del futuro debba solo “mettere il visto” su ciò che produce la macchina. E’ l’idea perniciosa che vedo nel focalizzarsi così tanto sul concetto di “oversight” come questo è declinato nell’AI Act, cioè sulla “sorveglianza” (anche se sarebbe stato meglio tradurlo supervisione – per approfondire segnalo un mio pezzo su Agenda Digitale[6] e per l’MIT Sloan Management Review[7]). Il valore aggiunto dell’esperto sta invece nel rendere esplicito il proprio giudizio e risponderne (quando la responsability diventa accountability): questo include anche il saper spiegare perché una certa risposta dell’AI la si è ritenuta troppo debole o semplicemente inadeguata, e perché la si è “sovrascritta” con il proprio giudizio. Più le macchine diventano “esperte” e più è vitale che gli esperti umani possano contestare il parere della macchina, avendone non solo l’autorità formale, ma anche e soprattutto le capacità sostanziali, e il coraggio per farlo.

6. Nello specifico, ha qualche raccomandazione da rivolgere ai docenti? Quali competenze nuove o rinnovate reputa possano essere richieste al docente e come può un insegnante mantenere la centralità della relazione educativa pur integrando strumenti di IA?

Risposta del Prof. Cabitza: Non sono un esperto di formazione, ma un practitioner con quasi vent’anni di esperienza: da questa esperienza, mi sento di condividere tre brevi spunti: Primo: cercare di sviluppare una duplice competenza. Da un lato una literacy sull’IA: conoscerne limiti, rischi, dinamiche di dipendenza e omologazione; saper leggere e criticare gli output, non solo generarli. Dall’altro, una rinnovata capacità di “pensare ad alta voce”: mostrare come si valuta un responso della macchina, perché lo si accetta, lo si corregge o lo si rifiuta. Secondo: proteggere la centralità della relazione educativa. Usare, e far usare l’IA, per liberare tempo da compiti ripetitivi e vuoti, i cosiddetti bullshit job (cf. David Graeber) a cui ci ha costretti la crescente e del tutto ingiustificata burocratizzazione della professione del docente,  e investirlo in feedback personalizzati, discussioni aperte, tutorato. La macchina può proporre testi e idee; ma solo l’insegnante può dare riconoscimento, contesto e valori, cioè farne davvero un’esperienza di apprendimento e di intelligenza ibrida. Il terzo è collegato a questo: essere docenti nel secolo delle macchine intelligenti (appena cominciato) non è più saper fornire agli studenti conoscenze e nozioni, che questi possono trovare altrove, bensì saper motivare, accendere la passione per la propria materia e, se possibile, infondere entusiasmo per il sapere e il capire, per trovare e rinnovare la voglia di riflettere e cercare, il coraggio per criticare e cercare nuove strade. Non c’è compito più nobile, in ogni formatore, e in ogni contesto professionale, di quello di seminare il seme della passione e della soddisfazione per il lavoro ben fatto. Sono cose che ciascuno di noi ha dentro, ed è la missione di ogni educatore il tirarle fuori (come suggerisce l’origine della parola) e farle sviluppare. IL sistema Italia questo lo ha veramente compreso?

(Domande riguardanti costruzione dei prompt e interazione uomo-macchina)

7. Inoltre, nel progetto abbiamo scelto di dare spazio al lavoro sui prompt. Dal suo punto di vista, qual è il valore e l’impatto dell’insegnare a costruire buoni prompt?

Risposta del Prof. Cabitza:

Onestamente, credo che l’arte del “prompting”(chiamarla ingegneria del prompting come si usa fare è solo una manovra di marketing grossolana) sia utile, ma molto sopravvalutata. Le macchine di oggi ci capiscono già molto bene in linguaggio naturale: non serve parlare la loro lingua, qualsiasi essa sia. Il valore educativo, per me, non sta tanto nella tecnica del prompt in sé, quanto nello sforzo di imparare a spiegare bene che cosa vogliamo e come lo vogliamo. Lavorare sui prompt diventa allora un esercizio di competenze trasversali: chiarire l’obiettivo, esplicitare i vincoli, specificare il tono, i destinatari, i criteri di qualità. In altre parole, è un buon allenamento a fare quello che un buon manager o un buon professionista dovrebbe sempre saper fare: dare istruzioni chiare, negoziare aspettative, valutare criticamente il risultato. Quindi sì, saper formulare un buon prompt ha valore, ma come palestra di formulazione dei problemi e di comunicazione professionale più che come nuova “tecnica magica” per farsi dare dall’IA quello che vogliamo. E poi: più importante della singola richiesta è il dialogo. Io dico sempre: se lo vuoi ottenere con un solo prompt, allora non vale neppure la pena formularlo. Il valore emerge dalla interazione che si dipana in almeno quattro/cinque scambi tra noi e la macchina (se non decine), necessari ad un mutuo allineamento e un processo di reciproca comprensione (o se preferiamo, di reale appropriazione da parte nostra).

8. Come valutare l’efficacia dell’interazione uomo-macchina nell’apprendimento e quali indicatori o metriche suggerisce per monitorare il “dialogo consapevole”?

Risposta del Prof. Cabitza:  MI sono già dilungato abbastanza e questa domanda, anche se dimostra un suo reale e profondo interesse, è davvero al di là di ciò che possa stare in una intervista. Infatti ci sono almeno tre piani da considerare e sono intrecciati in maniera complessa: il piano dell’apprendimento “duro”; su questo piano è importante verificare come cambiano, nel tempo, le prestazioni degli studenti in prove svolte senza il supporto della IA: se la qualità degli elaborati autonomi cresce, l’uso dell’AI è stato formativo; se cala, siamo in zona deskilling. Il secondo piano riguarda il processo: controllare se esiste davvero una fase human-first prima di consultare la macchina, e far riflettere lo studente su quanto spesso abbia modificato o contraddetto l’output invece di copiarlo; alcuni propongono anche di valutare che tipo di richieste lo studenti formuli concretamente (ad esempio se chiede solo di “scrivere al posto suo” o anche di spiegare, criticare, confrontare) ma questo richiederebbe una ingerenza che ritengo eccessiva nel processo dialettico (e privato) dello studente con i suoi strumenti. Il terzo e ultimo piano è quello dell’atteggiamento: suggerisco di usare brevi momenti di auto-riflessione e semplici questionari psicometrici per valutare se le attitudini, le preferenze, le aspettative e le motivazioni degli studenti cambiano, e come, durante il processo di apprendimento con la IA. Ma ripeto, questi sono solo spunti, la questione è molto più complicata di quanto possa stare in una sede come questa. La ringrazio di questa opportunità

18. Un’ultima domanda, professore, se potesse lasciare un solo consiglio agli studenti che si apprestano a partecipare al Role Play, quale sarebbe?

Risposta del Prof. Cabitza: Direi questo: entrate nel Role-Play con l’idea che il vero fine non è imparare ad usare la IA, ma capire meglio voi stessi, nel rapporto con tali sistemi. Non limitatevi a vedere “quanto è brava la macchina”, ma usatela piuttosto per mettere alla prova il vostro modo di ragionare: formulate prima la vostra strategia, scrivetela, prendete posizione; solo dopo aver fatto questo, chiedete all’AI di criticarla, di proporre alternative, di farvi vedere cosa avete trascurato. Iterate. Non accontentatevi delle prime risposte. Se c’è una cosa da evitare è usarla per semplificarvi il compito; usatela invece per complicarvi le domande. Più uscite dal gioco con la sensazione di aver pensato davvero, di aver discusso, cambiato idea, migliorato il vostro testo grazie al confronto (anche conflittuale) con la macchina, più il Role Play sarà servito allo scopo. Grazie ancora, a presto!


[1] ai sensi dell’articolo 6, paragrafo 2, Allegato III dell’AI Act – Regolamento – UE – 2024/1689 – EN – EUR-Lex

[2] HOME – Digital Transformation and Wellbeing Lab

[3] Trasformazione digitale, intelligenza artificiale e benessere | Università degli Studi di Milano-Bicocca

[4] Raccomandazioni uso IA nella produzione scritta_29.03.24_ita_eng – Documenti Google

[5] https://www.consorzio-cini.it/index.php/it/

[6] https://www.agendadigitale.eu/cultura-digitale/sorveglianza-umana-dellai-cose-e-perche-e-centrale-nellai-act/

[7] https://www.este.it/wp-content/uploads/2025/07/MIT_3_2025_Sommario.pdf

[1] https://www.benesseredigitale.eu/i-progetti/patto-educativo-digitale-della-citta-di-milano/

[2] PROJECTS – Digital Transformation and Wellbeing Lab

0
Would love your thoughts, please comment.x