Perché questa è una sfida che coinvolge tutti i docenti, nessuno escluso.

Sempre più spesso si sente parlare di Intelligenza Artificiale, dagli esperimenti di Google al laboratorio OpenAI di Elon Musk, al programma di ricerca di Facebook: ogni giorno vengono pubblicati aggiornamenti sui progressi delle ricerche in questo campo.

Non si tratta però di una novità: il primo esperimento sull’intelligenza artificiale risale al 1943, e la prima rete neurale artificiale è del 1950, anno in cui John McCarthy scriveva: “Ogni aspetto dell’apprendimento o ogni altra caratteristica dell’intelligenza può essere descritta in modo talmente preciso da consentire la costruzione di una macchina in grado di simularla”.

E’ con l’avvento dei Big Data e la diffusione dell’Internet delle cose (IoT) consentita dalla connessione sempre più performante e pervasiva, tuttavia, che questi sistemi acquisiscono rilevanza e trovano applicazione diffusa.

Basate su modelli matematici, le reti neurali possono essere utilizzate per simulare processi biologici, per risolvere problemi ingegneristici e più in generale per acquisire, analizzare  ed elaborare informazioni secondo algoritmi che ne definiscono il comportamento, anche auto-correttivo. Le principali aree di utilizzo delle reti neurali sono attualmente il riconoscimento di regolarità, modelli e schemi all’interno di grandi masse di dati, l’elaborazione di predizioni e l’ottimizzazione di risultati ottenuti con altri mezzi .

Dotate dai programmatori di capacità di imparare simulando le modalità di apprendimento degli esseri umani, le AI sono già impiegate, ad esempio, per il riconoscimento dei caratteri, il filtraggio delle email, la modellizzazione dei mondi virtuali, la ricerca di pattern visive o testuali, le risposte automatiche attraverso chatbot… Presto i robot, siano essi sistemi hardware dotati di software o programmi capaci di mostrare un comportamento intelligente, saranno dotati della capacità di svolgere compiti complessi, anche potenzialmente pericolosi, e avranno parte sempre più rilevante nelle nostre vite, basti pensare alla preannunciata diffusione su larga scala delle auto a guida autonoma.

A Melbourne si è appena conclusa l’annuale Conferenza Internazionale Internazionale sull’Intelligenza Artificiale (IJCAI), in cui i ricercatori di tutto il mondo si sono confrontati per approfondire lo sviluppo di sistemi che si occupano di:

  • Natural Language Processing, per abilitare la comprensione di un testo naturale e la sua elaborazione (ad esempio facendone un riassunto). Se ne servono i customer care, ma anche gli analisti del “sentiment” per misurare i livelli emotivi espressi in rete, o, grazie anche alla Speech Recognition, gli assistenti virtuali come Siri e Cortana;
  • Machine learning, piattaforme che auto-apprendono dall’esperienza nuovi e migliori comportamenti, per rendere più efficaci previsioni e classificazioni, e Deep learning, attualmente usato soprattutto per il riconoscimento di pattern, come sagome e volti da parte di apparecchi di sorveglianza;
  • Reasoning e Knowledge representation, per studiare come si può modellare la conoscenza in un certo campo applicativo, e come si può usare tale conoscenza per agire in modo intelligente in tale campo per risolvere compiti complessi e automatizzare vari tipi di ragionamenti;
  • Robotics and perception, per consentire ai robot di vedere e percepire il mondo e interagire con esso, decidendo il comportamento migliore da adottare;
  • Multiagent systems, che interconnettono e organizzano informazioni su diverse sfere di influenza, e sono capaci di risolvere problemi troppo grandi per un singolo “agente”, di fornire soluzioni a problemi con fonti di conoscenza distribuite, di migliorare le performances;
  • Web, campo di applicazione delle tecniche di IA su larga scala.

Sono però stati stati trattati anche nuovi domini di applicazione dell’Intelligenza Artificiale come la sicurezza, la sostenibilità, la salute, i trasporti e il commercio. Particolare rilievo è stato dato all’aspetto dell’autonomia, da molti anni focus di interesse nella comunità di ricerca, che gli sviluppi recenti nell’adozione di intelligenze artificiali e di altre tecnologie in vari settori hanno portato al centro del dibattito.

Il numero crescente di grandi società che lavorano allo sviluppo di automobili autonome, la proliferazione di droni per scopi diversi, inclusi quelli militari, e la disponibilità di assistenti personali su desktop o smartphone sono solo alcuni esempi di come sia possibile impiegare l’Intelligenza Artificiale nella vita quotidiana, aprendo però problemi di tipo tecnico, filosofico, legale e sociale.

Quale idea di autonomia offrono queste realtà emergenti? Quali strumenti, tecniche e modelli sono necessari per fornire un supporto tecnologico efficace a questi sistemi autonomi? Come garantire privacy e sicurezza per le identità digitali e i dati degli utenti in questi contesti?

Che tipo di regime normativo è necessario per le macchine autonome e quali implicazioni ci sono?

E ancora, come cambierà la nostra vita con il diffondersi di macchine autonome? In che modo i Big data ingrandiscono le sfide e le possibilità di autonomia? Quali implicazioni possono esistere nell’interazione tra le persone e le macchine? Tutti questi sviluppi sono socialmente accettabili?

Alcune di queste applicazioni ci sembrano legate ad un futuro remoto, ma non è così: l’evoluzione tecnologica segue un andamento esponenziale, a velocità crescente, e ciò comporta che, anche se non ne abbiamo piena percezione, il cambiamento è già in atto a uno stadio tale che non può essere fermato.

Negli ultimi 3 anni vi è stata un’impennata di startup innovative che si occupano di Intelligenza Artificiale, molte delle quali sono state acquisite dai grandi player (Google, Amazon, Apple, IBM, Facebook, Intel fra questi) visti i molteplici campi di applicazione che possono rendere produttivo il suo impiego: dalla finanza al digital marketing, ai media, al manifatturiero, all’assistenza sanitaria.

Stefano Quintarelli sostiene che Intelligenza Artificiale, Big Data e Internet of Things sono i driver del cambiamento, e che entro il 2021 tutto ciò che possa essere rilevato, calcolato, archiviato e connesso lo sarà.

Su quali strumenti dovremo allora far leva come insegnanti per dare ai ragazzi una formazione necessaria non solo ad una futura occupazione, ma alla vita stessa che sta cambiando, avvolta dalla sua dimensione immateriale?

Se ci fermassimo ad una lettura puramente tecnica, potremmo rispondere che nelle nostre classi è necessario potenziare il coding e le pratiche STE(A)M, senza dimenticare la didattica per competenze e la cittadinanza digitale, trasversali a tutte le discipline.

In molti, però, a partire da Sir Ken Robinson, hanno già sottolineato come siano da potenziare anche la creatività e il pensiero divergente, la capacità di generare idee nuove, soluzioni inedite, originali, improbabili, mentre la scuola è ancora troppo ancorata alla standardizzazione dei processi di insegnamento/apprendimento e tende ad appiattire piuttosto che valorizzare le differenze.

Altri ricercatori hanno evidenziato come sia necessario attuare azioni di orientamento precoce, per aiutare i bambini fin da piccoli ad immaginare il loro futuro, ad avere un atteggiamento progettuale necessario a governare la vita e non a lasciarsi travolgere dagli eventi. Non possono mancare nel bagaglio dei nostri ragazzi la speranza, l’ottimismo, il coraggio.
Come li aiutiamo a gestire e superare gli errori, che per loro rappresentano ostacoli a volte apparentemente insormontabili e minano la loro autostima? Nel cammino che li aspetta, la capacità di resilienza, il saper riorganizzare positivamente la propria esistenza nonostante esperienze critiche sarà un fattore decisivo per la riuscita del loro progetto di vita.

In alcuni Stati, la filosofia è presente nelle scuole per tutti gli indirizzi e non solo per i licei: in Irlanda è stata di recente introdotta come materia obbligatoria a partire dai 12 anni, e si diffondono sempre più esperienze di Philosophy for children. Allenare i ragazzi a riflettere, analizzare, sospendere il giudizio, confrontare, capire, valutare, scegliere, esercitare il libero arbitrio sono però ancora una volta attività che possono permeare le diverse discipline in maniera trasversale.

Perché, in fondo, per orientarsi nel labirinto degli algoritmi, della realtà aumentata, dell’Intelligenza Artificiale che sempre più incideranno sulle nostre vite, sarà necessario avere un filo di Arianna che aiuti a distinguere il vero dal falso, il bene dal male, ciò che è giusto da ciò che non lo è. Secondo il saggista e informatico Raymond Kurzweil, l’anno 2045 sarà il momento in cui l’intelligenza artificiale supererà quella umana. Se sia una visione distopica o meno solo il tempo potrà dirlo. Nel frattempo, mentre ancora resta la possibilità di valorizzare e sviluppare i valori e i princìpi che dovrebbero orientare e guidare le scelte, consiglio la lettura del racconto Ethobiome, di Giuseppe Granieri.

 

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

L'Autore


Laura Cesaro
Insegna alla scuola primaria dove sperimenta, insieme con i suoi alunni, percorsi supportati e arricchiti dalla tecnologia. Ha messo a frutto la laurea in Teorie e metodologie dell'e-learning e della Media Education e un master in Didattica della comunicazione realizzando prodotti e attività digitali che coniugano cognizione, creatività e interazione. Crede che la conoscenza abbia un senso solo se costruita e condivisa con gli altri; si occupa di piattaforme per l’apprendimento, blog e ambienti social; è animatore digitale, formatore PNSD. Partecipa e collabora con insegnanti innovativi in comunità online, tra cui il gruppo “Animatori Digitali” su Facebook. La sua vita è un perenne work in progress e la Rete la sua seconda casa.
Vai all'Autore