Introduzione: Cinque tesi sui limiti dei sistemi di IA

1. Quando personaggi del calibro di Bill Gates o Elon Musk mettono in guardia pubblicamente sui pericoli dei sistemi di intelligenza artificiale (IA), il pubblico non esperto tende spesso ad associare questi avvertimenti alle distopie della fantascienza. Film come Terminator, Blade Runner ed Ex Machina hanno plasmato la percezione comune di cosa dovrebbe essere l’IA: di solito un robot con un corpo umanoide e un’intelligenza simile a quella umana, o un agente software virtuale come il computer di bordo HAL in 2001: Odissea nello spazio di Stanley Kubrick. Non solo i non addetti ai lavori condividono questa visione quasi canonica del nostro futuro: anche molti esperti ritengono che tali sistemi di IA potrebbero emergere presto, progettati per assomigliare sorprendentemente agli esseri umani, ma con un’intelligenza nettamente superiore alla nostra (Bostrom, 2014; Kurzweil, 2006). Se accettassimo acriticamente questo scenario, dovremmo temere i sistemi di IA descritti tanto quanto gli antichi temevano il mondo degli dei, che spesso venivano rappresentati in forma umana. Tuttavia, è importante ricordare che le storie di fantascienza non sono altro che leggende moderne. La storia delle idee ha sempre osservato le leggende con uno sguardo critico. Le leggende sono fondamentali per stimolare il pensiero critico, ma non dovrebbero essere utilizzate come base per le politiche pubbliche o le decisioni economiche.”

In questo articolo, sostengo che i sistemi di intelligenza artificiale (IA) non siano affatto ‘eroici’ o ‘superintelligenti’, come spesso suggeriscono le narrazioni contemporanee. Al contrario, intendo descrivere questi sistemi per ciò che realmente sono, evidenziando la loro limitata capacità di elaborazione. Una trattazione obiettiva di questo tipo appare ormai necessaria, soprattutto considerando che documenti politici come il National Defense Authorization Act (Congresso USA, 2018) descrivono i sistemi di IA come ‘simili all’uomo’, avvicinandosi pericolosamente alla fantascienza. Questa concezione non è limitata al Congresso degli Stati Uniti: l’idea è ormai così diffusa che alcune entità politiche stanno valutando la possibilità di concedere diritti ‘simili a quelli umani’ ai sistemi di IA (Gunkel, 2018). Addirittura, è stata persino concessa la cittadinanza nazionale a tali sistemi (Hatmaker, 2017) e l’idea di riconoscere l’IA come entità giuridica separata è stata sollevata in documenti ufficiali del Parlamento europeo (Krempl, 2018).

Attribuire una natura umana ai sistemi di IA e conferire loro diritti corrispondenti potrebbe minare in modo significativo la libertà e la dignità umana. Questo scenario solleverebbe nuove e complesse questioni etiche in tutti i settori della vita. Ad esempio: è sbagliato prendere a calci un robot? Disabilitare un robot equivale a ucciderlo? Tradire il proprio partner con un robot offende la dignità del partner umano? La portata delle domande etiche che ne deriverebbero sarebbe vastissima, così come la conseguente mole di nuove norme necessarie a regolare questi dilemmi.

Questo articolo si concentra in particolare sulla questione se sia corretto descrivere i sistemi di IA come ‘simili all’uomo’. Presento solo alcuni modesti confronti tra le capacità cognitive dei sistemi di IA e quelle dell’intelligenza umana. Pur riconoscendo che in futuro i sistemi di IA potranno avere una potenza di calcolo ancora più impressionante, e che, se dotati di dati di qualità, addestrati e contestualizzati adeguatamente, potranno arricchire i processi decisionali umani, essi non diventeranno mai simili all’uomo per una serie di ragioni intrinseche alla loro natura:

  1. I sistemi di intelligenza artificiale dispongono di poche informazioni di tipo umano.
  2. I sistemi AI non possono reagire come gli esseri umani
  3. I sistemi AI non possono pensare come gli esseri umani
  4. I sistemi AI non hanno alcuna motivazione umana
  5. I sistemi di intelligenza artificiale non hanno un’autonomia paragonabile a quella degli esseri umani.

Queste cinque tesi si basano sul presupposto che i sistemi informatici continueranno ad essere realizzati con materiali inorganici e funzioneranno in modo digitale.2

Sulla classica distinzione tra ragione (‘Vernunft’) e intelletto (‘Verstand’)

Vorrei chiarire fin dall’inizio che sto attingendo alla distinzione classica tra ragione (‘Vernunft‘) e intelletto (‘Verstand‘), due termini che sembrano essere spesso confusi nel nostro mondo moderno.3: Per i grandi filosofi dall’antichità classica alla fine del Medioevo, la ragione umana (“Vernunft“) è la capacità di raccogliere argomentazioni razionali, dati e fatti, ecc. Gli esseri umani normali possono imparare ad agire con la ragione, ad esempio a raccogliere informazioni, ricordarle, recuperarle e combinarle. Nella maggior parte dei casi, l’essere umano ha il controllo di questo processo. A differenza della ragione, l’intelligenza (“Intelligenz, Verstand”, greco: noûs, latino: intellectus) consiste nella capacità di comprendere veramente le informazioni, di separare ciò che è importante da ciò che non lo è, di fare astrazioni, di ragionare o semplicemente di vedere ciò che è cruciale in una determinata questione e ciò che non lo è. Gli esseri umani hanno poco controllo su questo intellectus: non possiamo forzarci a capire qualcosa che non capiamo.4. Ecco perché attribuiamo all’uomo diversi gradi di un’unica intelligenza.

Come si manifesta l’intelligenza rispetto alla ragione razionale? Innanzitutto, viene percepita dal corpo: la pressione sanguigna sale quando siamo felici di aver capito qualcosa, oppure godiamo di un certo benessere quando la nostra esperienza corrisponde ai requisiti di un incarico (Csikszentmihalyi, 1991). In secondo luogo, è difficile ricapitolare punto per punto che cosa ha scatenato esattamente il momento della comprensione o ‘illuminazione’. La vera comprensione, che è immanente nell’azione intelligente (piuttosto che meccanica), può essere resa tangibile (dingfest) solo in misura limitata, per non parlare della ricapitolazione in unità di informazione chiaramente delineate5. In terzo luogo, va notato che l’intelligenza – in contrapposizione alla ragione – è indicata negli studi classici come “noûs“, la stessa parola del francese “nous“, del tedesco “wir” e dell’inglese “we”6. Questa radice etimologica comune si riferisce all’idea che l’intelligenza sia in qualche modo legata a stabilire un legame con il mondo che ci circonda: cose, natura o altre persone, ecc. L’intelligenza è una forma di comprensione condivisa7. Quando è impossibile costruire questo tipo di comprensione condivisa, siamo pronti a dire: “Non riesco a fare il collegamento”, il che significa che non riusciamo a stabilire questo “noûs“.

Questo concetto di ‘connessione con il mondo’ mi sembra centrale per comprendere la differenza tra l’intelligenza umana e l’intelligenza artificiale8. È la base della distinzione tra ragione e intelligenza: la ragione scompone una situazione in modo neutrale in singoli elementi, li analizza in modo oggettivo senza reazioni corporee e prende decisioni che sono il più possibile chiaramente comprensibili punto per punto. L’intelligenza, invece, richiede che ci relazioniamo con qualcosa, che abbia senso per noi. La conclusione di questo articolo sarà che i sistemi AI possono esercitare la ragione, ma non sono intelligenti. La ragione di ciò è, in ultima analisi, che i sistemi AI non sono in grado di collegarsi al mondo in modo intelligente; il mondo “non significa nulla per loro”, non c’è un “noûs” percepibile per loro.

I sistemi di intelligenza artificiale hanno poche informazioni paragonabili a quelle degli esseri umani.

Gli esseri umani sono sistemi corpo/anima altamente sensibili e integrati (Damasio/Everitt/Bishop, 1996) che sono in costante risonanza con il loro ambiente (Rosa, 2016). In effetti, gli esseri umani sono sistemi così potenti che alcuni scienziati sostengono che non possiamo più evitare la teoria che ci vede come computer quantistici ambulanti (Wendt, 2015). Anche se non posso giudicare la validità di questa teoria in questa sede, credo che possiamo tutti concordare sul fatto che gli esseri umani utilizzano costantemente l’intero corpo per elaborare le informazioni ottiche, acustiche, tattili, gustative e olfattive dell’ambiente. “La nostra percezione… è… il prodotto di forme sinestetiche di percezione specifiche del corpo”, scrive Johannes Hoff. Pertanto, i sistemi di intelligenza artificiale simili a quelli umani richiederebbero innanzitutto un ‘corpo’ motorio-sensoriale con gli stessi poteri e che elabori l’ambiente in modo altrettanto completo. Tuttavia, lo stato dell’arte è ancora lontano dal raggiungere questo obiettivo. I supercomputer più potenti di oggi possono simulare solo l’uno o il due percento dell’attività neurale di un cervello umano, il che richiede un’energia mille volte superiore a quella di cui ha bisogno il nostro sistema biologico (Meier, 2017).9. Un cervello umano ha più di 860.000 miliardi di neuroni collegati tra loro da oltre un quintilione di sinapsi. In passato, si pensava che gli esseri umani imparassero alterando l’efficienza delle sinapsi esistenti. Questa idea è stata anche la base dell’apprendimento automatico, motivo per cui si dice che i sistemi di intelligenza artificiale addestrino i “neuroni”. Oggi, tuttavia, le neuroscienze ci dicono che gli esseri umani formano costantemente nuove sinapsi tra i neuroni. In altre parole: il cervello si ricabla continuamente. Se le fonti tecniche sono attendibili, ogni giorno viene sostituito fino al 40% delle sinapsi di un neurone. Così un autore un po’ scoraggiato nel campo dell’AI ha recentemente concluso: “Se è vero che le attuali tecniche di AI fanno riferimento alle neuroscienze, esse utilizzano un modello di neuroni eccessivamente semplificato che omette le caratteristiche essenziali dei neuroni reali, e sono collegate in un modo che non riflette la realtà della complessa architettura del nostro cervello” (p. 35 in Hawkins, 2017). Quindi, il fatto è che l’elaborazione umana altamente diversificata, sfumata e ricca di informazioni sul nostro ambiente è infinitamente più fine e flessibile di qualsiasi cosa possiamo aspettarci che le macchine facciano nel prossimo futuro e a costi energetici sostenibili. Tuttavia, se le informazioni raccolte dai sistemi di IA sono diverse ed elaborate in modo più approssimativo, come può un sistema di IA essere “simile all’uomo”? Con meno dati, meno input sensoriali e un’elaborazione meno potente e completamente diversa delle informazioni sull’ambiente, i sistemi di IA probabilmente continueranno a sembrarci ‘goffi’ ancora per un po’ di tempo.

Detto questo, i sistemi di intelligenza artificiale hanno certamente un contributo significativo da offrire al mondo. Possono essere dotati di un gran numero di sensori che noi umani non possediamo, integrandoli all’interno delle loro strutture. Queste informazioni possono poi essere condivise in modo efficiente tra i sistemi di IA attraverso una rete globale. A seconda di come vengono configurati, i sistemi di intelligenza artificiale possono, ad esempio, misurare i livelli di radioattività, calore o umidità, determinare il numero di reti Wi-Fi attive in una determinata area, o persino identificare i mobili negli edifici vicini (ad esempio, quando questi mobili sono etichettati con chip RFID che operano su specifiche bande di frequenza).

I sistemi di intelligenza artificiale, come i robot mobili, potrebbero, nella misura in cui ciò sia ufficialmente consentito, accedere ai profili socio-demografici di ogni pedone che attraversa i mercati di dati internazionali, o determinare con relativa certezza il loro stato d’animo attuale basandosi sull’analisi ottica delle espressioni facciali. Sebbene questi sistemi non possano connettersi al mondo vivente e sensoriale come fanno gli esseri umani, a causa dell’assenza di sistemi sensoriali corporei e della mancanza di un corpo vivente simile a quello umano, essi possono comunque collegarsi in rete tra loro e aggregare enormi quantità di dati. Il risultato è un sistema totalmente indipendente dall’esperienza umana, che può essere di grande importanza per la vita e le economie umane, ma che non ha nulla di umano.+

I sistemi AI non possono reagire come gli esseri umani

Quando le persone reagiscono all’ambiente, la loro intelligenza nel senso di “noûs” si manifesta in un modo molto particolare. Le persone stabiliscono un legame normale con il mondo, reagendo in modo diretto ed emotivo. Questo è importante in tutte le situazioni della vita. Prendiamo l’esempio di una situazione emotivamente carica in cui siamo testimoni di un’ingiustizia. Quando ci troviamo di fronte a situazioni con connotazioni negative come l’ingiustizia, la crudeltà, la brutalità o altre qualità simili, il nostro linguaggio ha espressioni che esprimono la sensazione di valori negativi che sperimentiamo direttamente. Per esempio, potremmo dire che ciò che vediamo “ci fa male allo stomaco”, “ci fa rabbrividire” o “ci fa rizzare i peli sulla nuca”. Ma la nostra comprensione non è guidata solo da questo senso di valori negativi. La maggior parte dei valori che danno significato alla nostra vita – simpatia, amore, amicizia, comunità, sicurezza e così via – si manifestano a noi esseri umani attraverso il fatto che ci sentiamo emotivamente attratti (o respinti) (Scheler, 1921, 2007).

Il sentimento di attrazione o repulsione è decisivo per il modo in cui possiamo stare al mondo.

Basti dire che nessun sistema informatico o AI di qualsiasi generazione ha un corpo vivente in grado di provare tali sensazioni o qualcosa di simile. Una scatola d’acciaio non ha lo stomaco in subbuglio e nessuna emozione attraversa la sua spina dorsale10. Un robot umanoide potrebbe dire di avere mal di stomaco. La reazione della macchina consisterebbe in questa affermazione linguistica. Tuttavia, questa simulazione di una somiglianza con gli esseri umani non rende il sistema AI veramente umano. Le persone possono apprezzare la simulazione. Ma simulazione non significa “essere simile all’uomo”. Significa “fingere di essere umano”. Gli esperti concorderanno sul fatto che esiste una differenza eticamente significativa tra un’entità che ‘assomiglia’ a qualcosa e un’entità che ‘finge’ di assomigliare a qualcosa.

Un altro aspetto interessante di questo esempio di simulazione di mal di stomaco e brividi è che la vera somiglianza con gli esseri umani spesso non è nemmeno desiderabile per l’IA. Epley, Waytz e Cacioppo (2007) dimostrano che molte persone apprezzano gli antropomorfismi solo per un senso di solitudine. Non sarebbe bello avere un’IA amica molto empatica che allo stesso tempo sia così neutrale da farci sentire confortati dall’interazione? Un’interazione che segue le regole dell’empatia, ma che in realtà è priva di emozioni, sembra sempre più l’ideale per una generazione la cui fiducia nell’umanità è ai minimi storici.11.

A mio avviso, questa mancanza di fiducia non rende giustizia alla natura umana: la capacità umana di essere empatici è correlata all’attività dei neuroni a specchio, che ci permettono di essere esseri altamente sociali che si sentono vicini al loro ambiente e sono quindi in grado di preoccuparsi sinceramente di esso (Jenson/Iacoboni, 2011). I sistemi di intelligenza artificiale, invece, non hanno i neuroni a specchio e quindi non possono preoccuparsi. Detto questo, nel medio termine i sistemi di AI potrebbero fare un uso maggiore di sensori in grado di riconoscere le emozioni e le reazioni umane. I computer sono già in grado di misurare con precisione i minimi segni facciali di emozione, la dilatazione della pupilla o le reazioni della pelle. Su questa base, possono trarre conclusioni relativamente affidabili sullo stato d’animo di un essere umano in un determinato momento. Inoltre, i sistemi di IA possono possedere le competenze tecniche necessarie per rispondere in modo ragionevole a queste osservazioni12. Uso intenzionalmente il termine ‘ragionevole’ qui, perché il sistema informatico non è in grado di realizzare un ‘noûs‘ e di connettersi emotivamente con la sua controparte umana. Tuttavia, può calcolare un modello razionale della controparte umana basato sulla ‘ragione’ e quindi eseguire determinate reazioni predeterminate o apprese. La questione è se vogliamo considerare queste reazioni della macchina come ‘intelligenti’ in senso umano, perché in realtà sono solo razionali.

Ciò che rende un essere umano ‘intelligente’ è che è in sintonia con il mondo, che comprende l’ambiente in modo emotivo e intelligente. Per fare questo, ha bisogno di autoconsapevolezza. Deve essere in grado di reagire in modo consapevole al suo ambiente, nel senso di una connessione. Se la connessione non è cosciente, siamo d’accordo che non è intelligente, ma subconscia o semplicemente intuitiva (come un animale). Nel caso dei sistemi AI, è questo aspetto della coscienza che manca: Il sistema di IA non ha un sé cosciente attraverso il quale potrebbe collegarsi alla sua controparte umana, e quindi ogni reazione dell’IA deve ironicamente reagire “senza un sé”. Anche se questo piace a molti sostenitori dell’IA, non c’è nulla di umano in questo.13.

I sistemi di intelligenza artificiale non possono pensare come gli esseri umani

Quando i sistemi informatici “pensano”, in realtà stanno facendo dei calcoli. Qualsiasi sistema informatico, comprese tutte le forme di AI, si basa su dati che sono stati codificati, elaborati, classificati in database, strutturati, integrati funzionalmente, idealmente descritti con metadati e possibilmente collegati a un’ontologia standardizzata. Ciò che spesso viene descritto come funzionalità specifiche dell’AI, come l’apprendimento automatico (ad esempio con le reti neurali profonde), fa proprio parte di questa architettura di elaborazione dei dati. Questa funzionalità consente non solo di memorizzare i dati grezzi come informazioni, ma anche di ‘rappresentarli’ in modo significativo, e persino di modificare ed evolvere queste rappresentazioni. I sistemi di intelligenza artificiale possono riconoscere e adattarsi ai modelli, come il nostro linguaggio. Possono quindi, in combinazione con le conoscenze sviluppate nel campo della linguistica, costruire (sintetizzare) modelli costruiti che consentono loro di riconoscere, analizzare ed eseguire atti vocali.

Questa aggregazione può essere continua nell’elaborazione dei dati assistita dall’AI. Le informazioni e le rappresentazioni immagazzinate cambiano costantemente con l’arrivo di nuovi dati. Se osserviamo le visualizzazioni di questi insiemi di dati dinamici dal vivo sullo schermo, possiamo avere l’impressione che questo flusso di dati e questi oggetti informativi mutevoli abbiano una propria vivacità, una vivacità che io chiamo “esistenza sintetica”. Questa esistenza sintetica è impressionante quando la si vede in azione. “Sta lampeggiando, è vivo” (Gehring, 2004) potrebbe essere la reazione stupita di un osservatore colpito da un tale sistema. Ma con tutto il dovuto entusiasmo, non dobbiamo equiparare queste visualizzazioni lampeggianti a un’esistenza simile a quella di un essere umano. Non sono la vita stessa, ma piuttosto un’istanziazione osservata dei fenomeni reali della vita (con molti strati di astrazione logica in mezzo). La rappresentazione artificiale non deve mai essere confusa con la realtà sottostante.

La differenza tra il pensiero umano e l’elaborazione artificiale delle informazioni è che gli esseri umani generalmente non calcolano utilizzando i dati con l’aiuto di un modello. So, naturalmente, che in psicologia e in economia c’è una lunga tradizione di modellizzazione del processo decisionale umano in questo modo. Purtroppo, utilizziamo ancora l’idea dell’homo oeconomicus per rappresentare l’uomo come una sorta di calcolatore di “preferenze ottimizzate”. In psicologia, utilizziamo modelli come la teoria dell’azione ragionata14 per spiegare come gli esseri umani agiscono. Esistono innumerevoli modelli che descrivono il pensiero umano. Ma qualsiasi scienziato ragionevole sa anche che tutti questi modelli che analizzano le decisioni umane costruendo scatole, sanno anche che rappresentano poco più di un’euristica del pensiero umano. Questo non rende i modelli superflui. Le euristiche sono scientificamente importanti per la comprensione di noi stessi, della società e del cosmo nel suo complesso. Ma non sono in grado di rappresentare completamente o di prevedere in modo affidabile il comportamento umano. A coloro che non amano questo punto di vista, ricordiamo gentilmente i coefficienti di determinazione e l’entità dell’errore associato a qualsiasi analisi statistica. Solo in rarissimi casi un essere umano, in una situazione decisionale, scompone meticolosamente gli aspetti in singoli componenti, oppure parte da questi componenti e li ricalcola insieme alle ponderazioni appropriate, oppure segue modelli identici.

Al contrario, sembra certo che gli esseri umani normalmente percepiscono e riorganizzano il loro ambiente in entità olistiche e non sommatorie, almeno se i due emisferi del cervello funzionano insieme in modo sano (McGilchrist, 2009). L’emisfero destro, responsabile della percezione olistica, interagisce con l’emisfero sinistro, che struttura ciò che è stato percepito (ad esempio dal centro del linguaggio) (McGilchrist, 2009). All’inizio del XX secolo, Edmund Husserl ha utilizzato il concetto classico di noemata per descrivere la natura olistica del nostro pensiero (Husserl, 1993). I noemata ci permettono, come esseri umani, di cogliere le strutture di significato (Sinngestalten) di un fenomeno, e non lo facciamo utilizzando i singoli dati in calcoli ponderati per creare queste strutture, ma o le realizziamo o diventano intuitivamente reali. Sulla base di questa conoscenza, nelle neuroscienze e nella ricerca sulla memoria, la memoria episodica umana viene definita ‘consapevolezza autonoetica’ (Baddeley/Eysenck/Anderson, 2015)15. In gran parte del nostro pensiero, noi esseri umani attualizziamo ciò che osserviamo come noemata a cui abbiamo dato un nome. Seguendo questa linea di ragionamento, potremmo dire, ad esempio, che un essere umano può condividere un’idea di ciò che significa essere buono16. Quando si verifica un incidente nell’ambiente e qualcuno si comporta bene, noi umani lo riconosciamo immediatamente. Un sistema di intelligenza artificiale, invece, non ha un’idea condivisa di ciò che è buono. Può essere addestrato a riconoscere una sequenza di eventi che gli esseri umani hanno descritto come “buoni” o “giusti” e può quindi incorporare la regola (appresa o determinata) secondo cui un umano buono si ferma al semaforo rosso. Ma il sistema AI riconosce solo questa manifestazione di ciò che è buono (fermarsi al semaforo rosso). Se qualcuno attraversa il semaforo rosso per salvare un bambino, il sistema AI calcolerà che questo atto non è buono, a meno che non abbia già imparato esattamente questa sequenza in precedenza (o l’abbia condivisa con altri sistemi AI). Al contrario, le persone sono immediatamente in grado di riconoscere l’idea di bontà nello scenario di salvataggio. In altre parole, un sistema di AI segue una ‘teoria della mente’ (ascendente) bottom-up di riconoscimento dei modelli (Feser, 2013). Gli esseri umani, invece, utilizzano un riconoscimento (discendente) top-down dei noemata (come l’idea di ciò che è buono), che non può essere espresso in termini di punti di dati, ma solo come una forma olistica di essere. Questa dinamica di pensiero consente alla specie umana di gestire facilmente lo tsunami non strutturato di stimoli ambientali motori, sensoriali, ottici, olfattivi e tattili. Non richiede alcuna compilazione o traduzione in unità di dati, nessuna pre-elaborazione, nessun ‘addestramento’ in ogni modello, nessun campo predefinito del database, nessuna ontologia, ecc.

Naturalmente, sono consapevole che ad alcuni scienziati (di varie discipline) non piace questa descrizione fenomenologica del modo in cui pensiamo. Pensare in noemata? Nessuna unità di informazione misurabile e finemente delineata che possa essere sommata? Questo mette a disagio la loro visione ben strutturata e controllata del mondo. Posso capire questo disagio. Dopo tutto, la maggior parte degli scienziati si aggrappa ancora a quella che il teologo Johannes Hoff chiama “metafisica dei mattoncini Lego” (“Baukästchenmetaphysik“). Scrive: “Proprio come Johannes Gutenberg ‘assemblava’ le sue lastre di stampa con i caratteri mobili, anche l’Io di Kant ‘sintetizza’ gli oggetti percepibili da ‘molte e varie’ impressioni sensoriali” ((Secondo Kant, la realizzazione è un “Ganzes verglichener und verknüpfter Vorstellungen” (“Insieme di idee comparate e correlate”) (Kant, Kritik der reinen Vernunft, A 97). Il suo punto di partenza è una molteplicità, data ai sensi in modo passivo e diffuso. La sua sintesi richiede la “Spontaneität unseres Denken s” (A77 / B102). Logicamente, un oggetto è “das, in dessen Begriff das Mannigfaltige einer gegebenen Anschauung vereinigt ist” (“quello nel cui concetto è unificata la diversità di una visione data”) (B137). Solo in questo modo i giudizi materiali che ci permettono di riconoscere il mondo diventano possibili, garantendo la relazione referenziale con le cose (“Gegenstandsbezug“) delle sintesi soggettive). Secondo Hume, l’Io sintetizzante può persino essere ridotto a un “fascio di condizioni diverse”17 (Hoff, 2020). Tuttavia, sembra che questo modello di pensiero umano sia in via di estinzione. Se seguiamo le ultime scoperte neuroscientifiche, che fanno parte di una tradizione intelligente nelle scienze umane, diventa chiaro quanto segue: “Se possiamo parlare di una ‘macchina’, il cervello non è una ‘macchina per sintetizzare’ o una ‘macchina per proiettare’, ma piuttosto una ‘macchina per inibire’ o una ‘macchina per selezionare’. Il cervello non genera il ”mentale”, ma lo contrae in interazione con altri organi e con le corrispondenti impressioni ambientali che limitano il campo di possibilità del conoscibile e del percepibile a forme più o meno discrete.”18

La differenza tra sintetizzare utilizzando una macchina e pensare come un essere umano ha implicazioni etiche. I sistemi di intelligenza artificiale possono elaborare solo i dati per i quali hanno le rappresentazioni tecniche corrispondenti (cioè per i quali sono stati ‘addestrati’). Commetteranno costantemente gli errori più ridicoli, finché non avranno una rappresentazione per ogni situazione immaginabile, soprattutto quelle improbabili. Faranno giudizi errati non appena si troveranno di fronte a una situazione che non è stata inclusa nel loro ‘addestramento’. Questo può rivelarsi fatale, tuttavia, perché tutta la vita umana è in definitiva una serie di ripetizioni non identiche e sensibili al contesto.19

Dato che i sistemi di AI possono commettere errori che possono essere più che fastidiosi, o addirittura pericolosi, per gli esseri umani coinvolti, oggi troviamo quasi esclusivamente le cosiddette “AI ristrette”. Questi sistemi di AI sono addestrati per un contesto chiuso e altamente definito, in cui possono apprendere modelli di dati teoricamente possibili e persino riconoscere dettagli e anticipare possibili sviluppi che gli esseri umani spesso non riescono a vedere. Tuttavia, questo illustra ancora una volta perché un sistema di AI non è affatto come un essere umano. L’IA soffre di ciò che è noto come “sotto-adattamento” nel contesto di vita aperto, generale e non identico condiviso dagli esseri umani e dai gruppi. D’altra parte, è più precisa e lungimirante di un essere umano in contesti chiusi, dove i modelli si ripetono.

La mancata comprensione di questa differenza tra il pensiero umano e l’elaborazione dei dati effettuata dai sistemi di IA può comportare un uso eticamente problematico della tecnologia. L’uso dell’IA è problematico quando è in gioco la complessa situazione della vita di un essere umano. Un esempio è la domanda se un determinato individuo è e resterà un criminale, se commetterà o ha già commesso un crimine, se andrà bene in una determinata università o in un determinato lavoro, ecc. Le caratteristiche non identiche degli individui umani nella loro ripetizione non identica di situazioni di vita, che sperimentano in contesti non identici, sono così uniche che è impossibile per un sistema di IA comprenderle. I sistemi di IA utilizzati in mezzo a questo terreno generale della vita corrono il rischio costante di non corrispondere alla realtà.

I sistemi AI non hanno alcuna motivazione umana

Nella fantascienza, i sistemi di intelligenza artificiale diventano sempre entusiasmanti quando si pongono degli obiettivi; ad esempio, quando il computer di bordo HAL, nel film di Stanley Kubrick 2001: Odissea nello spazio, inizia a superare in astuzia il capitano della stazione spaziale. Quando gli esseri umani si pongono consapevolmente degli obiettivi, lo fanno perché un’azione, il risultato di quell’azione o un modo di essere sembrano significativi e/o preziosi per loro. Spesso, queste nozioni non sono obiettivi definiti, ma piuttosto valori che esercitano una certa attrazione sugli esseri umani e li motivano ad agire 20. La ricerca sulla motivazione e sul comportamento ha esaminato in dettaglio questi meccanismi per diversi decenni e parla di ‘motivazioni’ che si formano negli esseri umani in modo generale, contestuale o specifico per la situazione (Vallerand, 1997). Un essere umano può anche avere una propensione generale ad adottare un determinato comportamento. McClelland distingue, ad esempio, tra gli esseri umani con una tendenza relativamente pronunciata verso il potere, il successo o l’affiliazione (McClelland, 2009). Queste motivazioni intrinseche si manifestano ripetutamente in contesti ricorrenti (tempo libero, famiglia, studi). Prendono la forma di curiosità, desiderio di ordine o di un certo idealismo (Reiss, 2004). Ci sono anche motivazioni del tutto specifiche per una situazione, come il desiderio di vincere o il desiderio di essere lasciati in pace. La psicologia in genere presuppone che queste motivazioni diano forma al comportamento umano.

Considerati questi motivi umani, si pone la questione di come insegnare a un sistema di intelligenza artificiale valori emotivamente carichi come il potere, l’affiliazione, la gioia della realizzazione o l’idealismo. I sistemi AI non hanno accesso mentale a questi termini sotto forma di noemata, né un corpo esperto che possa trasmettere loro il valore sensoriale di questi motivi. E anche se lo facessero, il miglior teorico non potrebbe modellare con precisione un motivo come il potere o il bisogno di pace o di calma.

Dove la psicologia e l’AI si incontrano, tuttavia, è nel contesto della semplificazione dei modelli di relazioni umane. Prendiamo, ad esempio, la teoria del valore dell’aspettativa. Questa teoria postula che gli esseri umani si impegnano in una sorta di preveggenza in cui calcolano se un certo comportamento contribuirà al raggiungimento dei risultati desiderati (Vroom, 1964). Le funzioni di aspettativa di valore potrebbero fornire una base affascinante per ottimizzare un sistema di IA. Tuttavia, un sistema di IA è in grado di rappresentare solo quelle che gli psicologi chiamano motivazioni “estrinseche”, ad esempio una somma di denaro da ottenere da un determinato comportamento. I sistemi di intelligenza artificiale dei mercati finanziari sono addestrati con tali funzioni obiettivo monetarie. Tuttavia, non appena ci allontaniamo dai contesti applicativi in cui le motivazioni estrinseche sono integrate in una semplice logica di massimizzazione ed entriamo nelle sfere più comuni della vita umana, dove le motivazioni intrinseche sono perseguite per il loro valore intrinseco, i sistemi di IA diventano inefficaci, poiché non riescono a relazionarsi con l’idea di qualcosa che è desiderabile in sé e per sé.

È quindi profondamente fuorviante che alcuni esperti di IA si avventurino sul terreno scivoloso dell’attribuzione di tali motivazioni intrinseche ai sistemi di IA. Alcuni utilizzano termini come “ricompensa intrinseca” con titoli che promettono “motivazione intrinseca” dei sistemi di IA. Ma se si guarda più da vicino alla definizione di questi termini e al modo in cui vengono implementati nei loro sistemi, la “motivazione intrinseca” improvvisamente diverge in modo significativo da ciò che la psicologia intende con essa. Prendiamo il lavoro di Jürgen Schmidhuber. In uno dei suoi articoli, associa la motivazione intrinseca a un componente di apprendimento rinforzato in un sistema di intelligenza artificiale, che incorpora una funzione obiettivo matematica. Questa funzione obiettivo viene massimizzata in risposta alla scoperta di nuovi modelli di dati (“sorprendenti”). Poi utilizza questo modello di massimizzazione della novità per avviare altre azioni all’interno del sistema. Questo è ciò che Schmidhuber chiama con orgoglio “motivazione intrinseca” (Schmidhuber, 2010) e sembra suggerire che l’IA diventi in qualche modo umana in questo modo21. Ma la motivazione intrinseca, nel senso umano del termine, non è legata a qualcosa di nuovo o sorprendente: Al contrario! La motivazione intrinseca è l’esperienza (apprezzabile) di qualcosa che si ripete in modo non identico o che è internamente desiderato come piacevole22. Momenti come “sentire un senso di appartenenza” o “essere in pace” sono stati che vengono percepiti come emotivamente familiari23. Inoltre, la motivazione intrinseca non ha nulla a che fare con la massimizzazione, come nel caso della “componente di rinforzo” di Schmidhuber. D’altra parte, la massimizzazione come principio è completamente opposta all’agire per il bene del motivo stesso. In breve: il prestito di termini psicologici da parte di informatici come Schmidhuber (2010) è totalmente fuorviante. La motivazione intrinseca in senso umano non può essere creata nei sistemi di intelligenza artificiale.

I sistemi AI non hanno un’autonomia socialmente integrata

L’ultima area principale che si suppone giustifichi la presunta somiglianza dei sistemi di IA con gli esseri umani è la loro potenziale autonomia. Il Defense Science Board degli Stati Uniti definisce l’autonomia tecnica di un sistema di IA come “la capacità [del sistema di IA] di comporre e selezionare in modo indipendente diversi corsi d’azione per raggiungere gli obiettivi in base alla sua conoscenza e comprensione del mondo, di se stesso e della situazione” (Rapporto estivo). Questa autonomia tecnica inizia quando il sistema viene attivato. Ad esempio, quando un drone viene inviato in missione, può essere configurato in modo tale che, una volta partito, agisca in base agli obiettivi che si è prefissato. Oppure una rete elettrica può utilizzare i dati dei contatori intelligenti per gestire in modo indipendente la stabilità della rete. Con questa definizione, l’organismo militare ha optato per il massimo grado di ciò che chiama “autonomia”: tutto il controllo appartiene alla macchina (Parasuraman/Sheridan, 2000). Dovremmo ricordare il punto di vista di Immanuel Kant secondo cui uno schiavo, che non è affatto autonomo (!), non può essere mandato “in missione”, perché non è possibile per lo schiavo mandare se stesso in missione. Lo schiavo non può scegliere il tipo di missione, né può rifiutarla. I kantiani descriverebbero quindi il grado di libertà di un drone non come “autonomia”, ma come “eteronomia”. Ancora una volta, l’informatica utilizza un termine la cui definizione è molto precisa in filosofia e, così facendo, attribuisce alle macchine capacità che non hanno. L’eccezione è rappresentata, ovviamente, dai sistemi di AI di fantascienza, che scelgono effettivamente le proprie missioni e definiscono i propri obiettivi. Si parla di “IA generale”, che può definire i propri obiettivi attraverso un processo di apprendimento automatico non supervisionato. Sebbene tali sistemi di IA non esistano attualmente, non è impossibile che possano esistere in futuro!

Ma anche se un giorno queste “IA generali” vedranno la luce, non saranno in grado di assomigliare agli esseri umani. Perché no? Nella “teoria dell’autodeterminazione”, Ryan e Deci (basandosi sulla ricerca sulla motivazione degli anni ’70) hanno ripetutamente dimostrato dal 2000 l’importanza di tre fattori: la competenza, l’autonomia e la relazione con gli esseri umani (Ryan/Deci, 2000). L’autonomia è intesa qui come la capacità di avviare le proprie azioni e di farlo in modo tale che l’azione avvenga in armonia con se stessi; che non ci si senta costretti da influenze esterne a intraprendere determinate azioni. Ciò non significa, tuttavia, che vivendo questa autonomia, ci liberiamo completamente dai desideri, dagli obiettivi e dalle abitudini del gruppo a cui ci sentiamo associati (Deci/Vansteenkiste, 2004). Al contrario: l’essere umano è uno zoon politikon, un essere sociale. Ciò significa che una decisione ragionevole presa da un essere umano tiene normalmente conto dell’ambiente sociale. Gli esseri umani vivono una “autonomia socialmente integrata”. La mia libertà finisce dove comincia quella degli altri. 24 Se consideriamo questa tensione tra la libertà propria dell’essere umano e il processo decisionale ‘autonomo’, che avviene in un ambiente sociale, diventa subito evidente che è la vulnerabilità dell’essere umano a contribuire in modo vitale al fatto che spesso decide in modo indipendente di pensare per conto di altri. Non decide autonomamente come un individuo distaccato, cioè libero da ogni influenza esterna 25. L’intero corpus aristotelico dell’etica della virtù si occupa di questo tema umano di mantenere una sana moderazione e di non avere un impatto negativo all’interno del proprio gruppo, esagerando o sottovalutando la natura delle proprie decisioni. Tuttavia, la forza che può motivare una persona a mantenere questa moderazione (o comportamento di ‘via di mezzo’) è la vulnerabilità umana; la vulnerabilità di non essere riconosciuti dal proprio gruppo, di essere rifiutati o di essere soli.

È proprio qui che l'”autonomia” umana sperimentata si differenzia in modo fondamentale dall'”autonomia” di un sistema AI. Quest’ultima è intesa soprattutto come la capacità di intraprendere un’azione sulla base dei propri calcoli, senza ottenere la conferma di un operatore. Le preoccupazioni sociali sono irrilevanti per la macchina, poiché non è vulnerabile. La macchina non si preoccupa di esaurire l’energia elettrica o di essere rottamata, perché l’idea della morte in senso umano non può essere trasmessa alla macchina.26

Verso una definizione ponderata dei sistemi di IA e della loro distinzione rispetto all’essere umano.

Il dibattito sulla presunta somiglianza dei sistemi di IA con gli esseri umani si è concentrato su una serie di caratteristiche che possono essere utilizzate come base per definire questi sistemi informatici: il loro corpo fisico, i dati e la loro elaborazione, le fonti di obiettivi definiti e l’autonomia. La Figura 1 riassume gran parte della discussione. La colonna di sinistra mostra le manifestazioni dei sistemi di IA nelle nostre leggende moderne, cioè nella fantascienza. Le colonne centrale e destra, rilevanti per la presente trattazione, descrivono i sistemi di IA che esistono nella pratica o che sono almeno oggetto di una seria sperimentazione. Le proprietà del sistema evidenziate in blu sono proprietà che richiedono ancora un alto grado di ricerca e non funzionano ancora in modo affidabile, ad esempio l’elaborazione di dati non strutturati. I rispettivi modelli, dati, metodi di apprendimento, obiettivi e gradi di autonomia determinano i processi cognitivi che un determinato sistema di AI può eseguire. Per questo motivo, queste caratteristiche sono elencate sotto le funzioni cognitive dell’IA. Inoltre, viene fatta una distinzione a seconda che un sistema di IA sia o meno un software dietro un sistema fisico tecnicamente autonomo (in realtà solo eteronomo); a seconda che ci si riferisca o meno a un’entità puramente virtuale o a un sistema hardware che incorpora le caratteristiche descritte. Esistono esempi pratici di entrambi i tipi di sistema. I sistemi AI puramente virtuali sono, ad esempio, gli assistenti vocali digitali come “Alexa” di Amazon o “Speech Assistant” di Google. D’altra parte, i sistemi fisici, come le auto autonome, sono dotati di attuatori che, per un determinato sistema, traducono le azioni calcolate da un algoritmo in movimenti meccanici. In tutti i casi, è bene parlare sempre di un “sistema di AI”, perché in genere un gran numero di algoritmi sono collegati tra loro, integrati dai database corrispondenti e dagli elementi (motori o virtuali) del sistema in esecuzione. Un sistema di AI nel suo complesso spesso sembra intelligente agli occhi degli esseri umani. Tuttavia, la qualifica di sistema AI non dipende da questa caratteristica.

In questo contesto, vorrei definire un sistema di AI come un sistema informatico virtuale e/o fisico integrato, in grado di eseguire in modo indipendente un’ampia gamma di funzioni cognitive. Queste funzioni si basano (almeno in parte) su insiemi di dati non strutturati e ricchi di contenuti. Sono in grado di eseguire azioni efficaci, anche senza l’intervento umano, sulla base di funzioni cognitive che possono calcolare atti di percezione, pianificazione, conclusione, comunicazione e decisione.

Se ora prendiamo questa definizione e diamo uno sguardo collettivo a tutte le aree descritte in questo articolo, in cui i sistemi di IA differiscono fondamentalmente dagli esseri umani, sorge la domanda su come gli esperti arrivino all’idea di attribuire la somiglianza con gli esseri umani ai sistemi di IA. Gli esseri umani condividono sequenze identiche di coppie di basi di DNA con altri mammiferi. Si ritiene che queste sequenze siano identiche al 90% negli esseri umani e nei maiali. Ma a nessuno verrebbe in mente di confondere uomo e maiale. E nessuno si sognerebbe di definire per i maiali diritti simili a quelli definiti per gli esseri umani.

Da questa prospettiva etica critica, ci si chiede se sia accettabile equiparare gli esseri umani ai sistemi AI, o se questa pratica (ormai comune) equivalga di fatto a una diffamazione umana. Il mondo della tecnologia, plasmato dal marketing e dal clamore mediatico, presta troppa poca attenzione all’uso consolidato dei termini e quindi si impegna in un esercizio di funambolismo per il quale Hastak e Mazis hanno coniato il termine ‘inganno per implicazione’ (Hastak/Mazis, 2011).

Nietzsche può dire con umorismo: “Aspro e mite, rozzo e sottile, familiare e stravagante, laido e puro, di folli e saggi un convegno: tutto questo son io e voglio essere, colomba a un tempo e serpente e maiale” (Nietzsche, La gaia scienza, 1882).

Figura 1: Caratteristiche dei sistemi di IA realistici e non realistici

Bibliografia

  • Ajzen, I. / Fishbein, M. (2005): L’influenza degli atteggiamenti sul comportamento. Mahwah, New Jersey, USA: Erlbaum.
  • Baddeley, A. / Eysenck, M. W. / Anderson, M. C. (2015): La memoria. New York: Psychology Press.
  • Bérard, B. (2018): “Smascherare l’AI”. Blog. https://philos-sophia.org/ unmasking-ai/.
  • Bostrom, N. (2014): Superintelligenza: Szenarien einer kommenden Revolution. Berlino: Suhrkamp Verlag.
  • Csikszentmihalyi, M. (1991): Flow: La psicologia dell’esperienza ottimale. New York: Harper Collins.
  • Damasio, A. R. / Everitt, B. J. / Bishop, D. (1996): “L’ipotesi del marcatore somatico e le possibili funzioni della corteccia prefrontale”. In: Philosophical Transactions: Biological Sciences, 351(1346), S. 1413-1420.
  • Deci, E.L. / Ryan, R.M. (2000): “Il ‘Cosa’ e il ‘Perché’ della ricerca di obiettivi: i bisogni umani e l’autodeterminazione del comportamento”. In: Psychological Inquiry, Vol. 11, No. 4/2000, S. 227-268.
  • Deci, E. L. / Vansteenkiste, M. (2004): La teoria dell’autodeterminazione e la soddisfazione dei bisogni fondamentali: comprendere lo sviluppo umano nella psicologia positiva. In: Ricerche di Psicologia (27), S. 17-34.
  • Epley, N. / Waytz, A. / Cacioppo, J. T. (2007). “Vedere umano: una teoria a tre fattori dell’antropomorfismo”. In: Psychological Review, 114(4), S. 864-886.
  • Feser, E. (2013): “I fantasmi di Kurzweil – Una recensione di Come creare una mente: il segreto del pensiero umano rivelato. First Things”. https://www.firstthings.com/ article/2013/04/kurzweils-phantasms.
  • Fuchs, T. (2016): Das Gehirn – ein Beziehungsorgan: Eine phänomenologischökologische Konzeption (5. Aufl.). Stoccarda: Kohlhammer.
  • Gehring, R. (2004): “Es blinkt, es denkt. Le Verfahren delle Neurowissenschaften, sia che si tratti di bildgebenden che di weltbild gebenden”. In: Philosophische Rundschau, 51, S. 272-295.
  • Gunkel, D. J. (2018): Diritti dei robot. Cambridge, USA: MIT Press.
  • Hastak, M. / Mazis, M. B. (2011): “Inganno per implicazione: una tipologia di affermazioni pubblicitarie e di etichettatura veritiere ma fuorvianti”. In: Journal of Public Policy & Marketing, 30(2), S. 157-167.
  • Hatmaker, T. (2017): “L’Arabia Saudita conferisce la cittadinanza ad un robot di nome Sophia”. In: Tech Crunch. https://techcrunch.com/2017/10/26/saudi-arabia-robot-citizen-sophia/.
  • Hawkins, J. (2017): ‘Cosa le macchine intelligenti devono imparare dalla neocorteccia’. In: IEEE Spektrum, 54(6), S. 33-37.
  • Husserl, E. (1993): Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie (5. Aufl.). Berlino: De Gruyter.
  • Jenson, D. / Iacoboni, M. (2011): “Biomimesi letteraria: i neuroni specchio e la priorità ontologica della rappresentazione”. California Italian Studies, 2(1). http://www.neurohumanitiestudies.eu/archive /paper/?id=150.
  • John S. McCain: Legge di autorizzazione alla difesa nazionale per l’anno fiscale 2019 (2018).
  • Kierkegaard, S. (2005): Die Krankheit zum Tode – Furcht und Zittern – Die Wiederholung – Der Begriff der Angst, München: DTV.
  • Krempl, S. (2018): “Lo Streit über “Persönlichkeitsstatus” von Robotern kocht hoch”. In: heise online. https://www.heise.de/newsticker/meldung/Streit-ueber-Persoenlichkeitsstatus-von-Robotern-kocht-hoch-4022256.html.
  • Kurzweil, R. (2006): La Singolarità è vicina – Quando gli esseri umani supereranno la biologia. Londra: Penguin Group.
  • McGilchrist, I. (2009): Il Maestro e il suo Emissario – Il cervello diviso e la creazione del mondo occidentale. New Haven e Londra: Yale University Press.
  • McClelland, D. (2009): Motivazione umana. Cambridge, Regno Unito: Cambridge University Press.
  • Meier, K. (2017): ‘Il cervello come computer – Il cervello può essere pessimo a snocciolare numeri, ma è una meraviglia di efficienza computazionale’. In: IEEE Spektrum, 54(6), S. 27-31.
  • Nietzsche, F. (1882): Die Fröhliche Wissenschaft. Ditzingen: Reclam.
  • Parasuraman, R. / Sheridan, T. B. (2000): “Un modello per i tipi e i livelli di interazione umana con l’automazione”. In: IEEE Transactions on Systems, Man, and Cybernetics, 30(3), S. 286-297.
  • Reiss, S. (2004): “Natura sfaccettata della motivazione intrinseca: la teoria dei 16 desideri di base”. In: Rivista di Psicologia Generale, 8(3), S. 179-193.
  • Rosa, H. (2016): Resonanz. Eine Soziologie der Weltbeziehung (2. Aufl.). Berlino: Suhrkamp Verlag.
  • Roth, G. (2001): Fühlen, Denken, Handeln. Come si costruisce il Gehirn delle nostre vite. Francoforte sul Meno: Suhrkamp Verlag.
  • Ryan, R. M. / Deci, E. L. (2000): “La teoria dell’autodeterminazione e la facilitazione della motivazione intrinseca, dello sviluppo sociale e del benessere”. In: American Psychologist, 55, S. 68-78. https://dx.doi.org /10.1037/0003-066X.55.1.68.
  • Scheler, M. (1921, 2007): Der Formalismus in der Ethik und die Material Wertethik – Neuer Versuch der Grundlegung eines ethischen Personalismus (2. unveränderte Aufl.). Halle an der Saale: Verlag Max Niemeyer.
  • Schmidhuber, J. (2010): “Teoria formale della creatività, del divertimento e della motivazione intrinseca” (1990-2010). In: IEEE Transactions on Autonomous Mental Development, 2(3), S. 230-247.
  • Sennett, R. (2009): L’artigiano. New York: Penguin Books
  • Spiekermann, S. (2019a, 23./24. März 2019): “Der Mensch als Fehler”. Süddeutsche Zeitung, 15.
  • Spiekermann, S. (2019b): Digitale Ethik – Ein Wertesystem für das 21. Jahrhundert. München: Droemer.
  • Spiekermann, S. (2020): “Digitale Ethik und Künstliche Intelligenz”. In: Philosophisches Handbuch Künstliche Intelligenz. Hrsg. v. Mainzer, K. München: Springer Verlag. (Im Erscheinen).
  • Vallerand, R. J. (1997): “Verso un modello gerarchico di motivazione intrinseca ed estrinseca”. In: Advances in Experimental Social Psychology, 29, S. 271-360.
  • Vroom, V. H. (1964): Lavoro e motivazione. New Jersey, USA: John Wiley & Sons Inc. Wendt, A. (2015): Quantum Mind and Social Science – Unificare l’ontologia fisica e sociale. Cambridge UK: Cambridge University Press.

Note

  1. Grazie a Friedemann Mattern, Johannes Hoff e Jana Korunovska, che hanno rivisto questo articolo e mi hanno fornito i loro commenti critici[]
  2. Sono consapevole che questo presupposto è minato dagli attuali esperimenti che tentano di implementare il software su materiali organici (vedere ad esempio: https:// www.pnas.org/content/117/4/1853 o https://royalsocietypubli-shing.org/doi/ full/10.1098/rsif.2017.0937). Tuttavia, questi esperimenti sono in una fase di sviluppo così precoce che difficilmente potranno essere presi sul serio in contesti accademici a partire dall’anno 2020; in particolare, la capacità di verificare le reazioni da parte dei materiali organici non è compatibile con gli attuali paradigmi della nostra meccanica computazionale e della statistica: ad esempio, la prevedibilità, la tracciabilità o la ripetibilità delle operazioni.[]
  3. “Se, in filosofia, c’è un prima e un dopo Immanuel Kant (1724-1804), è perché egli ha invertito il significato di intelletto (Verstand) e ragione (Vernunft) come inteso da tutti i filosofi precedenti: da Platone, Aristotele, Plotino e Sant’Agostino fino a San Tommaso d’Aquino, Dante, Leibniz, Malebranche e oltre, tutti ritenuti in preda a un’illusione che solo lui era in grado di riconoscere e dissipare! In accordo con la sua convinzione che l’intuizione può essere solo sensibile o empirica, elevò la ragione al rango più alto delle facoltà cognitive, presumibilmente in grado di rendere l’intelligibilità sintetica, sistematica, universale e unificata. Da quel momento in poi, l’intelligenza o l’intelletto vennero considerati inferiori alla ragione: una facoltà secondaria responsabile di elaborare le astrazioni, di dotare l’esperienza sensibile di una forma concettuale e di collegare i concetti risultanti in modo da costituire una struttura coerente – fino a quando, infine, fu trasformata in conoscenza discorsiva, cioè divenne ‘ragione'”. (Bérard, 2018).[]
  4. “Non possiamo assolutamente pensare ciò che non possiamo pensare” (G.E. Moore[]
  5. I bravi insegnanti riescono a spiegare le cose in modo chiaro, se mai, attraverso analogie e storie. Tali spiegazioni di solito iniziano con le seguenti parole: “Immagina…”: “Pensa a…”.[]
  6. https://en.wiktionary.org/wiki/nous#Etymology.[]
  7. Ecco perché è così bello sentire parlare una persona intelligente, perché riconosciamo immediatamente e intuitivamente che ha ragione. Di solito non è possibile dire perché pensiamo che la persona intelligente abbia ragione, ma condividiamo con essa una comprensione della realtà[]
  8. cfr.: “La nostra percezione… è… il prodotto di forme corporee di percezione sinestetica. Al loro punto di partenza, troviamo sempre quello che l’estetica aristotelica chiama il sensus communis (senso comune). Vediamo “l’acqua che gorgoglia”, sentiamo “suoni brillanti di campane”, vediamo un “impatto duro”, sentiamo “l’aroma pungente del fieno” – e solo in seguito impariamo ad attribuire “il gorgogliare”, “il brillante” e “il duro e pungente” a diverse modalità sensoriali che sono analiticamente isolate l’una dall’altra e possono essere presumibilmente attribuite a “impressioni sensoriali elementari prescritte” (uditive, visive, tattili, olfattive o gustative)” ;comunicazione privata, Hoff, 2020.[]
  9. Cfr. : “Prendiamo l’esempio di una simulazione che Markus Diesmann e i suoi colleghi hanno effettuato diversi anni fa utilizzando quasi 83.000 processori sul supercomputer K in Giappone. La simulazione di 1,73 miliardi di neuroni ha consumato 10 miliardi di volte più energia di una porzione di cervello di dimensioni equivalenti, anche se utilizzava modelli altamente semplificati e non effettuava alcun apprendimento… Il gruppo TrueNorth di IBM, ad esempio, ha recentemente stimato che una trasmissione sinaptica nel suo sistema costa 26 picojoule. Sebbene si tratti di circa mille volte l’energia della stessa azione in un sistema biologico, si avvicina a 1/100.000 dell’energia che verrebbe consumata da una simulazione eseguita su una macchina convenzionale di uso generale” (pagg. 29 e 31 in Meier, 2017.[]
  10. Sono consapevole che diversi scienziati, come Daniel Dennett, sostengono che la mancanza di capacità di risonanza (“Resonanzfähigkeit“) di un sistema non dipende dalle sue proprietà materiali. Tuttavia, non c’è alcuna prova di questo argomento. Il fatto è che i computer non avranno corpi risonanti nel prossimo futuro.[]
  11. Si veda anche il mio articolo sulla scarsa immagine dell’umanità nel nostro tempo (Spiekermann, 2019a) e le fonti storiche di questo modo di pensare (Spiekermann, 2019b.[]
  12. Si noti qui che le competenze tecniche dell’IA, cioè i componenti tecnici che eseguono determinati algoritmi, devono essere distinte da ciò che Richard Sennett definisce “abilità” (Sennett, 2009[]
  13. Vale la pena notare che in alcuni momenti dell’interazione con i robot, questi sembrano estremamente vulnerabili, non da ultimo a causa delle loro reazioni altruistiche e, di conseguenza, sembrano umani (cfr. Spiekermann, 2019b). Inoltre, è importante notare che naturalmente non dubito delle persone che affermano di agire spesso in modo altruistico o disinteressato. È semplicemente normale per noi investire in azioni altruistiche. E anche nelle forme di azione altruistiche, la psiche e la motivazione giocano un ruolo.[]
  14. Si veda ad esempio la “teoria dell’azione ragionata” o la “teoria del comportamento pianificato” (cfr. Ajzen/Fishbein, 2005.[]
  15. La parte autonoetica della memoria è una parte della memoria a lungo termine e la parte che riflette la personalità sviluppata di una persona.[]
  16. A sua volta, la parola ‘noemata’, con la radice etimologica comune di noûs, ci rimanda alla condivisione, a ciò che è inteso come condiviso dalla comunità.[]
  17. Roth (2001), 338.[]
  18. Qui con riferimento all’estetica di Aristotele: Fuchs (2016), 187 sq. e Aristotele, De Anima (Sull’anima), III, 430 sq.[]
  19. Kierkegaard, S. (2005). Die Krankheit zum Tode – Furcht und Zittern – Die Wiederholung – Der Begriff der Angst. München: DTV.[]
  20. Si veda ad esempio Scheler (1921, 2007[]
  21. Un modello di dati nuovo è classificato come ‘nuovo’. Questo ‘nuovo’ è automaticamente buono. I ‘componenti di apprendimento per rinforzo’ massimizzano se stessi e ‘premiano’ il sistema sottostante.[]
  22. Nota bene: “intrinseco” significa “che viene da dentro”.[]
  23. Solo la curiosità primitiva è un motivo (per molti), dove la novità nella sua forma pura può essere buona.[]
  24. Infatti, Ryan e Lynch (1989) hanno dimostrato come l’autonomia possa essere associata positivamente alle relazioni e al benessere. “L’autonomia implica l’essere volontari, l’agire in base al proprio senso di sé integrato e l’approvazione della propria azione. Non implica l’essere separati, non dipendenti o indipendenti dagli altri” (Deci/Ryan 2000, 242).[]
  25. Cfr. Spiekermann (2020).[]
  26. Un sistema di intelligenza artificiale potrebbe ovviamente incorporare una funzione che riduce al minimo la disattivazione o la fucilazione. Svilupperà quindi strategie comportamentali che evitano tali possibilità. Questo limita l’autonomia della macchina, ma questa limitazione non è sociale, come nel caso degli esseri umani.[]