Introducción: Cinco tesis sobre los límites de los sistemas de IA

1. Cuando personajes de la talla de Bill Gates o Elon Musk advierten públicamente de los peligros de los sistemas de IA en la actualidad, el profano en cuestiones técnicas no duda en asociar estas advertencias con las distopías de la ciencia ficción. Películas como Terminator, Blade Runner y Ex Machina han conformado la concepción pública de lo que se supone que son los sistemas de IA: normalmente un robot con cuerpo humanoide e inteligencia humanoide, o un agente de software virtual como el ordenador de a bordo HAL en 2001: Una odisea del espacio de Stanley Kubrick. No sólo los profanos comparten esta idea casi reguladora de nuestro futuro: muchos expertos creen que pronto aparecerán sistemas de IA de este tipo, sistemas diseñados para parecerse sorprendentemente a los humanos y, sin embargo, ser mucho más inteligentes que nosotros (Bostrom, 2014; Kurzweil, 2006). Si adoptáramos acríticamente este supuesto escenario, deberíamos temer a los sistemas de IA descritos tanto como el hombre antiguo temía al mundo de los dioses (que se representaban con una forma similar a la del hombre). Sin embargo, no debemos olvidar que las historias de ciencia ficción no son más que leyendas modernas. Por supuesto, la historia de las ideas siempre ha tenido una mirada crítica sobre las leyendas. Las leyendas son importantes para el pensamiento crítico. Sin embargo, no deben utilizarse como base para la política pública y la toma de decisiones económicas.

 En este artículo, sostengo que los sistemas de IA no son en absoluto «heroicos» o «superinteligentes», como sugieren las leyendas contemporáneas. Más bien, pretendo describir estos sistemas tal y como son en su limitada capacidad de procesamiento. Este tratamiento objetivo parece necesario desde hace tiempo, ya que documentos políticos como la Ley de Autorización de Defensa Nacional (Congreso de EE.UU., 2018) describen los sistemas de IA como «similares a los humanos» y, al hacerlo, se acercan escandalosamente a la ciencia ficción. Más allá del Congreso de EE.UU., la idea se ha extendido tanto que las entidades políticas han empezado a considerar la posibilidad de conceder derechos «similares a los humanos» a los sistemas de IA («Derechos de los robots»; Gunkel, 2018). Incluso se han concedido ciudadanías nacionales a estos sistemas (Hatmaker, 2017) y la idea de una entidad jurídica independiente para la IA se ha planteado en documentos oficiales del Parlamento Europeo (Krempl, 2018). Atribuir una naturaleza humana a los sistemas de IA confiriéndoles los derechos correspondientes puede socavar la libertad y la dignidad de los seres humanos, pero de una forma muy grave. Se harían necesarias nuevas normas éticas para tratar con esta nueva «especie» en todos los ámbitos de la vida. ¿Está mal dar una patada a un robot? ¿Matamos a un robot cuando lo inutilizamos o cortamos su suministro eléctrico? ¿Engañar a su pareja con un robot ofende la dignidad de la pareja humana? Surgiría una gama prácticamente inagotable de cuestiones éticas, con el correspondiente volumen de normativas que se derivarían. Por ello, este artículo se centra específicamente en la cuestión de si es aceptable describir los sistemas de IA como similares a los humanos. Sólo presento algunas modestas comparaciones de las capacidades cognitivas de los sistemas de IA con las de la inteligencia humana. No me cabe duda de que, en el futuro, los sistemas de IA dispondrán de una potencia de cálculo aún más impresionante que la actual. Siempre que la IA disponga de datos de entrada de alta calidad, esté entrenada y sea sensible al contexto, podría llegar a ser tan poderosa que no sólo será útil en ámbitos de aplicación estrechamente definidos, sino que podrá enriquecer realmente los procesos humanos de toma de decisiones. Sin embargo, a pesar de esta esperanza de mejorar el rendimiento, los sistemas de IA nunca llegarán a ser similares a los humanos por las siguientes razones inherentes a su naturaleza:

  1. Los sistemas de IA disponen de poca información de tipo humano
  2. Los sistemas de IA no pueden reaccionar como los humanos
  3. Los sistemas de IA no pueden pensar como los humanos
  4. Los sistemas de IA no tienen motivación humana
  5. Los sistemas de IA no tienen una autonomía comparable a la de los humanos

Estas cinco tesis se basan en el supuesto de que los sistemas informáticos seguirán fabricándose a partir de materiales inorgánicos y funcionarán de forma digital2.

Sobre la distinción clásica entre razón (‘Vernunft’) e inteligencia (‘Intelligenz’)

Permítanme dejar claro desde el principio que me estoy basando en la distinción clásica entre razón («Vernunft«) e inteligencia («Intelligenz«), dos términos que parecen confundirse con frecuencia en nuestro mundo moderno3: Para los grandes filósofos desde la Antigüedad clásica hasta el final de la Edad Media, la razón humana («Vernunft«) es la capacidad de reunir argumentos racionales, datos y hechos, etc., comprenderlos y combinarlos de forma fácticamente lógica (griego: dianoia, latín: ratio). Los seres humanos normales pueden aprender a actuar con la razón, por ejemplo, a recopilar información, recordarla, recuperarla y combinarla. La mayor parte del tiempo, el ser humano controla este proceso. A diferencia de la razón, la inteligencia («Intelligenz, Verstand», griego: noûs, latín: intellectus) consiste en la capacidad de comprender realmente la información, de separar lo que es importante de lo que no lo es, de hacer abstracciones, de pensar las cosas o simplemente de ver lo que es crucial en un asunto determinado y lo que no lo es. Los humanos tenemos poco control sobre este intellectus: no podemos obligarnos a entender algo que no entendemos.4. Por eso atribuimos al hombre diversos grados de una inteligencia única.

Entonces, ¿cómo se manifiesta la inteligencia frente a la razón racional? En primer lugar, la siente el cuerpo: la presión sanguínea sube cuando nos alegramos de haber comprendido algo, o disfrutamos de cierta facilidad cuando nuestra propia pericia coincide con los requisitos de una tarea (Csikszentmihalyi, 1991). En segundo lugar, apenas es posible recapitular punto por punto qué es exactamente lo que desencadena el momento de comprensión o «iluminación». La verdadera comprensión, que es inmanente a la acción inteligente (y no mecánica), sólo puede hacerse tangible (dingfest) hasta cierto punto, y mucho menos recapitularse en unidades de información claramente delimitadas5. En tercer lugar, cabe señalar que la inteligencia -en oposición a la razón- se denomina en los estudios clásicos «noûs», la misma palabra que el francés «nous«, el alemán «wir» y el inglés «we»6. Esta raíz etimológica común remite a la idea de que la inteligencia está vinculada de algún modo a establecer una conexión con el mundo que nos rodea: las cosas, la naturaleza u otras personas, etc. La inteligencia es una forma de comprensión compartida7. Cuando resulta imposible construir este tipo de comprensión compartida, nos apresuramos a decir: «¡No consigo establecer la conexión!

Este concepto de «conexión con el mundo» me parece central para comprender la diferencia entre la inteligencia humana y la inteligencia artificial8. Es la base de la distinción entre razón e inteligencia: la razón descompone neutralmente una situación en elementos individuales, los analiza objetivamente sin reacciones corporales y toma decisiones lo más claramente comprensibles posible punto por punto. La inteligencia, en cambio, requiere que nos relacionemos con algo, que tenga sentido para nosotros. La conclusión de este artículo será que los sistemas de IA pueden ejercer la razón, pero no son inteligentes. La razón es, en última instancia, que los sistemas de IA no son capaces de conectarse con el mundo de forma inteligente; el mundo «no significa nada para ellos», no hay un «noûs» perceptible para ellos.

Los sistemas de IA tienen poca información comparable a la de los humanos

Los seres humanos son sistemas cuerpo/alma altamente sensibles e integrados (Damasio/Everitt/Bishop, 1996) que están en constante resonancia con su entorno (Rosa, 2016). De hecho, los seres humanos somos sistemas tan poderosos que algunos científicos afirman ahora que ya no podemos evitar la teoría de que nos vemos como ordenadores cuánticos andantes (Wendt, 2015). Aunque no puedo juzgar aquí la validez de esta teoría, creo que todos podemos estar de acuerdo en que los seres humanos utilizan constantemente todo su cuerpo para procesar la información óptica, acústica, táctil, gustativa y olfativa de su entorno. «Nuestra percepción… es… el producto de formas sinestésicas de percepción específicas del cuerpo», escribe Johannes Hoff. Por lo tanto, los sistemas de IA similares a los humanos requerirían en primer lugar un «cuerpo» motor-sensorial con las mismas facultades y que procesara el entorno de una forma igual de completa. Sin embargo, el estado de la técnica está aún lejos de conseguirlo. Los superordenadores más potentes de la actualidad sólo pueden simular entre el uno y el dos por ciento de la actividad neuronal de un cerebro humano, lo que requiere mil veces más energía de la que necesita nuestro sistema biológico (Meier, 2017)9. Un cerebro humano tiene más de 860.000 billones de neuronas unidas entre sí por más de un quintillón de sinapsis. En el pasado, se pensaba que los humanos aprendían alterando la eficacia de las sinapsis existentes. Esta idea también sirvió de base para el aprendizaje automático, por lo que se dice que los sistemas de inteligencia artificial entrenan «neuronas». Hoy, sin embargo, la neurociencia nos dice que los seres humanos están constantemente formando nuevas sinapsis entre las neuronas. En otras palabras: el cerebro se está recableando constantemente. Si nos guiamos por fuentes técnicas, hasta el 40% de las sinapsis de una neurona se sustituyen cada día. Por ello, un autor algo descorazonado en el campo de la IA concluyó recientemente: «Si bien es cierto que las técnicas actuales de IA hacen referencia a la neurociencia, utilizan un modelo demasiado simplificado de neuronas que omite características esenciales de las neuronas reales, y están conectadas de una forma que no refleja la realidad de la compleja arquitectura de nuestro cerebro» (p. 35 en Hawkins, 2017). Así pues, el hecho es que el procesamiento humano altamente diverso, matizado y rico de la información sobre nuestro entorno es infinitamente más fino y flexible que cualquier cosa que podamos esperar que hagan las máquinas en un futuro previsible y con unos costes energéticos viables. Sin embargo, si la información recogida por los sistemas de IA es diferente y se procesa de forma más aproximada, ¿cómo puede un sistema de IA ser «similar al humano»? Con menos datos, menos entrada sensorial y un procesamiento menos potente y completamente diferente de la información sobre el entorno, los sistemas de IA probablemente seguirán pareciéndonos «torpes» durante algún tiempo.

Dicho esto, los sistemas de IA tienen sin duda algo que aportar a este mundo. Un gran número de sensores que los humanos no tenemos pueden integrarse en sus cajas. Y esta información puede compartirse eficazmente entre los sistemas de IA a través de una red global. Dependiendo de cómo estén configurados, los sistemas de IA pueden, por ejemplo, medir los niveles de radiactividad, calor o humedad, determinar el número de redes WiFi en uso en una zona determinada o identificar los muebles de los edificios cercanos (por ejemplo, cuando los muebles están etiquetados con chips RFID que funcionan en determinadas bandas de frecuencia). Los sistemas de IA como los robots móviles podrían (en la medida en que esto esté oficialmente permitido) acceder al perfil sociodemográfico de cada peatón que pase por los mercados internacionales de datos o determinar con relativa certeza su estado de ánimo actual basándose en el análisis óptico de las expresiones faciales. Aunque los sistemas de IA no pueden conectarse con el mundo vivo y sensorial del mismo modo que los humanos debido a la ausencia de sistemas sensoriales corporales y a la inexistencia de cuerpos vivos parecidos a los humanos, pueden conectarse en red entre sí y agregar enormes cantidades de datos. El resultado es una relación-máquina totalmente independiente, que puede ser importante para la vida y las economías humanas, pero que no es en absoluto humana.

Los sistemas de IA no pueden reaccionar como los humanos

Cuando las personas reaccionan ante su entorno, su inteligencia en el sentido del «noûs» se manifiesta de una forma muy particular. Las personas establecen un vínculo normal con el mundo reaccionando directa y emocionalmente. Esto es importante en todas las situaciones de la vida. Tomemos el ejemplo de una situación cargada de emoción en la que somos testigos de una injusticia. Cuando nos enfrentamos a situaciones con connotaciones negativas como la injusticia, la crueldad, la brutalidad u otras cualidades similares, nuestro lenguaje tiene expresiones para expresar el sentimiento de valores negativos que experimentamos directamente. Por ejemplo, podemos decir que lo que vemos «nos hace doler el estómago», «nos produce escalofríos» o «nos eriza los pelos de la nuca». Pero nuestra comprensión no sólo se guía por ese sentido de los valores negativos. La mayoría de los valores que dan sentido a nuestras vidas – la simpatía, el amor, la amistad, la comunidad, la seguridad, etc. – se nos manifiestan a los humanos. – se nos manifiestan a los humanos a través del hecho de que nos sentimos emocionalmente atraídos (o repelidos) (Scheler, 1921, 2007).

El sentimiento de atracción o repulsión es decisivo para nuestra forma de estar con el mundo.

Baste decir que ningún sistema informático o de IA de ninguna generación tiene un cuerpo vivo capaz de experimentar esas sensaciones ni nada parecido. Una caja de acero no tiene malestar estomacal y ninguna emoción recorre su columna vertebral10. Un robot humanoide podría decir que le duele el estómago. La reacción de la máquina consistiría entonces en esta afirmación lingüística. Sin embargo, esta simulación de una similitud con los humanos no convierte al sistema de IA en verdaderamente humano. Las personas pueden disfrutar de la simulación. Pero simulación no significa «parecerse a los humanos». Significa «pretender ser humano». Los expertos estarán de acuerdo en que existe una diferencia éticamente significativa entre una entidad que «se parece» a algo y una entidad que «pretende» parecerse a algo.

Otro aspecto interesante de este ejemplo de simulación de dolores de estómago y escalofríos es que la verdadera similitud con los humanos a menudo ni siquiera es deseable para la IA. Epley, Waytz y Cacioppo (2007) demuestran que muchas personas disfrutan con los antropomorfismos sólo por un sentimiento de soledad. ¿No sería agradable tener un amigo IA muy empático que fuera al mismo tiempo tan neutral que nos sintiéramos reconfortados por la interacción? Una interacción que siga las reglas de la empatía, pero que en realidad esté desprovista de emociones, parece ser cada vez más el ideal para una generación cuya confianza en la humanidad está por los suelos11.

En mi opinión, esta falta de confianza no hace justicia a la naturaleza humana: la capacidad humana de ser empático está correlacionada con la actividad de las neuronas espejo, que nos permiten ser seres altamente sociales que se sienten cercanos a su entorno y, por tanto, son capaces de preocuparse genuinamente por él (Jenson/Iacoboni, 2011). Los sistemas de IA, en cambio, no tienen neuronas espejo y, por tanto, no pueden preocuparse. Dicho esto, los sistemas de IA podrían a medio plazo hacer un mayor uso de sensores capaces de reconocer las emociones y reacciones humanas. Los ordenadores ya son capaces de medir con precisión los diminutos signos faciales de emoción, la dilatación de las pupilas o las reacciones cutáneas. Sobre esta base, pueden extraer conclusiones relativamente fiables sobre el estado de ánimo de un ser humano en un momento dado. Además, los sistemas de IA pueden poseer las habilidades técnicas necesarias para responder razonablemente a estas observaciones12. Aquí utilizo intencionadamente el término «razonable», porque el sistema informático no es capaz de actualizar un «noûs» y conectar emocionalmente con su homólogo humano. Sin embargo, puede calcular un modelo racional de la contraparte humana basado en la «razón» y, a continuación, llevar a cabo determinadas reacciones predeterminadas o aprendidas. La cuestión es si queremos considerar estas reacciones de la máquina como ‘inteligentes’ en el sentido humano, porque en realidad sólo son racionales.

Lo que hace que un ser humano sea «inteligente» es que sea uno con el mundo, que comprenda el entorno de forma emocional e inteligente. Para ello, necesita ser consciente de sí mismo. Debe ser capaz de reaccionar conscientemente a su entorno en el sentido de una conexión. Si la conexión no es consciente, estaremos de acuerdo en que no es inteligente, sino subconsciente o simplemente intuitiva (como un animal). En el caso de los sistemas de IA, es este aspecto de la consciencia el que falta: El sistema de IA no tiene un yo consciente a través del cual pueda conectar con su homólogo humano, por lo que cada reacción de la IA debe reaccionar irónicamente «sin un yo». Aunque esto complace a muchos defensores de la IA, no tiene nada de humano.13

Los sistemas de IA no pueden pensar como los humanos

Cuando los sistemas informáticos «piensan», lo que realmente están haciendo es calcular. Cualquier sistema informático, incluidas todas las formas de IA, se basa en datos que han sido codificados, procesados, clasificados en bases de datos, estructurados, integrados funcionalmente, descritos idealmente con metadatos y posiblemente vinculados a una ontología estandarizada. Lo que a menudo se describe como funcionalidad específica de la IA, como el aprendizaje automático (por ejemplo, con redes neuronales profundas), forma parte precisamente de esta arquitectura de procesamiento de datos. Esta funcionalidad hace posible no sólo almacenar datos brutos como información, sino también «representarlos» de forma significativa, e incluso modificar y hacer evolucionar estas representaciones. Los sistemas de IA pueden reconocer patrones y adaptarse a ellos, como nuestro lenguaje. Pueden entonces, en combinación con los conocimientos desarrollados en el campo de la lingüística, construir (sintetizar) modelos construidos que les permitan reconocer, analizar y ejecutar actos de habla.

Esta agregación puede ser continua en el procesamiento de datos asistido por IA. La información y las representaciones almacenadas cambian constantemente a medida que llegan nuevos datos. Si observamos visualizaciones de estos conjuntos de datos dinámicos en directo en la pantalla, podemos tener la impresión de que este flujo de datos y estos objetos de información cambiantes tienen una viveza propia, una viveza que yo llamo «existencia sintética». Esta existencia sintética es impresionante cuando se ve en acción. «Está parpadeando, está vivo» (Gehring, 2004) podría ser la reacción atónita de un observador impresionado por un sistema así. Pero con el debido entusiasmo, no debemos equiparar estas visualizaciones parpadeantes con una existencia similar a la de un ser humano. No son la vida misma, sino más bien una instanciación observada de los fenómenos reales de la vida (con muchas capas de abstracción lógica de por medio). La representación artificial nunca debe confundirse con la realidad subyacente.

La diferencia entre el pensamiento humano y el procesamiento artificial de la información es que los humanos no suelen calcular utilizando datos con la ayuda de un modelo. Sé, por supuesto, que en psicología y economía existe una larga tradición de modelar la toma de decisiones humana de esta forma. Por desgracia, seguimos utilizando la idea del homo oeconomicus para representar al hombre como una especie de calculador de «preferencias optimizadas». En psicología, utilizamos modelos como la teoría de la acción razonada14 para explicar cómo actúa el ser humano. Existen innumerables modelos que describen el pensamiento humano. Pero cualquier científico razonable sabe también que todos estos modelos que analizan las decisiones humanas construyendo cajas saben también que representan poco más que una heurística del pensamiento humano. Esto no hace que los modelos sean superfluos. La heurística es científicamente importante para nuestra comprensión de nosotros mismos, de la sociedad y del cosmos en su conjunto. Pero no son capaces de representar plenamente ni de predecir con fiabilidad el comportamiento humano. A quienes no les guste este punto de vista, les recordamos amablemente los coeficientes de determinación y la magnitud del error asociados a cualquier análisis estadístico. Sólo en contadas ocasiones un ser humano, en una situación de toma de decisiones, desglosa meticulosamente los aspectos en componentes individuales, o parte de estos componentes y los recalcula junto con las ponderaciones adecuadas, o sigue modelos idénticos.

Por el contrario, parece cierto que el ser humano percibe y reorganiza normalmente su entorno en entidades holísticas, no sumativas, al menos si los dos hemisferios cerebrales funcionan juntos de forma saludable (McGilchrist, 2009). El hemisferio derecho, responsable de la percepción holística, interactúa con el hemisferio izquierdo, que estructura lo percibido (por ejemplo, mediante el centro del habla) (McGilchrist, 2009). eA principios del siglo XX, Edmund Husserl utilizó el concepto clásico de noemata para describir la naturaleza holística de nuestro pensamiento (Husserl, 1993). Los noemata nos permiten, como seres humanos, captar las estructuras de significado (Sinngestalten) de un fenómeno, y no lo hacemos utilizando datos individuales en cálculos ponderados para crear estas estructuras, sino que nos damos cuenta de ellas o se vuelven intuitivamente reales. Basándose en este conocimiento, en la neurociencia y en la investigación de la memoria, la memoria episódica humana se denomina «conciencia autonótica» (Baddeley/Eysenck/Anderson, 2015)15. En gran parte de nuestro pensamiento, los humanos actualizamos lo que observamos como noemata a los que hemos dado nombres. Siguiendo esta línea de razonamiento, podríamos decir, por ejemplo, que un humano puede compartir una idea de lo que significa ser bueno16. Cuando se produce un incidente en el entorno y alguien se comporta bien, los humanos lo reconocemos inmediatamente. Un sistema de inteligencia artificial, en cambio, no tiene una idea compartida de lo que es bueno. Puede ser entrenado para reconocer una secuencia de acontecimientos que los seres humanos han descrito como «buena» o «correcta» y, por tanto, puede incorporar la regla (aprendida o determinada) de que un buen humano se detiene en un semáforo en rojo. Pero entonces el sistema de IA sólo reconoce esta única manifestación de lo que es bueno (detenerse en un semáforo en rojo). Si alguien cruza el semáforo en rojo para salvar a un niño, el sistema de IA calculará que este acto no es bueno, a menos que ya haya aprendido antes exactamente esta secuencia (o la haya compartido con otros sistemas de IA distribuidos). En cambio, las personas son capaces de reconocer inmediatamente la idea de bondad en el escenario del rescate. En otras palabras, un sistema de IA sigue una «teoría de la mente» ascendente de reconocimiento de patrones (Feser, 2013). Los humanos, en cambio, utilizan un reconocimiento descendente de noemata (como la idea de lo que es bueno), que no puede expresarse en términos de puntos de datos, sino sólo como una forma holística de ser. Esta dinámica de pensamiento permite a la especie humana gestionar fácilmente el tsunami desestructurado de estímulos ambientales motores, sensoriales, ópticos, olfativos y táctiles. No requiere compilación ni traducción en unidades de datos, ni preprocesamiento, ni «entrenamiento» en cada modelo, ni campos de base de datos predefinidos, ni ontología, etc.

Por supuesto, soy consciente de que a algunos científicos (de varias disciplinas) no les gusta esta descripción fenomenológica de la forma en que pensamos. ¿Pensar en noemata? ¿Sin unidades de información medibles y finamente delimitadas que puedan sumarse? Les incomoda su visión bien estructurada y controlada del mundo. Puedo entender esta incomodidad. Al fin y al cabo, la mayoría de los científicos siguen aferrándose a lo que el teólogo Johannes Hoff denomina «metafísica del ladrillo de Lego» («Baukästchenmetaphysik«). Escribe: «Del mismo modo que Johannes Gutenberg ‘ensambló’ sus planchas de impresión con tipos móviles, el yo de Kant también ‘sintetiza’ objetos perceptibles a partir de ‘muchas y variadas’ impresiones sensoriales»17. Según Hume, el «yo» sintetizador puede incluso reducirse a un «haz de condiciones diferentes» 18 (Hoff, 2020). Sin embargo, parece que este modelo de pensamiento humano está a punto de extinguirse. Si nos atenemos a los últimos descubrimientos neurocientíficos, que forman parte de una tradición inteligente en las ciencias humanas, queda claro lo siguiente: «Si podemos hablar de una ‘máquina’, el cerebro no es una ‘máquina de sintetizar’ ni una ‘máquina de proyectar’, sino más bien una ‘máquina de inhibir’ o una ‘máquina de seleccionar’. El cerebro no genera lo »mental», sino que lo contrae en interacción con otros órganos y las correspondientes impresiones ambientales que limitan el ámbito de posibilidad de lo conocible y lo perceptible a formas más o menos discretas.»19

La diferencia entre sintetizar utilizando una máquina y pensar como un humano tiene implicaciones éticas. Los sistemas de IA sólo pueden procesar datos para los que disponen de las representaciones técnicas correspondientes (es decir, para los que han sido «entrenados»). Cometerán constantemente los errores más ridículos hasta que tengan una representación para cada situación concebible, especialmente las improbables. Emitirán juicios erróneos en cuanto se enfrenten a una situación que no haya sido incluida en su «entrenamiento». Sin embargo, esto puede resultar fatal, porque toda la vida humana es, en última instancia, una serie de repeticiones no idénticas y sensibles al contexto.20

Dado que los sistemas de IA pueden cometer errores que pueden ser más que molestos, o incluso peligrosos, para los humanos implicados, ahora encontramos casi exclusivamente lo que se conoce como «IA estrechas». Estos sistemas de IA se entrenan para un contexto cerrado y muy definido, en el que pueden aprender patrones de datos teóricamente posibles e incluso reconocer detalles y anticiparse a posibles acontecimientos que los humanos a menudo no ven. Sin embargo, esto ilustra una vez más por qué un sistema de IA no se parece en nada a un ser humano. La IA sufre de lo que se conoce como «infraadaptación» en el contexto abierto, general y no idénticamente repetido de la vida que comparten los humanos y los grupos. En cambio, es más precisa y previsora que un humano en contextos cerrados en los que se repiten patrones.

No comprender esta diferencia entre el pensamiento humano y el procesamiento de datos que llevan a cabo los sistemas de IA puede dar lugar a un uso éticamente problemático de la tecnología. El uso de la IA es problemático siempre que esté en juego la compleja situación de la vida de un ser humano. Un ejemplo es la cuestión de si un individuo dado es y seguirá siendo un delincuente, si cometerá o ya ha cometido un delito, si le irá bien en una universidad o en un trabajo determinados, etc. Las características no idénticas de los individuos humanos en una situación dada no son idénticas. Las características no idénticas de los individuos humanos en su repetición no idéntica de situaciones vitales, que experimentan en contextos no idénticos, son tan únicas que es imposible que un sistema de IA pueda aprehenderlas. Los sistemas de IA utilizados en medio de un terreno tan general de la vida corren el riesgo constante de no corresponder a la realidad.

Los sistemas de IA no tienen motivación humana

En la ciencia ficción, los sistemas de inteligencia artificial siempre se vuelven emocionantes cuando se fijan sus propios objetivos; por ejemplo, cuando el ordenador de a bordo HAL, en la película de Stanley Kubrick 2001: Una odisea del espacio, empieza a ser más astuto que el capitán de la estación espacial. Cuando los seres humanos se fijan metas conscientemente, lo hacen porque una acción, el resultado de esa acción o una forma de ser les parecen significativos y/o valiosos. A menudo, estas nociones no son metas definidas, sino valores que ejercen cierta atracción sobre los seres humanos y les motivan a actuar 21. La investigación sobre la motivación y el comportamiento lleva varias décadas examinando en detalle estos mecanismos y habla de «motivos» que se forman en los seres humanos de forma general, contextual o específica para cada situación (Vallerand, 1997). Un ser humano también puede tener una propensión general a adoptar un comportamiento determinado. McClelland distingue, por ejemplo, entre seres humanos con una tendencia relativamente pronunciada hacia el poder, el éxito o la afiliación (McClelland, 2009). Estas motivaciones intrínsecas se manifiestan repetidamente en contextos recurrentes (ocio, familia, estudios). Adoptan la forma de curiosidad, deseo de orden o cierto idealismo (Reiss, 2004). También hay motivaciones que son totalmente específicas de una situación, como el deseo de ganar o el deseo de que le dejen en paz. En general, la psicología asume que estas motivaciones dan forma al comportamiento humano.

Dados estos motivos humanos, se plantea la cuestión de cómo enseñar a un sistema de IA valores cargados emocionalmente como el poder, la afiliación, la alegría del logro o el idealismo. Los sistemas de IA no tienen ni acceso mental a estos términos en forma de noemata, ni un cuerpo experimentado que pueda transmitirles el valor sensorial de estos motivos. E incluso si lo tuvieran, el mejor teórico no podría modelar con precisión un motivo como el poder o la necesidad de paz o calma.

Sin embargo, donde la psicología y la IA se encuentran es en el contexto de la simplificación de los modelos de las relaciones humanas. Tomemos, por ejemplo, la teoría del valor de expectativa. Esta teoría postula que los seres humanos realizan una especie de previsión en la que calculan si un determinado comportamiento contribuirá a la consecución de los resultados deseados (Vroom, 1964). Las funciones de expectativa de valor podrían proporcionar una base fascinante para optimizar un sistema de IA. Sin embargo, un sistema de IA sólo es capaz de representar lo que los psicólogos denominan motivos «extrínsecos», por ejemplo, una suma de dinero que se obtendrá de un comportamiento determinado. Los sistemas de IA del mercado financiero se entrenan con este tipo de funciones objetivo monetarias. Sin embargo, en cuanto salimos de los contextos de aplicación en los que los motivos extrínsecos se integran en una simple lógica de maximización y entramos en las esferas normales de la vida humana, donde los motivos intrínsecos se persiguen por sí mismos, los sistemas de IA se vuelven ineficaces porque no pueden relacionarse con la idea de algo que es simplemente deseable por sí mismo.

Por lo tanto, es profundamente engañoso que algunos expertos en IA se aventuren en la resbaladiza pendiente de atribuir tales motivaciones intrínsecas a los sistemas de IA. Algunos utilizan términos como «recompensa intrínseca» con títulos que prometen la «motivación intrínseca» de los sistemas de IA. Pero si se examina más de cerca la definición de estos términos y cómo se implementan en sus sistemas, la «motivación intrínseca» se desvía de repente considerablemente de lo que la psicología entiende por ella. Tomemos como ejemplo el trabajo de Jürgen Schmidhuber. En uno de sus artículos, asocia la motivación intrínseca con un componente de aprendizaje por refuerzo en un sistema de inteligencia artificial, que incorpora una función de meta matemática. Esta función objetivo se maximiza en respuesta al descubrimiento de nuevos patrones de datos («sorprendentes»). A continuación, utiliza este modelo de maximización de la novedad para iniciar otras acciones dentro del sistema. Esto es lo que Schmidhuber llama con orgullo «motivación intrínseca» (Schmidhuber, 2010) y parece sugerir que la IA se vuelve algo humana de este modo22. Pero la motivación intrínseca en el sentido humano del término no está vinculada a algo nuevo o sorprendente: ¡todo lo contrario! La motivación intrínseca es la experiencia (apreciativa) de algo que se repite de forma no idéntica o que se desea internamente como placentero23. Momentos como «sentir un sentimiento de pertenencia» o «estar en paz» son estados que se perciben como emocionalmente familiares24. Además, la motivación intrínseca no tiene nada que ver con la maximización, como es el caso del «componente de refuerzo» de Schmidhuber. Por otra parte, la maximización como principio se opone completamente a actuar por el bien del propio motivo. En resumen: el préstamo de términos psicológicos por parte de informáticos como Schmidhuber (2010) es totalmente engañoso. La motivación intrínseca en el sentido humano no puede crearse en los sistemas de IA.

Los sistemas de IA no tienen autonomía socialmente integrada

La última gran área que supuestamente justifica la supuesta similitud de los sistemas de IA con los humanos es su autonomía potencial. El Consejo Científico de Defensa de EEUU define la autonomía técnica de un sistema de IA como «la capacidad [del sistema de IA] de componer y seleccionar de forma independiente diferentes cursos de acción para alcanzar objetivos basándose en su conocimiento y comprensión del mundo, de sí mismo y de la situación» (Informe de verano). Esta autonomía técnica comienza una vez que se activa el sistema. Por ejemplo, cuando se envía un dron a una misión, puede configurarse de tal manera que, una vez que haya partido, actúe de acuerdo con los objetivos que se haya fijado. O una red eléctrica puede utilizar los datos de los contadores inteligentes para gestionar de forma autónoma la estabilidad de la red. Con esta definición, el cuerpo militar ha optado por el grado más alto de lo que denomina «autonomía»: todo el control pertenece a la máquina (Parasuraman/Sheridan, 2000). Debemos recordar la opinión de Immanuel Kant de que un esclavo, que no es en absoluto autónomo (¡!), no puede ser enviado «a una misión», porque no es posible que el esclavo se envíe a sí mismo a una misión. El esclavo no puede elegir el tipo de misión, ni puede rechazarla. Por tanto, los kantianos describirían el grado de libertad de un zángano no como «autonomía», sino como «heteronomía». Una vez más, la informática utiliza un término cuya definición es muy precisa en filosofía y, al hacerlo, atribuye a las máquinas capacidades que no tienen. La excepción aquí son, por supuesto, los sistemas de IA de ciencia ficción, que efectivamente eligen sus propias misiones y definen sus propios objetivos. Es lo que se denomina «IA general», que puede definir sus propios objetivos mediante un proceso de aprendizaje automático no supervisado. Aunque tales sistemas de IA no existen actualmente, ¡no es imposible que puedan hacerlo en el futuro!

Pero incluso si algún día esas «IA generales» ven la luz, no podrán parecerse a los seres humanos. ¿Por qué no? En la «teoría de la autodeterminación», Ryan y Deci (basándose en investigaciones sobre la motivación de los años 70) han demostrado repetidamente desde el año 2000 la importancia de tres factores: la competencia, la autonomía y la relación con los seres humanos (Ryan/Deci, 2000). La autonomía se entiende aquí como la capacidad de iniciar las propias acciones y de hacerlo de tal forma que la acción tenga lugar en armonía con uno mismo; que uno no se sienta forzado por influencias externas a emprender determinadas acciones. Esto no significa, sin embargo, que al vivir esta autonomía nos liberemos completamente de los deseos, objetivos y hábitos del grupo con el que nos sentimos asociados (Deci/Vansteenkiste, 2004). Todo lo contrario: el ser humano es un zoon politikon, un ser social. Esto significa que una decisión razonable tomada por un ser humano normalmente tiene en cuenta el entorno social. El ser humano vive una «autonomía socialmente integrada».25. Si consideramos esta tensión entre la propia libertad del ser humano y la toma de decisiones «autónoma», que tiene lugar en un entorno social, rápidamente se hace evidente que es la vulnerabilidad del ser humano la que contribuye de forma esencial a que a menudo decida de forma independiente pensar en nombre de los demás. No decide de forma autónoma como un individuo desvinculado, es decir, libre de toda influencia externa26. Todo el corpus aristotélico de la ética de la virtud se ocupa de este tema humano de mantener una sana moderación y no tener un impacto negativo dentro del propio grupo exagerando o subestimando la naturaleza de las propias decisiones. Sin embargo, la fuerza que puede motivar a una persona a mantener esta moderación (o comportamiento «intermedio») es la vulnerabilidad humana; la vulnerabilidad de no ser reconocido por el propio grupo, o de ser rechazado, o de estar solo.

Aquí es precisamente donde la «autonomía» humana experimentada difiere de forma muy fundamental de la «autonomía» de un sistema de IA. Esta última se entiende sobre todo como la capacidad de emprender una acción basándose en sus propios cálculos, sin obtener la confirmación de un operador. Las preocupaciones sociales son irrelevantes para la máquina, ya que no es vulnerable. A la máquina no le preocupa quedarse sin energía eléctrica o ser desguazada, porque la idea de la muerte en el sentido humano no puede transmitirse a la máquina.27.

Hacia una definición reflexiva de los sistemas de IA y su delimitación de los humanos

El debate sobre la supuesta similitud de los sistemas de IA con los humanos se ha centrado en una serie de características que pueden servir de base para definir estos sistemas informáticos: su cuerpo físico, los datos y su procesamiento, las fuentes de objetivos definidas y la autonomía. La figura 1 resume gran parte del debate. La columna de la izquierda muestra las manifestaciones de los sistemas de IA en nuestras leyendas modernas, es decir, en la ciencia ficción. Las columnas central y derecha, relevantes para el presente tratamiento, describen los sistemas de IA que existen en la práctica o que, al menos, son objeto de experimentación seria. Las propiedades del sistema resaltadas en azul son propiedades que aún requieren un alto grado de investigación y que todavía no funcionan de forma fiable, por ejemplo el procesamiento de datos no estructurados. El diseño respectivo de los cascos, los datos, los métodos de aprendizaje, los objetivos y los grados de autonomía determinan los procesos cognitivos que puede realizar un sistema de IA determinado. Por esta razón, estas características se enumeran bajo las funciones cognitivas de la IA. Además, se hace una distinción en función de si un sistema de IA es o no un software detrás de un sistema físico técnicamente autónomo (de hecho, sólo heterónomo); en función de si nos referimos a una entidad puramente virtual o a un sistema de hardware que incorpora las características descritas. Existen ejemplos prácticos de ambos tipos de sistemas. Los sistemas de IA puramente virtuales son, por ejemplo, los asistentes de voz digitales como «Alexa» de Amazon o «Speech Assistant» de Google. Por otro lado, los sistemas físicos, como los coches autónomos, están equipados con actuadores que, para un sistema determinado, traducen las acciones calculadas por un algoritmo en movimientos mecánicos. En todos los casos, es conveniente hablar siempre de un «sistema de IA», ya que generalmente están vinculados entre sí un gran número de algoritmos, complementados por las bases de datos correspondientes y los elementos (motores o virtuales) del sistema que se ejecuta. Un sistema de IA en su conjunto suele parecer inteligente a los humanos. Sin embargo, la calificación como sistema de IA no depende de esta característica.

En este contexto, me gustaría definir un sistema de IA como un sistema informático virtual y/o físico integrado, capaz de ejecutar de forma independiente una amplia gama de funciones cognitivas. Estas funciones se basan (al menos en parte) en conjuntos de datos no estructurados y ricos en contenido. Son capaces de realizar acciones eficaces, incluso sin intervención humana, basándose en funciones cognitivas que pueden computar actos de percepción, planificación, conclusión, comunicación y decisión.

Si ahora tomamos esta definición y una mirada colectiva a todas las áreas descritas en este artículo, en las que los sistemas de IA difieren fundamentalmente de los humanos, surge la pregunta de cómo llegan los expertos a la idea de atribuir a los sistemas de IA una similitud con los humanos. Los humanos comparten secuencias idénticas de pares de bases de ADN con otros mamíferos. Se cree que estas secuencias son idénticas en un 90% en humanos y cerdos. Pero a nadie se le ocurriría confundir al hombre con el cerdo. Y a nadie se le ocurriría definir derechos para los cerdos similares a los definidos para los humanos.

Desde esta perspectiva ética crítica, se plantea la cuestión de si es aceptable equiparar a los seres humanos con los sistemas de IA, o si esta práctica (ahora habitual) equivale de hecho a una difamación humana. El mundo de la tecnología, moldeado por el marketing y el bombo mediático, presta muy poca atención al uso establecido de los términos y, por tanto, se dedica a un ejercicio de funambulismo para el que Hastak y Mazis han acuñado el término «engaño por implicación» (Hastak/Mazis, 2011).

Nietzsche puede decir con humor: «Agudo y suave, áspero y fino, extraño y familiar, sucio y limpio, un lugar donde se encuentran el loco y el sabio: yo soy todas estas cosas y quiero significarlas, tanto a la paloma como a la serpiente y al cerdo» (Nietzsche, 1882).

Figura 1: Características de los sistemas de IA realistas y no realistas

Bibliografía

  • Ajzen, I. / Fishbein, M. (2005): La influencia de las actitudes en el comportamiento. Mahwah, Nueva Jersey, EE.UU.: Erlbaum.
  • Baddeley, A. / Eysenck, M. W. / Anderson, M. C. (2015): Memory. Nueva York: Psychology Press.
  • Bérard, B. (2018): «Desenmascarar la ‘IA'». Blog. https://philos-sophia.org/ unmasking-ai/.
  • Bostrom, N. (2014): Superintelligenz: Szenarien einer kommenden Revolution. Berlín: Suhrkamp Verlag.
  • Csikszentmihalyi, M. (1991): Flujo: La psicología de la experiencia óptima. Nueva York: Harper Collins.
  • Damasio, A. R. / Everitt, B. J. / Bishop, D. (1996): «La hipótesis del marcador somático y las posibles funciones del córtex prefrontal». En: Philosophical Transactions: Biological Sciences, 351(1346), S. 1413-1420.
  • Deci, E.L. / Ryan, R.M. (2000): «El ‘qué’ y el ‘por qué’ de la búsqueda de metas: las necesidades humanas y la autodeterminación del comportamiento». En: Psychological Inquiry, Vol. 11, No. 4/2000, S. 227-268.
  • Deci, E. L. / Vansteenkiste, M. (2004): La teoría de la autodeterminación y la satisfacción de las necesidades básicas: La comprensión del desarrollo humano en la psicología positiva. En: Ricerche di Psichologia (27), S. 17-34.
  • Epley, N. / Waytz, A. / Cacioppo, J. T. (2007). «Sobre el ver humano: una teoría de tres factores del antropomorfismo». En: Psychological Review, 114(4), S. 864-886.
  • Feser, E. (2013): «Los fantasmas de Kurzweil – Una reseña de Cómo crear una mente: el secreto del pensamiento humano revelado. First Things». https://www.firstthings.com/ article/2013/04/kurzweils-phantasms.
  • Fuchs, T. (2016): Das Gehirn – ein Beziehungsorgan: Eine phänomenologischökologische Konzeption (5. Aufl.). Stuttgart: Kohlhammer.
  • Gehring, R. (2004): «Es blinkt, es denkt. Die bildgebenden und die weltbild- gebenden Verfahren der Neurowissenschaften». En: Philosophische Rundschau, 51, S. 272-295.
  • Gunkel, D. J. (2018): Robot Rights. Cambridge, EE.UU.: MIT Press.
  • Hastak, M. / Mazis, M. B. (2011): «Engaño por implicación: una tipología de reclamos publicitarios y de etiquetado veraces pero engañosos». En: Journal of Public Policy & Marketing, 30(2), S. 157-167.
  • Hatmaker, T. (2017): «Arabia Saudí concede la ciudadanía a una robot llamada Sophia». En: Tech Crunch. https://techcrunch.com/2017/10/26/saudi-arabia-robot-citizen-sophia/.
  • Hawkins, J. (2017): «Lo que las máquinas inteligentes necesitan aprender del neocórtex». En: IEEE Spektrum, 54(6), S. 33-37.
  • Husserl, E. (1993): Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie (5. Aufl.). Berlín: De Gruyter.
  • Jenson, D. / Iacoboni, M. (2011): «Biomímesis literaria: las neuronas espejo y la prioridad ontológica de la representación». California Italian Studies, 2(1). http://www.neurohumanitiestudies.eu/archive /paper/?id=150.
  • John S. McCain: Ley de Autorización de la Defensa Nacional para el Año Fiscal 2019 (2018).
  • Kierkegaard, S. (2005): Die Krankheit zum Tode – Furcht und Zittern – Die Wiederholung – Der Begriff der Angst, München: DTV.
  • Krempl, S. (2018): «Streit über «Persönlichkeitsstatus» von Robotern kocht hoch». En: heise online. https://www.heise.de/newsticker/meldung/Streit-ueber-Persoenlichkeitsstatus-von-Robotern-kocht-hoch-4022256.html.
  • Kurzweil, R. (2006): La Singularidad está cerca – Cuando los humanos trasciendan la biología. Londres: Penguin Group.
  • McGilchrist, I. (2009): The Master and his Emissary – The Divided Brain and the Making of the Western World. New Haven y Londres: Yale University Press.
  • McClelland, D. (2009): Motivación humana. Cambridge, Reino Unido: Cambridge University Press.
  • Meier, K. (2017): «El cerebro como ordenador: el cerebro puede ser malo para hacer números, pero es una maravilla de la eficiencia computacional». En: IEEE Spektrum, 54(6), S. 27-31.
  • Nietzsche, F. (1882): Die Fröhliche Wissenschaft. Ditzingen: Reclam.
  • Parasuraman, R. / Sheridan, T. B. (2000): «Un modelo de tipos y niveles de interacción humana con la automatización». En: IEEE Transactions on Systems, Man, and Cybernetics, 30(3), S. 286-297.
  • Reiss, S. (2004): «Naturaleza multifacética de la motivación intrínseca: La teoría de los 16 deseos básicos». En: Revista de Psicología General, 8(3), S. 179-193.
  • Rosa, H. (2016): Resonanz. Eine Soziologie der Weltbeziehung (2. Aufl.). Berlín: Suhrkamp Verlag.
  • Roth, G. (2001): Fühlen, Denken, Handeln. Wie das Gehirn unser Verhalten steuert. Fráncfort del Meno: Suhrkamp Verlag.
  • Ryan, R. M. / Deci, E. L. (2000): «La teoría de la autodeterminación y la facilitación de la motivación intrínseca, el desarrollo social y el bienestar». En: American Psychologist, 55, S. 68-78. https://dx.doi.org /10.1037/0003-066X.55.1.68.
  • Scheler, M. (1921, 2007): Der Formalismus in der Ethik und die Materiale Wertethik – Neuer Versuch der Grundlegung eines ethischen Personalismus (2. unveränderte Aufl.). Halle an der Saale: Verlag Max Niemeyer.
  • Schmidhuber, J. (2010): «Teoría formal de la creatividad, la diversión y la motivación intrínseca». En: IEEE Transactions on Autonomous Mental Development, 2(3), S. 230-247.
  • Sennett, R. (2009): El artesano. Nueva York: Penguin Books
  • Spiekermann, S. (2019a, 23./24. März 2019): «Der Mensch als Fehler». Süddeutsche Zeitung, 15.
  • Spiekermann, S. (2019b): Digitale Ethik – Ein Wertesystem für das 21. Jahrhundert. München: Droemer.
  • Spiekermann, S. (2020): «Digitale Ethik und Künstliche Intelligenz». En: Philosophisches Handbuch Künstliche Intelligenz. Hrsg. v. Mainzer, K. München: Springer Verlag. (Im Erscheinen).
  • Vallerand, R. J. (1997): «Hacia un modelo jerárquico de la motivación intrínseca y extrínseca». En: Advances in Experimental Social Psychology, 29, S. 271-360.
  • Vroom, V. H. (1964): Trabajo y motivación. Nueva Jersey, EE.UU.: John Wiley & Sons Inc.
  • Wendt, A. (2015): Quantum Mind and Social Science – Unifying physical and social ontology. Cambridge, Reino Unido: Cambridge University Press.

Notas

  1. Gracias a Friedemann Mattern, Johannes Hoff y Jana Korunovska, que revisaron este documento y me hicieron llegar sus comentarios críticos[]
  2. soy consciente de que este supuesto se ve socavado por los experimentos actuales que intentan implementar software en materiales orgánicos (véase, por ejemplo: https:// www.pnas.org/content/117/4/1853 o https://royalsocietypubli-shing.org/doi/ full/10.1098/rsif.2017.0937). Sin embargo, estos experimentos se encuentran en una fase de desarrollo tan temprana que difícilmente podrán tomarse en serio en contextos académicos a partir del año 2020; en particular, la capacidad de verificar reacciones por parte de materiales orgánicos no es compatible con los paradigmas actuales de nuestra mecánica computacional y estadística: por ejemplo, la previsibilidad, la trazabilidad o la repetibilidad de las operaciones.[]
  3. «Si, en filosofía, hay un antes y un después de Immanuel Kant (1724-1804), es porque él invirtió el significado de inteligencia (Verstand) y razón (Vernunft) tal y como lo entendían todos los filósofos anteriores: desde Platón, Aristóteles, Plotino y San Agustín hasta Santo Tomás de Aquino, Dante, Leibniz, Malebranche, y más allá, ¡a todos los cuales consideraba que trabajaban bajo una ilusión que sólo él fue capaz de reconocer y disipar! De acuerdo con su convicción de que la intuición sólo puede ser sensible o empírica, elevó la razón al rango más alto de las facultades cognitivas, supuestamente capaz de hacer que la inteligibilidad fuera sintética, sistemática, universal y unificada. A partir de entonces, la inteligencia o intelecto pasó a considerarse inferior a la razón: una facultad secundaria encargada de procesar abstracciones, dotar a la experiencia sensible de una forma conceptual y vincular los conceptos resultantes de manera que constituyeran una estructura coherente, hasta que, finalmente, se transformó en conocimiento discursivo, es decir, se convirtió en «razón».» (Bérard, 2018[]
  4. «No podemos en absoluto pensar lo que no podemos pensar» (G.E. Moore).[]
  5. Los buenos profesores consiguen explicar las cosas con claridad, si es que lo hacen, mediante analogías e historias. Dichas explicaciones suelen comenzar con las siguientes palabras: «Imagínese…»: «Piense en… (Piense en…[]
  6. https://en.wiktionary.org/wiki/nous#Etymology.[]
  7. Por eso es tan agradable oír hablar a una persona inteligente, porque reconocemos inmediata e intuitivamente que tiene razón. Normalmente no es posible decir por qué pensamos que la persona inteligente tiene razón, pero compartimos con ella una comprensión de la realidad[]
  8. Cf.: «Nuestra percepción… es… el producto de formas corporales de percepción sinestésica. En su punto de partida, siempre encontramos lo que la estética aristotélica denomina el sensus communis (sentido común). Vemos «agua burbujeante», oímos «sonidos brillantes de campanas», vemos un «duro impacto», olemos «el penetrante aroma del heno»… y sólo más tarde aprendemos a atribuir «lo burbujeante», «lo brillante» y «lo duro y acre» a diferentes modalidades sensoriales que están analíticamente aisladas entre sí y que supuestamente pueden atribuirse a «impresiones sensoriales elementales prescritas» (auditivas, visuales, táctiles, olfativas o gustativas)» (comunicación privada, Hoff, 2020).[]
  9. Cf.: «Tomemos el ejemplo de una simulación que Markus Diesmann y sus colegas llevaron a cabo hace varios años utilizando casi 83.000 procesadores en el superordenador K de Japón. La simulación de 1.730 millones de neuronas consumió 10.000 millones de veces más energía que una porción de cerebro de tamaño equivalente, a pesar de que utilizaba modelos muy simplificados y no realizaba ningún aprendizaje… El grupo TrueNorth de IBM, por ejemplo, estimó recientemente que una transmisión sináptica en su sistema costaba 26 picojulios. Aunque esto es unas mil veces la energía de la misma acción en un sistema biológico, se aproxima a 1/100.000 de la energía que consumiría una simulación realizada en una máquina convencional de propósito general» (págs. 29 y 31 en Meier, 2017).[]
  10. Soy consciente de que varios científicos, como Daniel Dennett, sostienen que la falta de capacidad de resonanciaResonanzfähigkeit«) de un sistema no depende de sus propiedades materiales. Sin embargo, no existe ninguna prueba de este argumento. El hecho es que los ordenadores no tendrán cuerpos resonantes en un futuro previsible.[]
  11. Véase también mi artículo sobre la mala imagen de la humanidad en nuestro tiempo (Spiekermann, 2019a) y las fuentes históricas de esta forma de pensar (Spiekermann, 2019b).[]
  12. Nótese aquí que las habilidades técnicas de la IA, es decir, los componentes técnicos que ejecutan determinados algoritmos, deben distinguirse de lo que Richard Sennett denomina «habilidad» (Sennett, 2009).[]
  13. Cabe señalar que en ciertos momentos de la interacción con los robots, éstos parecen extremadamente vulnerables, entre otras cosas por sus reacciones desinteresadas y, como resultado, parecen humanos (cf. Spiekermann, 2019b). Además, es importante señalar que, naturalmente, no dudo de las personas que afirman actuar a menudo de forma desinteresada o altruista. Simplemente, es normal que nos impliquemos en acciones altruistas. E incluso en las formas de acción altruistas, la psique y la motivación desempeñan un papel.[]
  14. Véase por ejemplo la «teoría de la acción razonada» o la «teoría del comportamiento planificado» (cf. Ajzen/Fishbein, 2005).[]
  15. La parte autonótica de la memoria es una parte de la memoria a largo plazo y la que refleja la personalidad desarrollada de una persona.[]
  16. A su vez, la palabra «noemata», con la raíz etimológica común de noûs, nos remite a compartir, a lo que se entiende como compartido por la comunidad.[]
  17. Según Kant, la realización es un «Ganzes verglichener und verknüpfter Vorstellungen» («Conjunto de ideas comparadas y relacionadas») (Kant, Kritik der reinen Vernunft, A 97). Su punto de partida es una multiplicidad, dada a los sentidos de forma pasiva y difusa. Su síntesis requiere «Spontaneität unseres Denken s» (A77 / B102). Lógicamente, un objeto es «das, in dessen Begriff das Mannigfaltige einer gegebenen Anschauung vereinigt ist» («aquello en cuyo concepto se unifica la diversidad de una visión dada») (B137). Sólo así se hacen posibles los juicios materiales que nos permiten reconocer el mundo al asegurar la relación referencial con las cosas («Gegenstandsbezug«) de las síntesis subjetivas.[]
  18. Roth (2001), 338.[]
  19. Aquí con referencia a la estética de Aristóteles: Fuchs (2016), 187 sq. así como Aristóteles, De Anima (Sobre el alma), III, 430 sq.[]
  20. Kierkegaard, S. (2005). Die Krankheit zum Tode – Furcht und Zittern – Die Wiederholung – Der Begriff der Angst. München: DTV.[]
  21. Véase por ejemplo Scheler (1921, 2007).[]
  22. Un modelo de datos novedoso se clasifica como «nuevo». Lo «nuevo» es automáticamente bueno. Los «componentes de aprendizaje por refuerzo» se maximizan a sí mismos y «recompensan» al sistema subyacente.[]
  23. Nota bene: «intrínseco» significa «que viene de dentro».[]
  24. Sólo la curiosidad primitiva es un motivo (para muchos), donde la novedad en estado puro puede ser buena.[]
  25. De hecho, Ryan y Lynch (1989) han demostrado cómo la autonomía puede asociarse positivamente con las relaciones y el bienestar. «La autonomía implica ser voluntario, actuar desde el propio sentido integrado del yo y aprobar la propia acción. No implica estar separado de los demás, no depender de los demás o ser independiente de los demás» (Deci/Ryan 2000, 242).[]
  26. Cf. Spiekermann (2020).[]
  27. Un sistema de IA podría, por supuesto, incorporar una función que minimice la desactivación o el ser disparado. Entonces desarrollará estrategias de comportamiento que eviten tales posibilidades. Esto limita la autonomía de la máquina, pero esta limitación no es social, como en el caso de los humanos[]