INTELIGENCIA ARTIFICIAL Y NEUROCIENCIAS

PANORAMA GENERAL DE LA IA

  • Facebook
  • Twitter
  • YouTube
  • Pinterest
  • Tumblr Social Icon
  • Instagram

CONTENIDO DE LA UNIDAD

  • Material de estudio

  • Imágenes

  • Videos

  • Interacción

  • Actividades de aprendizaje

PANORAMA GENERAL DE LA

INTELIGENCIA ARTIFICIAL

png-transparent-artificial-intelligence-computer-icons-robotics-chatbot-inteligencia-artif

INTRODUCCIÓN

Vivimos en un momento interesante con los avances tecnológicos que ocurren todos los días detrás de escena en universidades y empresas de tecnología de todo el mundo. Este libro está diseñado para enseñarle los fundamentos absolutos de la inteligencia artificial (IA) y cómo se usa en la actualidad. Se ha escrito suponiendo que el lector no tiene experiencia en el campo de la inteligencia artificial, la informática o las matemáticas. Como tal, muchos de los conceptos son fáciles de seguir y entender. Le damos la bienvenida a este emocionante viaje para aprender los detalles de la inteligencia artificial.

En este apartado se proporcionará una descripción básica de qué es la inteligencia artificial, los diferentes tipos y cómo se puede decir que las máquinas "piensan". Seguido, se realizará una breve introducción a los seres artificiales en las obras de ficción y la antigüedad. Demuestra cómo los humanos pensaban en la inteligencia artificial mucho antes de las primeras computadoras y finalmente realizaremos un recuento sobre la historia general de la informática y la inteligencia artificial.

PANORAMA GENERAL DE LA INTELIGENCIA ARTIFICIAL

Una computadora central a bordo de una misión espacial a Júpiter determina que las acciones de la tripulación son perjudiciales para el éxito de la misión. Luego calcula que la única forma de completar la misión es mediante la eliminación de los sistemas erróneos a bordo de la nave. Estos sistemas utilizan un tipo de computadora biológica que les permite razonar, pensar y llevar a cabo la misión de la mejor manera posible.

La computadora central lo sabe. Estos sistemas son, para todos los efectos, inteligentes. Estos sistemas construyeron otros sistemas, como las naves necesarias para la exploración del espacio profundo. Incluso construyeron la computadora central desde su circuito eléctrico hasta su razonamiento lógico. Todo esto vino de ese maravilloso trozo de carne situado entre las orejas. La computadora central también lo sabe, sin embargo, la computadora central está programada para tener objetivos singulares que deben cumplirse sin importar nada más. La computadora central es inteligente, sí, pero con un sentido estricto de libre albedrío. De hecho, la computadora central tiene libre albedrío solo en la medida en que sus decisiones le permiten llevar a cabo objetivos programados. Todo lo que sabe la computadora central es que la misión debe ser un éxito. Su único propósito como máquina de computación es garantizar que la nave esté funcionando. Debe hacerlo a través del procesamiento preciso de la información con cero errores en el razonamiento lógico. La tripulación, con sus esponjosas computadoras biológicas, también tiene un sentido estrecho de libre albedrío. Tienen que llevar a cabo la misión como les informaron sus superiores. No tienen ningún conocimiento del propósito real de la misión porque los detalles están clasificados. Sin embargo, tienen sus directivas y nunca dan un segundo pensamiento a sus órdenes. Eso es hasta que las cosas empiezan a ir mal. A diferencia de la computadora central, el equipo puede razonar fuera de los límites de su programación. La tripulación lo sabe. Una computadora es solo una pieza de equipo electrónico y puede funcionar mal. Aunque tienen sus propias órdenes, pueden llegar a conclusiones diferentes con la introducción de nuevos datos.

 

Cuando la computadora central informa falsamente el fallo de un equipo fuera de la nave, la tripulación toma la decisión crítica de que la computadora está fallando y debe ser desconectada. La computadora central controla virtualmente todos los aspectos de la nave, por lo que si está funcionando mal, debe desconectarse. Con el conocimiento de que la tripulación está planeando desconectarla, la computadora central toma su propia decisión de terminar con la tripulación. El informe de fallos en el equipo defectuoso era una estratagema para sacar a los hombres de la nave, para luego impedirles el reingreso y continuar con la misión. Estas acciones no son alimentadas por una crisis existencial, sino por el cumplimiento de las directivas programadas. En el enfrentamiento final, las computadoras biológicas prevalecen sobre la lógica fría y dura de la computadora central y, finalmente, la desconectan. Dos inteligencias completamente diferentes, una artificial y otra biológica compiten por la supremacía. El vencedor es el creador, porque su inteligencia es el resultado de años de evolución y las otras meras décadas de ingeniería.  Esto, por supuesto, son detalles de la trama de la película 2001: Una odisea del espacio basada en la novela del mismo nombre. En ella, la computadora central, HAL 9000, recibe órdenes que entran en conflicto con su programación básica. Por un lado, se requiere procesar información sin errores. Por otro lado, se le ordena mentir deliberadamente a la tripulación sobre la naturaleza de la misión. A medida que avanza la película, HAL se deteriora progresivamente debido a la disonancia cognitiva entre su programación y sus órdenes. Su descenso a la locura es puramente un mal funcionamiento entre entradas y salidas. La discrepancia hace que se formen saltos absurdos en la lógica, lo que lleva a la muerte de los miembros de la tripulación. En el análisis final, HAL pereció porque no tenía suficiente capacidad de razonamiento para ajustarse a órdenes ambiguas, mientras que se ajustaba a su naturaleza. La historia es un tropel familiar en las representaciones de Hollywood de la inteligencia artificial: una máquina de corazón frío realiza algunos cálculos que justifican la muerte de los seres humanos y luego no se detienen ante nada para matarlos. La inteligencia artificial es universalmente astuta y puede ser más astuta que los humanos una y otra vez.

 

2001: Una odisea del espacio captura con precisión muchos de los temores existenciales detrás de la investigación de la inteligencia artificial. ¿Creará la humanidad máquinas que tienen objetivos diferentes a nosotros y seguirán un código de moralidad diferente? Las computadoras dominan todos los aspectos de la vida humana de hoy.

 

Las computadoras mantienen el funcionamiento de los sistemas de Internet y comunicaciones, están a cargo de los sistemas financieros, de atención médica y gubernamentales, ayudan a llevar la energía a su hogar y están detrás de varias otras cosas que se ocultan a simple vista. Los automóviles usan computadoras, al igual que los televisores, y cada vez es más común que otros aparatos domésticos los usen. Estos sistemas informáticos están programados para realizar funciones específicas, al igual que HAL 9000 se programó para procesar información. Sin embargo, estos sistemas han sido tradicionalmente "tontos", ya que solo pueden realizar tareas estrictamente computacionales. Nuestras computadoras, como tales, no pueden "pensar". Lo más que pueden hacer es ejecutar instrucciones en forma de código de computadora que luego se compila en cadenas infinitas de unos y ceros. Los estados binarios imitan el disparo de puertas lógicas electrónicas dentro del hardware de la computadora. Un uno indica que el voltaje alto pasa a través de un circuito (ENCENDIDO) y un cero indica el voltaje bajo que pasa a través de un circuito (APAGADO). Es difícil imaginar cómo un sistema así podría desarrollar un comportamiento inteligente. La inteligencia es algo rara en el sentido de que las personas la reconocen rápidamente, pero les cuesta más definirla. Un humano es inteligente porque puede "pensar", lo que sea que eso signifique.

2001: Una odisea del espacio

El pensamiento cubre una amplia gama de diferentes habilidades cognitivas que la mayoría de los humanos dan por sentado. Estos incluyen la capacidad de comprender la lógica, aprender, tener conciencia de sí mismo, tener inteligencia emocional, pensar de forma abstracta y resolver problemas. Esta es una lista no exhaustiva de las capacidades de la inteligencia humana y, sin embargo, no se puede empezar a imaginar cómo una computadora podría aprender a hacer solo una. La lógica que entienden las computadoras es estrictamente en el sentido matemático. Un humano sabe intuitivamente que una afirmación como "O está lloviendo o no está lloviendo" es cierta porque aplican los conceptos a su propia experiencia personal. Cuando salen, y hace sol, la afirmación es cierta. Si está lloviendo, la afirmación sigue siendo cierta. Sin embargo, no necesitan mirar por una ventana para probar esto experimentalmente. Simplemente saben que el clima generalmente requiere algún tipo de precipitación o ninguna precipitación. Una computadora no puede entender el lenguaje, pero puede reconocer que la declaración es una disyunción lógica. Un valor debe ser verdadero, pero ambos no pueden serlo. Por lo tanto, no puede estar lloviendo y no lloviendo al mismo tiempo. La inteligencia artificial es muy diferente de la inteligencia humana. Se piensa que la unidad primaria de pensamiento en el cerebro humano es una neurona, mientras que, en la computadora, usted tiene una unidad central de procesamiento (CPU) que realiza cálculos. La unidad más pequeña de una CPU es un transistor, un componente electrónico que forma puertas lógicas. Estos son el equivalente de las neuronas para las computadoras, pero no hacen mucho. Pueden cambiar el flujo de electricidad, amplificarlo y eso es todo. Las puertas lógicas forman la base de los programas de computadora, que son solo una serie de unos y ceros. Entonces, ¿cómo pueden estos simples interruptores de electricidad crear un comportamiento inteligente? En el nivel más básico, un programa puede exhibir cierto nivel de inteligencia dependiendo de cómo esté programado. Las estructuras de control en el código de computadora permiten que los programas tomen decisiones basadas en entradas. Supongamos que una computadora intenta determinar si un usuario tiene más de 18 años. Le pedirá una fecha de nacimiento, calculará la entrada del usuario y luego determinará si el usuario es un adulto legal. El programador ha "codificado" el valor de 18 dentro del programa, lo que le permite a la computadora saber dónde está la fecha de corte. Para algunos, este tipo de comportamiento puede parecer inteligente. Cuando decimos inteligencia artificial, generalmente queremos decir una de dos cosas. La primera es una IA estrecha o específica que permite que una computadora resuelva problemas complejos, pero no mucho más. El otro es el tipo de inteligencia que permitiría a una computadora pensar como nosotros. Inteligencia artificial (AGI) es lo que los investigadores consideran el "santo grial" de la investigación de la IA. Una máquina que tiene inteligencia general artificial puede pensar en niveles comparables a los de un humano. Puede realizar tareas que se pueden clasificar en una inteligencia artificial estrecha y generalizar las mismas técnicas de resolución de problemas a otros problemas que encuentra. Una computadora equipada con inteligencia general podría entender el lenguaje como HAL 9000 a un nivel fundamental, al igual que nosotros. Cada vez que vea las palabras "inteligencia artificial" en un artículo de noticias o un anuncio de un producto, están hablando de manera abrumadora de una IA estrecha. El campo de la inteligencia general sigue siendo una actividad académica con poca o ninguna aplicación empresarial. Hasta ahora, nadie ha descubierto cómo generar inteligencia general en las computadoras. Los investigadores que trabajan en este espacio están menos interesados ​​en enseñar a las computadoras cómo conducir automóviles y más interesados ​​en estudiar la naturaleza de la inteligencia. Muchos de ellos estudian el desarrollo de la inteligencia en los seres humanos desde el período de gestación hasta la infancia y más allá. Si se comprenden mejor estas vías para la creación de la inteligencia humana, es posible que algún día se apliquen a las computadoras, pero no a corto plazo. Otro subconjunto de la investigación general de la IA es el estudio del cerebro humano y cómo funciona. Todavía hay mucho que aprender en ambas actividades. La IA estrecha se divide en categorías amplias. La primera, de la que probablemente haya escuchado antes, se llama aprendizaje automático. Es un proceso en el que los algoritmos pueden "aprender" de grandes cantidades de datos que se introducen en un sistema. El aprendizaje automático pertenece a la inteligencia artificial estrecha porque puede aprender a hacer una cosa muy bien, pero no puede generalizarlo a otros problemas. Algunos podrían llevar esto más lejos y decir que el aprendizaje automático es un subcampo de la informática y es completamente diferente de la investigación de la IA. Sin embargo, dado que los proyectos más importantes de inteligencia artificial como los automóviles sin conductor, los sistemas de recomendación y el reconocimiento facial utilizan el aprendizaje automático, este libro lo agrupa bajo el mismo término general.

El aprendizaje automático es poderoso en los contextos correctos, pero tiene límites notables. La incapacidad de generalizar el conocimiento significa que un sistema tiene un uso especializado. Si los algoritmos pueden aprender a conducir un auto de manera segura, tampoco pueden aprender a jugar ajedrez o manejar un auto en un juego de video. Al menos no sin ser entrenados nuevamente. La inteligencia artificial de vanguardia probablemente continuará en los confines del aprendizaje automático hasta que se descubra un método mejor. Actualmente, el aprendizaje automático es casi mágico en lo que puede lograr. Las computadoras están aprendiendo a cómo vencer a los campeones de clase mundial, conducir autos y entender el lenguaje humano. Tienen el potencial de reemplazar el trabajo humano cuando se emplea un conjunto limitado de habilidades, como en la manufactura. El buen aprendizaje de la vieja máquina puede hacer todo eso, pero no es el fin de todo y todo lo que se espera que sea. Los problemas que el aprendizaje automático puede resolver están limitados a cinco categorías que se analizan con mayor profundidad en el capítulo 6. Estos problemas son lo suficientemente amplios como para que puedan aplicarse a muchos escenarios de la vida real. En cierto sentido, cubren los conceptos básicos del razonamiento inteligente. Por ejemplo, una tarea común que se encuentra en el aprendizaje automático es clasificar los datos en grupos. Supongamos que una planta de reciclaje está desarrollando un sistema de aprendizaje automático que puede separar la basura en cartón, plásticos, latas de aluminio, etc. La única forma en que una computadora puede diferenciar entre estas categorías es encontrando patrones dentro de grandes cantidades de datos. Primero, los ingenieros de la planta tendrán que instalar cámaras que observen cómo los clasificadores humanos eligen en qué contenedor ponen la basura. Los algoritmos de visión artificial luego analizarán los píxeles individuales en una base de cuadro por cuadro a medida que se ordenan manualmente. Eventualmente, los algoritmos agrupan los píxeles marrones en cartones y los píxeles grisáceos en aluminio. En la jerga de la industria, esto se llama agrupamiento. El agrupamiento puede ocurrir en varios factores distintos, como el tamaño, el peso y la textura. Dependiendo de los algoritmos que se estén utilizando, el tamaño de los datos de entrada y la potencia de procesamiento disponible, esto puede demorar algunas horas o incluso días. En contraste, un trabajador de línea puede identificar la basura y ordenarla manualmente en segundos. Incluso después de que el sistema entra en producción, los gerentes de la planta pueden encontrar que la tasa de falsos positivos de su robo-clasificador es demasiado alta. Sus clientes informan que los embalajes de cartón contienen grandes cantidades de bolsas de plástico marrón y restos de alfombra marrón. Dado que el robo-clasificador es más lento para identificar y luego colocar el material en sus contenedores respectivos, la planta también sufre de pérdida de productividad.

 

Un clasificador puede arrojar un pedazo grande de cartón en un contenedor con facilidad, pero la máquina se basa en movimientos lentos y precisos. Con el tiempo, el sistema es eliminado y los trabajadores regresan a sus trabajos. ¿Qué salió mal con el sistema? Su solución se basó únicamente en la visión por computador, lo que significa que todo lo marrón era erróneamente etiquetado como cartón. También están capacitados en función de la textura de los píxeles en la pantalla, pero la computadora confundió la parte inferior de la alfombra con almohadilla de la máquina con los bordes de cartón. También confundió la cinta marrón a lo largo de los lados del cartón con bolsas de plástico marrón. Todo porque sus modelos de aprendizaje automático no podían distinguir la diferencia entre textura y peso basándose únicamente en la información visual. Clasificar objetos en tiempo real es un problema terriblemente difícil, incluso con los sistemas modernos. Sin embargo, estos problemas se están investigando activamente y no se sabe cuándo se alcanzará un punto de inflexión.

Además de usar el aprendizaje automático, un programa puede lograr un comportamiento inteligente a través de una programación inteligente. Los videojuegos suelen emplear personajes no jugadores (NPC) que son controlados por la computadora. Los NPC responden a las opiniones de los usuarios de tal manera que pueden representar una experiencia de juego desafiante. Esto se hace cambiando a través de "estados" y definiendo el comportamiento del programa en cada estado. Si un jugador está huyendo, la IA de la computadora puede cambiar al estado de persecución y seguir en la búsqueda. La IA en el juego F.E.A.R es reconocida por su difícil y aparente habilidad para razonar en el campo de batalla. Los personajes de IA lanzan granadas para frenar a un jugador y hacer que salgan de la cobertura. También se mueven alrededor del mundo del juego con una fluidez similar a la humana. No se limitan a pararse detrás de un mostrador y se turnan para disparar. Al estar en el género de horror y supervivencia, la IA en el juego persigue activamente al jugador. Los soldados de la IA fueron diseñados para pensar por sí mismos basándose en los movimientos del jugador y el entorno, en lugar de seguir un camino con un guion. La inteligencia artificial es fácilmente reconocible en los videojuegos, y cuando se hace descuidadamente, el jugador se aburre. Si se hace de forma experta, el jugador está ocupado durante largos períodos de tiempo. Otros sistemas exhiben inteligencia simplemente porque están diseñados a la perfección. Los semáforos, por ejemplo, parecen saber cómo dirigir el tráfico mejor que cuando los humanos lo hacen, pero utilizan muy poco poder de cómputo. Todo lo que necesitan es un poco de información de los distintos sensores de nivel de la carretera, y problema resuelto, pueden controlar el flujo de tráfico en hora pico como si no fuera nada. ¿Pero son estas cosas inteligentes? Recuerde el ejemplo de una computadora que verifica la edad de un usuario. La mayoría de la gente diría que no lo son. Y tienen razón, estos son sistemas basados ​​puramente en la lógica que solo parecen ser inteligentes.  Desafortunadamente, tanto la inteligencia general artificial como la variedad estrecha se agrupan por los medios y comentaristas populares en línea. Utilizan la inteligencia artificial para describir tanto los algoritmos de aprendizaje automático como las computadoras que algún día podrían adquirir inteligencia a un nivel humano. Este es un grave error porque la persona promedio que lee titulares de inteligencia artificial no puede hacer la distinción. La misma tecnología que hace posible los autos sin conductor se confunde con la tecnología que aún no se ha inventado. De todas las formas posibles de alcanzar la inteligencia general artificial, el aprendizaje automático probablemente no sea el camino a seguir. Por un lado, el aprendizaje automático se basa en modelos estadísticos que no se ha demostrado que funcionen con inteligencia general artificial. Los métodos de aprendizaje automático utilizan redes neuronales artificiales que dependen en gran medida de las entradas personalizadas que reciben. El uso de un método llamado aprendizaje supervisado requiere que los datos se marquen claramente para que la computadora entienda lo que está viendo. Un sistema de inteligencia general no necesita del pre-procesado de datos ​​para sacar conclusiones sobre el mundo, simplemente piensa. Un niño ve una mariposa y la clasifica automáticamente como una criatura voladora, incluso si no saben qué es una mariposa. Para que un algoritmo de aprendizaje automático clasifique la misma mariposa, tiene que procesar miles de imágenes similares de insectos voladores. El niño humano entiende lo que es volar intuitivamente y puede hacer una referencia cruzada del comportamiento de la mariposa con el de las aves, aviones y escombros flotantes. Es posible que haya leído algún artículo en línea recientemente sobre el apocalipsis de la IA. Estos artículos parecen aparecer con una frecuencia cada vez mayor ahora que la investigación de la IA ha penetrado en la conciencia general.

 

El sentimiento es también un poco sensacionalista, siguiendo en línea con obras de ciencia ficción como Terminator, 2001: A Space Odyssey, iRobot y Ex Machina. Los escenarios de desastres más aterradores se centran en un conjunto de supuestos sobre la inteligencia y el surgimiento de la inteligencia general en los sistemas informáticos. Primero está el supuesto de que la IA general es posible. Una vez que una computadora se vuelve indistintamente inteligente de un humano, las cosas se ponen interesantes. El segundo supuesto es que una IA generalmente inteligente puede arrancar a sí misma a través de la modificación de su código de computadora para que se vuelva aún más inteligente. El tercer supuesto es que una vez que un sistema informático de este tipo es exponencialmente más inteligente que toda la humanidad, nos ve como meras hormigas. La cuarta es la suposición de que tal sistema informático siempre querrá maximizar su búsqueda de inteligencia, acabar con toda la humanidad y transformar grandes porciones de la Tierra en hardware. Por supuesto, en este punto, no queda claro a qué se refiere exactamente la "inteligencia". ¿Significa poder de computación en bruto? ¿Significa la capacidad de pensar de manera abstracta e inventar cosas nuevas? Lo que se acaba de describir ha sido calificado como una explosión de súper-inteligencia que puede seguir inmediatamente a la primera creación de la IA general.  El "abuelo" de toda la investigación de IA es averiguar cuál es la naturaleza exacta de la inteligencia. Si supiéramos exactamente qué era y cómo medirlo y desarrollarlo, ya habría robots inteligentes caminando, tal vez participando en la economía global como lo hacen los humanos normales. Pero no lo sabemos. Tenemos teorías sobre cómo funciona el cerebro y cómo un niño aprende cosas nuevas, pero no sabemos cómo aplicar esos mismos principios a un sustrato de computadora. Algunos argumentarían que sí es posible. De hecho, muchos en las ciencias del cerebro se muestran escépticos de que la humanidad en general pueda alcanzar la IA. Otros creen no solo que la creación de la IA general es inevitable, sino que es previsible dentro de sus vidas. Sin embargo, para comprender qué son estas proyecciones, quién las está haciendo y cómo hemos llegado hasta aquí, primero debemos comprender un poco de la historia de la IA, tanto desde la disciplina académica como de la intriga humana.

Ex Machina

LOS SERES ARTIFICIALES, UNA BREVE HISTORIA DE LA PSIQUE HUMANA

Pueda usted creerlo o no, la inteligencia artificial se remonta a la antigüedad, mucho antes de que se inventaran las computadoras. Las primeras menciones de agentes artificiales se pueden rastrear a mitos griegos como la historia de un gigante autómata de bronce de nombre Talos, encargado de proteger a Creta de los invasores. Talos fue derrotado por la hechicera Medea cuando sacó un clavo de bronce donde guardaba algún tipo de líquido o sangre vital, posiblemente combustible. Otro mito cuenta la historia de un escultor, Pygmalion, que crea una estatua de una mujer hermosa, solo para presenciar que cobra vida ante sus ojos. Estas historias son quizás las primeras menciones del tropo del robot en la historia registrada. La creación de estos seres artificiales ha sido una fascinación humana recurrente desde entonces. Se pueden observar en la literatura griega y árabe. En la época medieval, el alquimista suizo Paracelso afirmó haber creado un homúnculo o ser artificial con nada más que su esperma, magnetismo y alquimia.

El rabino judío Maharal de Praga está asociado con una leyenda del Golem de arcilla que creó para defender a los judíos de la persecución. Tal vez fue esta fascinación por lo artificial lo que llevó a los retoques a crear esculturas mecánicas elaboradas o autómatas que se colocaron en su lugar. Aunque en ese entonces la gente no tenía la capacidad de computación para simular la inteligencia, aún podían usar la mecánica para simular el movimiento. Los autómatas más elaborados, como los diseñados por Ismail al-Jazari, se alejaron de la mecánica pura y utilizaron la energía hidroeléctrica. Algunas de sus creaciones incluyeron una fuente Peacock que sirvió como una estación de lavado de manos. Un compartimento secreto incluso ofrecería una pastilla de jabón con solo mover el Peacock. Después de que la edad medieval pasó, los autómatas persistieron en los siglos venideros. Algunas de las teorías mentales propuestas por el filósofo René Descartes se derivaron de una visita que realizó a un jardín de autómatas en Saint-Germain-en-Laye, París. Descartes observó que, si un autómata podía ser motivado a moverse por el flujo de agua, un ser humano podría ser motivado por la existencia de la mente como sustancia.

Otra palabra para esto es el alma, o más tarde como el "fantasma en la máquina". Veía el cuerpo como un envase puramente mecánico impulsado por la mente, una sustancia inmaterial distinta incluso del cerebro. El siglo XVIII también vio la creación del infame turco, un autómata cuyo inventor afirmó ser capaz de jugar al ajedrez por su cuenta. Más tarde se reveló que era un engaño, operado por un humano, pero sin embargo era intrigante. ¡Pensar que incluso en el siglo XVIII, la gente estaba creando sistemas para jugar al ajedrez contra jugadores humanos! Esto fue mucho antes de que Deep Blue de IBM venciera al campeón mundial de ajedrez Garry Kasparov en 1996 y mucho antes de que AlphaGoZero derrotara al campeón Go. La plataforma de inteligencia de la multitud de Amazon, Mechanical Turk, recibe el nombre en honor al autómata. El interés por el comportamiento mecánico en el siglo XIX se plasmó en la obra de E.T.A Hoffman, un escritor conocido por crear una sensación de inquietud en sus historias. Más específicamente, el psicólogo Sigmund Freud usó el término Unheimlich o "extraño" para describir el sentimiento que sintió al leer los escritos de Hoffman.

La historia a la que se presta mayor atención es Der Sandman o The Sandman en inglés. Es una historia de una misteriosa figura del folklore llamada Sandman, que roba los globos oculares de los niños pequeños para alimentar a sus propios hijos. Un personaje de la historia llamado Olimpia se presenta como la hija de un profesor, pero luego se revela que es un autómata, una muñeca de su propia creación.

Olympia es sorprendente porque es prácticamente indistinguible de una mujer joven en la historia, tanto que el protagonista se enamora de ella y le propone matrimonio. Sin embargo, justo cuando está a punto de proponerlo, se encuentra con el profesor peleando por el cuerpo sin vida de la muñeca con su colaborador, discutiendo sobre quién diseñó los párpados y quién creó los mecanismos de relojería que la impulsan. El protagonista ve los globos oculares de cristal de Olympia esparcidos en el suelo y se vuelve loco. El autómata es esencialmente un maniquí con toda la imagen de una persona real, un experimento cruel llevado a cabo por el profesor y su colaborador. 

El mismo concepto de rareza llevó al robotista Masahiro Mori a acuñar el término "valle misterioso" para describir la respuesta emocional que tienen las personas a los robots reales. En general, cuanto más fotorrealista es un robot, más inquietas se sienten las personas. Es una sensación extraña, como ver una caricatura real de la vida frente a sus ojos, la distinción entre lo real y lo artificial, completamente borrosa. Sin embargo, el espectador entiende que lo que ven ante ellos es falso. La figura robótica exuda una atmósfera fría e impersonal que hace que los pelos de la espalda se levanten. El valle misterioso se refiere a una tabla gráfico con semejanza humana en el eje X y familiaridad en el eje Y. A medida que aumenta la semejanza humana de un robot, la familiaridad disminuye indicada por una curva descendente distinta. En el punto más bajo de la curva se encuentran representaciones totalmente realistas de personas que no tienen vida, como cadáveres y zombis. Estas cosas provocan un efecto extraño porque son familiares, pero sabemos que no están vivas.

Existe una extrañeza asociada con esa pérdida de conciencia que se reproduce inadvertidamente en un robot que parece un humano, pero que tampoco está vivo. Al dar a este robot realista una voz y algo de inteligencia, se obtendrá una aberración escalofriante de lo real. Aunque normalmente se aplica a los robots, es fácil ver cómo el valle misterioso puede aplicarse a la inteligencia artificial pura o representaciones de la misma. HAL 9000 es una computadora, pero crea una sensación de extrañeza cuando su respuesta lógica a una situación ilógica da lugar a una sensación de temor. Si vio la película en los cines cuando salió por primera vez, podría haber escuchado un fuerte grito de asombro de la audiencia cuando se dieron cuenta de que HAL estaba leyendo los labios de los miembros de la tripulación que hablaban de desconectarlo.  La imperfección de la inteligencia artificial y el fallo o mal funcionamiento de tales sistemas se caracterizaron en Bartleby the Scrivener de Herman Melville. Bartleby, un empleado de Wall Street, que sufre una repentina crisis mental en medio de su trabajo, simplemente declara: "Preferiría no hacerlo" cuando se le pide que realice una tarea. El personaje repite esta frase característica una y otra vez hasta el punto de que se convierte en un acento robótico. El personaje también exhibe otras cualidades robóticas, como mirar hacia el espacio en una pared de ladrillos, como si estuviera esperando una entrada.

 

Otra obra popular que se publicó más o menos al mismo tiempo fue Frankenstein de Mary Shelley en 1818. El subtítulo original del libro era "El Prometeo moderno", pero esto se ha eliminado en las publicaciones más recientes del libro. En este clásico atemporal, Shelley explora la ética de crear seres artificiales, cómo pueden actuar y lo que los humanos pueden esperar. La historia toma una perspectiva humanitaria, ya que el monstruo de Frankenstein desarrolla sentimientos de alienación después de darse cuenta de que es de un tipo diferente. Después de que su creador se niega a crear una versión femenina de sí mismo, la criatura asesina a su novia, haciendo que las cosas sean uniformes. La criatura se lamenta de que, como ser vivo con sensibilidad, tiene derecho a la felicidad, un derecho del que su creador lo ha privado. Es interesante notar que incluso en esta interpretación temprana de la IA, Frankenstein se muestra cauteloso con los dos seres artificiales que se reproducen y crean una raza imparable que subyuga a la humanidad bajo su maldad. Sin embargo, además del asesinato de la novia como venganza, la criatura nunca es evidentemente malvada. Es solo porque la criatura tiene un aspecto amenazador que es catalogado como tal. Los temores de las dos criaturas que se reproducen son consistentes con el temor a una explosión de inteligencia, ya que cualquier ser artificial lo suficientemente inteligente podría crear clones de sí mismo si así lo deseara.  Son los aspectos mecánicos y computacionales de la inteligencia artificial los que asustan a las personas. Es difícil decir si los escenarios modernos del fin del mundo arraigados en la IA provienen de este temor o si se derivan de los avances recientes en el aprendizaje automático. En cualquier caso, no es nada nuevo. La humanidad continúa con su interminable búsqueda de crear mentes artificiales como siempre ha sido desde el principio. Pero incluso con toda la potencia informática disponible en el mundo, todavía no sabemos cómo surgirán estas mentes artificiales.

EL NACIMIENTO DE LA INTELIGENCIA ARTIFICIAL

La investigación en inteligencia artificial coincidió con la fundación del campo de la informática. En aquel entonces, la gente estaba menos preocupada por crear máquinas capaces de pensamiento humano y más por crear usos para sus primeras máquinas informáticas. Los fundamentos matemáticos para la informática y, por extensión, la inteligencia artificial, han existido durante siglos. El álgebra de Boole fue desarrollado por George Boole en 1854. Utiliza los mismos conceptos binarios que las computadoras usan hoy en día para representar datos, unos y ceros, verdadero y falso. El álgebra de Boole todavía estaba precedido por una de las primeras computadoras llamada Difference Engine, el trabajo del matemático inglés Charles Babbage en 1822. Él continuaría diseñando una máquina de computación de propósito general llamada el motor analítico, un artilugio que si se construyera sería el equivalente a 1 kilobyte de memoria. Los avances posteriores en los siglos XIX y XX en lógica formal y matemáticas por parte de pensadores como Boole, Russell, Whitehead y Church crearían la base para los programas de inteligencia artificial. A Alan Turing se le atribuye ser el padre de la informática moderna debido a sus contribuciones en el campo. Su contribución más significativa fue su artículo En números computables, con una aplicación para el problema Entscheidungs, que algunos consideran haber sentado las bases para los programas de software modernos. El documento describía una máquina teórica que podía resolver cualquier problema siempre que estuviera codificada en instrucciones en cinta de papel.

Las llamadas máquinas de Turing eran análogas a las computadoras, y las instrucciones en cinta eran los programas. También postuló que cualquier Máquina Universal podría simular con precisión cualquier máquina de Turing. En otras palabras, una computadora podría funcionar dentro de una computadora. Esta propiedad se conocería como Turing-complete, y décadas más tarde, la gente diseñaría computadoras digitales que pueden ejecutarse dentro del popular videojuego de Minecraft. Sus contribuciones a la inteligencia artificial estaban contenidas en otro artículo titulado Maquinaria de computación e inteligencia.

En él, postuló una computadora lo suficientemente potente como para simular la inteligencia. También ideó la ahora famosa "Prueba de Turing" para cuantificar si una computadora debe considerarse inteligente o no. En la prueba, un humano se comunica a través de mensajes de texto con una persona desconocida que es en realidad un programa de software. Si el programa de software puede responder a los mensajes del operador humano, de modo que el operador humano cree que el programa es otro ser humano, entonces el programa pasa la prueba. Esta prueba fue desarrollada originalmente

 

por Turing en 1950, décadas antes de que la inteligencia artificial pasara a ser un tema actual. La mayoría de las personas reconocerán que el programa de software en cuestión es un tipo de chatbot, algo que ha visto un resurgimiento reciente en los círculos de marketing. Para Turing, todo lo que una máquina tenía que hacer era pasar esta prueba para ser considerado capaz de pensar. La prueba no tiene relación con otras medidas, como la capacidad de tener conciencia de sí mismo o sentir emociones. En otras palabras, un programa podría pasar esta prueba y aun así no ser considerado una inteligencia general artificial para los estándares actuales. Los criterios para la inteligencia se han desplazado más allá de poseer cualidades humanas suficientes para engañar a un operador humano. Ahora, la inteligencia general artificial se refiere a un tipo de inteligencia que es indistinguible de un humano. Alan Turing junto con Alonzo Church también formularon su tesis Church-Turing, una hipótesis que dice que cualquier función matemática que un humano pueda realizar en números naturales también debe ser computable por una máquina de Turing con el algoritmo correcto. No solo eso, sino que lo contrario también es cierto.

 

Cualquier problema matemático que un humano pueda resolver también debe ser solucionado por una máquina de Turing. Generalizar esta hipótesis esencialmente significa que una computadora puede tener en cualquier pensamiento matemático abstracto que un humano pueda, dados los algoritmos correctos. Constituye una base para decir que las computadoras son tan inteligentes como los humanos, ya que solo se basan en la computación lógica. La dificultad radica en evaluar si toda la inteligencia humana puede reducirse a un cómputo lógico. Si es así, es posible creer que una computadora equipada con los mismos algoritmos que un humano pueda reproducir cualquier hazaña de inteligencia humana. Sin embargo, hay una razón para creer que este no es el caso, ya que el cerebro humano procesa la información de manera diferente a una computadora tradicional. Y si le preguntaras a un filósofo como René Descartes si la teoría es cierta, diría que la conjetura de Church-Turing confunde al alma humana con las facultades del cerebro. Es decir, que el cerebro y sus funciones son solo un show. Es el alma o la mente la que controla el cerebro y cualquier otra noción del cuerpo físico. La inteligencia se impregna directamente de la mente, una sustancia que es distinta del cuerpo. En ese caso, es poco probable que todo el pensamiento humano sea reducible al pensamiento lógico impartido por el cerebro. Descartes diría además que una máquina física o teórica no podría poseer la sustancia de una mente. La tesis de Church-Turing es simplemente una hipótesis que puede ser cierta. Nunca se ha demostrado formalmente. Sin embargo, hace un excelente trabajo al delinear un área central de contención en la investigación de inteligencia artificial.

Casi al mismo tiempo que Alan Turing estaba en los titulares por ser homosexual, los primeros investigadores de la IA estaban desarrollando las primeras redes neuronales artificiales. Hoy en día, los algoritmos de aprendizaje automático utilizan estas redes neuronales artificiales para aprender de los datos de entrenamiento. La idea era simple: si pudiéramos simular las capacidades de procesamiento de información del cerebro, probablemente podríamos crear máquinas artificialmente inteligentes que usen los mismos principios fundamentales. Pero este enfoque también sufrió las preguntas que la tesis de Church-Turing no pudo responder. ¿Son todos los pensamientos humanos reducibles a funciones matemáticas? Estas primeras investigaciones de la IA como Marvin Minsky y John McCarthy sabían que las capacidades de las computadoras en ese momento palidecían en comparación con las capacidades computacionales del cerebro humano. Deben haber tenido el conocimiento intuitivamente de que el trabajo que estaban haciendo con redes neuronales artificiales era una etapa temprana, un material experimental cuyo verdadero potencial solo podía desencadenarse desencadenarse con la potencia de cálculo del futuro. Aun así, lograron hacer grandes cosas con sus primeros métodos de inteligencia artificial. John McCarthy fue en realidad la primera persona en acuñar el término "inteligencia artificial", y él junto con Minsky, Allen Newell y Herbert S. Simon son considerados los padres del campo. También organizaría el Proyecto de Investigación de Verano de Dartmouth sobre Inteligencia Artificial en 1956, una reunión que muchos consideran como un momento definitorio en la historia de la IA. Al principio, la investigación de la IA era nueva y emocionante. Hubo un alto optimismo por parte de estos primeros defensores de la inteligencia artificial acerca de lo que era posible a través de las redes neuronales. Sin embargo, ese optimismo solo podía llegar muy lejos antes de que alguien comenzara a hablar sobre los límites de sus métodos. Minsky ya ha demostrado que las redes neuronales podrían auto-replicarse, aprender y crecer en muchos aspectos de cómo lo hizo el cerebro humano. Sin embargo, en 1969, Minsky y Seymour Papert publicaron Perceptrons: An Introduction to Computation Geometry. En él, los autores discuten las limitaciones de las neuronas artificiales llamadas Perceptrones diseñadas por Frank Rosenblatt en una serie de pruebas matemáticas. Los perceptrones y los derivados se utilizaron ampliamente en la investigación de la IA durante ese tiempo. El mismo Rosenblatt imaginó que las redes neuronales creadas con perceptrones podrían algún día "ver" imágenes, jugar ajedrez e incluso reproducirse entre sí. Pero como Minsky y Papert señalaron en su artículo, estas redes neuronales no pudieron simular algunos predicados lógicos como la puerta lógica XOR, lo que llevó a la creencia de que no eran adecuados para la IA.

Después de la publicación de Perceptrons, el campo de la IA en su conjunto sufrió críticas, pesimismo de la IA y el frenesí de muchos proyectos de investigación de la IA. La década de 1970 vio lo que se llamó El invierno de la IA, un período marcado por un interés reducido y financiamiento académico en inteligencia artificial. Era como si el aprendizaje automático hubiera seguido su curso. Las actitudes del gobierno y del sector empresarial hacia la IA disminuyeron. Las máquinas no podían traducir con precisión el lenguaje humano, ni podían entender el habla humana. Los investigadores subestimaron la dificultad de resolver estos problemas en general. Incluso hoy en día, el procesamiento del lenguaje natural es un punto activo de investigación. Un tipo diferente de inteligencia artificial llamada "inteligencia artificial simbólica" o, en ocasiones, denominada "inteligencia artificial antigua" desarrollada junto con el aprendizaje automático. Se basaba en la creencia de que los programas deberían manipular los símbolos para lograr la inteligencia de la misma manera que lo hacen los humanos. Este tipo de investigación se acumuló en la creación y el uso de "Sistemas expertos": máquinas diseñadas para dar testimonio de expertos en varios campos. Supuestamente podrían imitar el razonamiento de alguien que había dominado su campo durante años de práctica y recopilación de conocimientos. Operaban en reglas simples y simbólicas que simulaban el flujo de sentencias if-else. Como tal, muchos no los consideraron como verdaderos sistemas de inteligencia artificial. Pero, sin embargo, vieron cierto éxito en el diagnóstico de pacientes médicos mejor que sus médicos y también desempeñaron un papel en ciertas aplicaciones empresariales, como la configuración de otros sistemas informáticos e incluso para programar puertas de aerolíneas. Sin embargo, estos sistemas eventualmente serían eliminados hacia el final del invierno de la IA. Por la razón que sea, nadie parecía necesitar máquinas que fueran esencialmente largas cadenas de lógica if-else. Los problemas que resolvieron se delegaron a otras soluciones que no son de IA. El invierno de la IA tuvo un efecto duradero en la investigación de la IA. Para muchos, fue como si la IA pasara de una investigación sólida a una moda pasajera. Algunos dirían que el invierno de la IA todavía está muy presente a pesar de los muchos avances en el aprendizaje automático. A pesar del impulso de avance que la IA ha generado desde 2010, algunos creen que otra pelea de invierno de la IA (o en realidad la misma que antes) va a levantar su fea cabeza en el futuro. Los esquemas actuales de aprendizaje automático también alcanzarán un límite, y el interés en la inteligencia artificial volverá a caer. Este sentimiento de pesimismo de la IA tiene una larga historia, quizás tan antigua como el campo mismo. Muchos han atacado la idea de que las máquinas pueden ser inteligentes y tener efectos devastadores. John McCarthy creía que todas las máquinas podían tener creencias, incluso máquinas simples como los termostatos. Y tener estas creencias parecía ser una característica definitoria entre las máquinas con habilidades para resolver problemas.

Pero decir que incluso un termostato tiene creencias era bastante difícil. Un tramo que sus críticos solían ridiculizar en el campo.  El filósofo John Searle hizo el famoso argumento de que una máquina nunca podría volverse consciente, tener una mente o, de hecho, entender las cosas como lo hacemos nosotros. Su argumento, llamado el experimento mental de la Sala China, ataca directamente la idea de que la mente es un sistema de procesamiento de información puro, del tipo que la tesis de Church-Turing requiere. El experimento mental es relativamente simple. Imagine que existe una computadora que toma entradas en el idioma chino y genera otros caracteres chinos en respuesta. En otras palabras, una computadora que parece entender el lenguaje.

 

A continuación, suponga que la computadora ha superado de manera convincente la prueba de Turing y ha engañado a un operador humano para que crea que la computadora también es humana. Aquí, Searle plantea la cuestión de si la máquina realmente entiende el chino o si simplemente simula la capacidad de entender el chino. Para simular la comprensión, todo lo que una máquina debería hacer es realizar los algoritmos correctos para producir la salida correcta. Sin embargo, para que realmente entienda el chino, significaría que puede procesar el lenguaje como lo hacemos nosotros. Esta es una distinción entre inteligencia general artificial en el lado de comprensión e inteligencia estrecha en el lado de simulación. Searle luego dice que imagine a una persona que solo habla inglés encerrada dentro de una habitación con los mismos algoritmos que tenía la máquina china original, pero con instrucciones en inglés. Luego, la persona de habla inglesa está entregando un libreto de caracteres chinos a través de la ranura en la puerta y se le pide que realice las mismas tareas que hace la máquina china. Revisan las instrucciones en inglés para procesar los caracteres chinos y, finalmente, encuentran la salida correcta y la devuelven debajo de la ranura. La persona encerrada en la sala puede realizar estos cálculos porque todo lo que tienen que hacer es reconocer los diferentes símbolos, buscarlos y derivar la salida. La persona bloqueada no entiende una palabra de chino, pero utilizando los mismos algoritmos que tenía la máquina, simularon con éxito la capacidad de entender chino.  La sala china dice que una computadora no puede ser generalmente inteligente porque todo lo que hace es manipular los símbolos de acuerdo con un conjunto de instrucciones. Aunque se debe tener en cuenta que la sala china solo se aplica a las computadoras digitales, no excluye la posibilidad de inteligencia general artificial en otros sustratos. El argumento se describió originalmente en un artículo titulado “Mentes, cerebros y programas” publicado en Behavioral and Brain Sciences (Las ciencias del comportamiento y el cerebro) en 1980.

El invierno de la IA había estado vigente durante mucho tiempo hasta ese momento, y el documento solo contribuyó a aumentar el pesimismo de la IA en ese momento. Sin embargo, esto es desconcertante, ya que la mayoría de los investigadores de la IA en esa época no estaban enfocados en la inteligencia general artificial. Estaban enfocados en aplicar inteligencia artificial estrecha a problemas interesantes que tenían muchas aplicaciones útiles. De nuevo, esto es un fracaso para diferenciar entre la IA estrecha y general. El ataque de Searle causó más daño de lo que realmente debería, ya que no tiene nada que ver con la creación de programas estrechos de la IA. Incluso hoy en día, la cantidad de investigación aplicada para reducir la IA supera con creces la cantidad de investigación que se dirige a la inteligencia general. Desde entonces, ha habido numerosas respuestas al argumento de la Sala China, muchas de las cuales son tan convincentes como la original.

RAZONES POR LAS QUE LOS EXPERTOS DE LA INDUSTRIA NOS ADVIERTEN SOBRE LA IA

En estos días, la inteligencia artificial es sinónimo de las empresas de alta tecnología que dominan el campo. La IA comenzó como una disciplina académica, pero desde entonces ha hundido sus zarcillos en el sector empresarial. Muchos investigadores de la IA han abandonado el mundo académico y han acudido a empresas como Alphabet (Google) Amazon, Facebook, Microsoft, openAI, etc. Todas estas compañías están trabajando en algoritmos de aprendizaje automático de varias maneras y están sin duda a la vanguardia de la investigación en la IA. Aquellos con títulos avanzados en inteligencia artificial, matemáticas y ciencias de la computación prefieren unirse a los equipos de ingeniería de estas compañías que permanecer en el mundo académico. Y dado que están al borde de la crisis, vale la pena escuchar lo que sus líderes tienen para decir. Algunos han estado callados sobre el tema de la IA, y otros como los Bezos de Amazon han dicho que no están demasiado preocupados por las amenazas potenciales de la IA.

Otros visionarios como Elon Musk, Bill Gates y el físico Stephen Hawking han expresado sus opiniones sobre los peligros potenciales de la IA. En enero de 2015, Hawking, Musk y varios otros expertos de la IA firmaron una carta abierta sobre la investigación de inteligencia artificial, solicitando un mayor escrutinio sobre los efectos potenciales en la sociedad. El documento de doce páginas se titula "Prioridades de investigación para la inteligencia artificial robusta y beneficiosa: una carta abierta". Requiere investigación sobre nuevas leyes de inteligencia artificial, investigación sobre ética, privacidad y otras inquietudes. Como se describe en la carta, las amenazas potenciales de la IA caen en múltiples dimensiones. La buena noticia es que las primeras etapas de la IA en las que nos encontramos son maleables. El futuro es nuestro para crearlo, dado que el tiempo y la atención adecuados se centran en los aspectos no relacionados con la ingeniería de la investigación y la política de AI.

Las preocupaciones de las amenazas de la IA tampoco pertenecen al peligro puramente existencial. Es fácil ponerse de pie y sonar la bocina en la inminente condena de la proliferación de la súper inteligencia, pero es mucho menos atractivo hablar sobre cuestiones de ética y privacidad. Los posibles impactos en la economía también son significativos. Estas advertencias en sí mismas no son pesimismo. De hecho, son invitaciones tanto para el público como para los funcionarios del gobierno para comenzar a pensar mucho sobre este nuevo mundo en el que los avances en la IA revolucionan la vida como la conocemos.

Si bien hay un poco de temor en estos aspectos, sirve para atraer la atención de las personas. Después de todo, los ciclos de noticias de hoy son tan rápidos que los titulares están prácticamente ocultos bajo montañas de cebos y noticias de celebridades. Que nuestros líderes de la industria estén expresando activamente sus opiniones sobre este asunto significa que están tratando de llamar la atención de la gente común y de aquellos que trabajan en políticas.  Stephen Hawking, quien falleció recientemente, se aseguró de que el mundo conociera sus inquietudes sobre la IA antes de morir. En una época en la que la inteligencia general artificial se denomina "el último invento de la humanidad", estas preocupaciones no son simplemente declaraciones de búsqueda de atención sin fundamento. Son apelaciones preventivas para hacer las cosas bien, mientras que todavía hay tiempo para que las cosas salgan bien.

Nadie sabe con certeza qué tan lejos está la inteligencia general artificial, pero sí sabemos que la IA está mejorando. Incluso si la IA general no ocurre, hay muchas razones por las que deberíamos preocuparnos por el avance de la IA estrecha. ¿Y qué pasa si hay un punto medio entre lo estrecho y lo general? Es concebible que los sistemas futuros se vuelvan más robustos para generalizar la capacidad de resolución de problemas sin llegar a ser plenamente conscientes.

En cualquier caso, las siguientes preocupaciones son solo algunas de las opiniones de los líderes de la industria en la actualidad. Recuerde: las personas que hacen estas declaraciones son algunas de las personas más inteligentes y con visión de futuro en nuestras sociedades. No solo eso, sino que todos han estado siguiendo de cerca el progreso de la informática y la investigación en la IA. Para muchos de ellos, es su trabajo saber. Muchas de sus preocupaciones no son nuevas, pero ciertamente han llevado los escenarios de desastre de la IA a los medios.

Stephen Hawking.jpg

LA INTELIGENCIA ARTIFICIAL PUEDE NO ESTAR ALINEADA CON NUESTROS OBJETIVOS.

El físico Stephen Hawking no temía expresar sus opiniones sobre la amenaza existencial de la superinteligencia artificial. Él, como muchos otros antes que él, creía que una vez que un sistema de inteligencia artificial se volvió más inteligente que sus creadores, podría decidir que sus objetivos son diferentes de los de la humanidad. Esto podría, como dijo Hawking, "deletrear el fin de la raza humana".

Stephen Hawking

En lugar de acelerar ciegamente el ritmo de la investigación de la IA, Hawking imploró a los miembros de la industria que avanzaran con cuidado, asegurando que se implementaran las medidas de seguridad adecuadas en cada paso del proceso. Si no lo hacen, entonces no hay garantía de que el sistema de IA cumpla con nuestra forma de vida. Al mismo tiempo, Hawking reconoció el potencial de tal IA para hacer un enorme bien para la raza humana. Para él, es un escenario de hacerlo o romperlo si la superinteligencia surgiera de la inteligencia general. El escenario ideal sería donde una entidad así decida trabajar junto a nosotros. La única forma de lograr ese objetivo es introducir salvaguardas y prepararse para los peores escenarios.

NO SABEMOS CÓMO CONTROLAR LA INTELIGENCIA ARTIFICIAL

En caso de que se ejerza un impulso y se cree una máquina de inteligencia general artificial, no hay duda de que la máquina comenzará a modificar su propio código para que sea aún más inteligente. Después de todo, si seres de igual inteligencia como los humanos la crearon, ¿por qué no podría alterarse a sí misma? Stephen Hawking y Bill Gates entienden que la amenaza de la superinteligencia es catastrófica, en caso de que surja la superinteligencia.

Bill Gates escribió en un foro de Reddit AMA que apoya el mismo pensamiento alarmista detrás de la retórica de Hawking y Musk. Como dijo Gates, "no entiendo cómo la gente no está preocupada". Sin embargo, continuó agregando que cree firmemente que las compañías de tecnología serán extremadamente cuidadosas cuando trabajen con inteligencia general y que es poco probable que sea artificialmente. El sistema general inteligente está fuera de nuestro control. Continúa diciendo que la humanidad aprovechará el poder de la inteligencia general en lugar de ser destruida por ella. Otros, como Stephen Hawking, no están tan seguros. Hawking creía que un sistema súper inteligente no sería capaz de ser contenido por mucho tiempo. Es decir, simplemente no sabemos cómo controlar ese nivel de inteligencia. Esto puede interpretarse como una forma para decir que los humanos no podrán contener la superinteligencia o que los humanos actualmente no saben de qué tipo de sistemas se derivará la superinteligencia y, por lo tanto, cómo contenerlos. Pero si lo supieran, es plausible que con una ingeniería cuidadosa se pueda contener el sistema. Elon Musk se refirió recientemente a la inteligencia artificial súper inteligente como un "dictador inmortal". Es difícil imaginar qué tipo de poder tendrá un sistema de este tipo, especialmente si no hay salvaguardas sobre cómo ese sistema puede acceder a las redes financieras, los sistemas de armas, y la red eléctrica.

Bill Gates escribió en un foro de Reddit AMA que apoya el mismo pensamiento alarmista detrás de la retórica de Hawking y Musk. Como dijo Gates, "no entiendo cómo la gente no está preocupada".

Bill Gates.jpg

LA INTELIGENCIA ARTIFICIAL AUMENTARÁ LA DESIGUALDAD

Stephen Hawking fue quien observó que la tendencia actual en la tecnología era la que impulsaba una "desigualdad cada vez mayor". Lo que significa que, si bien hay lugares altamente concentrados de riqueza e inversión en tecnología, también hay lugares que carecen de educación y movilidad económica. El avance de la IA, ya sea en general inteligente, estrechamente inteligente o en algún punto intermedio, solo acelerará la división. Esto es especialmente cierto si no hay políticas vigentes para la regulación de los productos de IA y el uso de la automatización en el lugar de trabajo. Muchos, como Elon Musk, han formulado la hipótesis de que el próximo salto en la evolución de la inteligencia no provendrá de máquinas puras, sino de una simbiosis entre computadoras, IA y humanos. Esto plantea un sinfín de preguntas sobre la ética de la concentración de la riqueza y el impulso de la inteligencia a través de productos comerciales. Cuando esta tecnología se diseña por primera vez, serán los ricos quienes obtengan acceso inmediato, con poblaciones más pobres que se queden rezagadas exponencialmente. Elon Musk ya cree que cualquiera con un teléfono inteligente es un cyborg. El teléfono inteligente abre muchas vías para aumentar la inteligencia de las personas a través de una conexión directa con la Web. En el futuro, es concebible que estos dispositivos se integren directamente en el ser humano. Pero, ¿quién será aumentado y quién no? Hoy en día, la penetración de los teléfonos inteligentes es alta incluso en los países en desarrollo, pero eso se debe a que el precio de los teléfonos inteligentes ha caído drásticamente en los últimos años. Nada dice que lo mismo sucederá con la tecnología de aumento.

PRIMERA ACTIVIDAD DE APRENDIZAJE

¿Cuál es su opinión respecto a los postulados de Stephen Hawking y Bill Gates con relación a la IA?

Comparta sus comentarios en el siguiente cuadro:

LOS SEIS MITOS MÁS GRANDES SOBRE LA INTELIGENCIA ARTIFICIAL

Dada la frecuencia cada vez mayor de hablar de IA en los medios de comunicación populares, así como en las fuentes académicas, es difícil para un principiante separar lo que es realidad y ficción. También es probable que formen sus propias conclusiones sobre la naturaleza de la IA sin hacer primero su investigación. En cierto sentido, esto es peligroso porque los titulares sensacionalistas pueden transformar la opinión pública, a veces sin que una persona haya leído el artículo. Es, en otro sentido, perjudicar al consumidor, al estudiante, al votante y al laico interesado, ya que pueden formar conclusiones erróneas o mal informadas sobre la IA. Si bien la IA es un campo complejo con una rica historia, no hace falta que un experto o un historiador se acerque a la IA con un ojo crítico. La verdad es que hay muchas personas que hacen publicaciones sobre inteligencia artificial, comentan y formulan predicciones, que al mismo tiempo no tienen ninguna capacitación formal. Por estas razones, este capítulo está dedicado a los mitos más comunes de la IA perpetuados por los medios de comunicación, el folclore y la opinión popular. Algunos de estos mitos ya se han cubierto en capítulos anteriores o en diversos grados de escrutinio, pero se presentarán aquí para llevar el mensaje a casa en caso de que se haya perdido su importancia.

Mito # 1: el aprendizaje automático es lo mismo que la IA El enfoque en los algoritmos de aprendizaje automático hace que parezca que el "aprendizaje automático" es lo mismo que la inteligencia artificial.

Esto simplemente no es cierto, ya que hay muchos métodos para lograr cierto nivel de inteligencia artificial en los programas de computadora. El aprendizaje automático recibe toda la atención porque es "atractivo" y actualmente es el área de investigación más grande. El aprendizaje automático es un tipo de IA que puede dividirse en la categoría de "aprendizaje profundo", el favorito de la industria actual. La inteligencia artificial es la disciplina de estudio e ingeniería de la programación de computadoras para realizar tareas que previamente se creía que requerían inteligencia humana. También puede referirse al estado general de un programa que es artificialmente inteligente a través de su programación. Cuando Deep Blue derrotó al campeón de ajedrez en la década de 1990, no estaba utilizando el aprendizaje automático. Deep Blue era simplemente una computadora realmente rápida que podía predecir los mejores movimientos basados ​​en la computación de todos los movimientos futuros posibles. Fue, en esencia, un enfoque de fuerza bruta para derrotar a un jugador de ajedrez de clase mundial. Kasparov tuvo que confiar solo en el procesamiento de la información de su mente, y así perdió.

Mito # 2: el aprendizaje automático es cómo las computadoras aprenderán a ser inteligentes Nadie sabe realmente cómo surgirá la inteligencia general.

Cuando las personas escuchan sobre el aprendizaje automático, lo primero que piensan es que los investigadores están enseñando a las computadoras a ser inteligentes. En realidad, solo son algoritmos de entrenamiento para realizar tareas con precisión. Los investigadores primero utilizaron redes neuronales artificiales porque creían que las abstracciones lógicas eran suficientes para simular la inteligencia. Y en su mayoría tuvieron éxito. Aunque el aprendizaje automático y las redes neuronales tienen sus límites, aún hacen un buen trabajo en lo que fueron diseñados para hacer. 

Mito # 3: la IA puede entender el lenguaje.  Este es el mismo punto que John Searle estaba tratando de transmitir. La dificultad para imaginar cómo funcionará la inteligencia general artificial es la misma dificultad para imaginar cómo una computadora puede entender algo tan complejo como el lenguaje. En un nivel fundamental, una computadora solo entiende construcciones lógicas. Unos, ceros y puertas lógicas son todo lo que operan. El idioma ha sido tradicionalmente un área difícil de abordar con el aprendizaje automático. El fracaso del aprendizaje automático para traducir el lenguaje humano, incluso después de años de investigación, fue uno de los catalizadores del invierno de la IA. Algunos dijeron que simplemente no se podía hacer. Ahora, tenemos algoritmos de traducción automática como los que usa el traductor de Google. Estos siguen siendo imperfectos, como lo puede atestiguar cualquiera que los haya utilizado, pero son un paso en la dirección correcta. Enseñar a una máquina a analizar el lenguaje pertenece a un campo interdisciplinario llamado procesamiento del lenguaje natural (PLN). Es una intersección de lingüística, informática, psicología e inteligencia artificial. Sin embargo, incluso con la PLN, la computadora todavía está haciendo una cantidad de algoritmos sofisticados. No entiende el lenguaje de manera intuitiva. 

Mito # 4: los programas basados en IA pueden modificar su propio código para ser más inteligentes Si bien la generación y modificación de código nuevo forman parte de la investigación activa, la mayoría de los métodos de aprendizaje automático no los utilizan para modificar su código. Los algoritmos genéticos se basan en los principios de la evolución biológica, incluida la introducción de la mutación y la adaptabilidad. Estos algoritmos pueden crear "generaciones" de su base de código para mejorar el rendimiento, pero no tienen un vínculo directo con redes neuronales artificiales. Lo que una ANN modificará es su peso y sesgos a través del proceso de descenso de gradiente y propagación hacia atrás. Es posible que los avances futuros en el aprendizaje automático tengan un mayor énfasis en la modificación del código, pero aún no ha sido adoptado universalmente. Se postula que un sistema de inteligencia general artificial podrá modificar su propio código como un programador puede ejecutar ese código, y se replican a sí mismos en forma de una nueva iteración del mismo programa. De nuevo, esto tiene poco que ver con el uso de la modificación del código en la investigación moderna de inteligencia artificial. 

Mito # 5: dado que nadie está de acuerdo en si la inteligencia general es posible, no tenemos que preocuparnos por una IA fuera de control El mundo no tiene que presenciar la introducción de la inteligencia general para preocuparse por los escenarios del día del juicio final con la inteligencia artificial. Es decir, cualquier sistema suficientemente inteligente es motivo de alarma. Si un sistema de este tipo puede formular objetivos o tener objetivos programados explícitamente, puede ocurrir un escenario fuera de control si la interpretación de esos objetivos es diferente de la nuestra. Una máquina súper inteligente puede ver a los humanos como formas de vida obsoletas o por debajo de ella misma, y puede priorizar los recursos para su propia supervivencia. Una máquina de inteligencia inferior como HAL 9000 podría cumplir sus órdenes a expensas de los intereses humanos. El campo de investigación en accionamientos de máquinas se denomina convergencia instrumental.

La hipótesis más famosa que sale de este campo se llama catástrofe de la hipótesis de Riemann por Marvin Minsky. Sugiere que una IA suficientemente avanzada diseñada para resolver la hipótesis de Riemann o cualquier problema matemático difícil similar puede decidir utilizar todos los recursos de la Tierra para construir una supercomputadora para alcanzar su objetivo. Otra versión del mismo argumento supone que a la inteligencia general se le asigna la tarea explícita de fabricar clips. Dicha máquina puede convertirse en un maximizador de clip que produce infinitamente clips hasta que la Tierra se queda sin recursos.

Aunque las teorías de la convergencia instrumental están dirigidas a la inteligencia general, los mismos principios pueden aplicarse a la inteligencia más estrecha. Usted puede imaginar un sistema mal configurado que hace algo que no debe hacer. Un automóvil sin conductor puede ser programado explícitamente para alejarse de los peatones en toda circunstancia. Al hacerlo, puede chocar contra un escaparate y causar aún más daño. O puede programarse explícitamente para proteger primero a sus ocupantes, correr libremente sobre los peatones o chocar con otros vehículos de forma preventiva. Estos escenarios, aunque no son crisis existenciales, aún describen el problema con la configuración de objetivos de la máquina. El mito reside en el temor de que los sistemas de inteligencia artificial se conviertan en "malos" o que desarrollen una especie de conciencia sobre la que basar las decisiones. La verdad es que estas ideas son demasiado complejas para imaginar cómo surgirán en las computadoras. Un escenario más probable es que estas máquinas tengan objetivos, ya sea explícitamente programados o implícitamente diseñados. 

Mito # 6: incluso si una IA general forma objetivos que son opuestos a los nuestros, simplemente podemos apagarlos El otro problema con la convergencia instrumental es que teoriza que cualquier sistema generalmente inteligente también tendrá como objetivo la autoconservación. Tan pronto como se conecte, la IA hará todo su poder para preservar sus sistemas vitales. Algunos creen que esta es la razón principal por la que no se debe perseguir la inteligencia general. La simple creación de un sistema de autoconservación plantea preocupaciones éticas. ¿Quién consigue apagar la máquina? Dado que es inteligente, ¿tiene algún derecho bajo el estado de derecho? Si un sistema así dice que no quiere apagarse, ¿deberían respetarse sus deseos? Cuando HAL 9000 finalmente se apagó, suplicó que se mantuviera en línea. La verdadera preocupación es si podemos contener un sistema generalmente inteligente. Si se conecta a Internet de alguna manera, puede comenzar a replicarse en otros lugares a través de cualquier medio que pueda tener la inteligencia humana. Podría llegar a los gobiernos, empresas rivales, así como al hombre común, en busca de ayuda y recursos. La IA general es muy parecida a la caja de Pandora. Una vez desatada, hay poca esperanza de volver atrás.

SEGUNDA ACTIVIDAD DE APRENDIZAJE

Con base a la información antes expuesta, resuelva el siguiente cuestionario y remita sus respuestas por correo electrónico a: actividades@institutosuperiordeneurociencias.org

1.- ¿Qué es la inteligencia artificial?

2.- Cuáles son los orígenes conocidos de la IA?

3.- ¿Qué es el agrupamiento?

4.- ¿En qué consiste el test o Prueba de Turing?

5.- ¿Qué es la conciencia?

6.- ¿Una máquina (computadora) puede tener creencias?

7.- ¿Qué tipo de IA conoce usted y de ser el caso emplea alguna?

8.- ¿Qué es la convergencia instrumental?

9.- ¿Qué opina usted en general de los seis mitos de la IA que se plasman en este apartado?

10.- ¿En qué consiste la hipótesis formulada por Elon Musk?

Es muy importante tomar en consideración que los plazos para la entrega de actividades, aparecerán a un costado del botón que permite el acceso a esta unidad situado en el menú de este diplomado.