INTELIGENCIA ARTIFICIAL Y
NEUROCIENCIA

  • Facebook
  • Twitter
  • YouTube
  • Pinterest
  • Tumblr Social Icon
  • Instagram

CONTENIDO DE LA UNIDAD

  • Material de estudio

  • Imágenes

  • Interacción

  • Actividades

7c81c51b-eab2-404d-bb2f-a3d642210b2c_clipped_rev_1.png

EL APRENDIZAJE
AUTOMÁTICO

INTRODUCCIÓN

El aprendizaje automático

Cuando las personas escuchan por primera vez las palabras "aprendizaje automático", pueden asumir que tiene algo que ver con la programación avanzada. Los laicos generalmente se encuentran con el aprendizaje automático en el título de un artículo en línea. Otros pueden escucharlo en un anuncio mientras ven videos de YouTube. No necesita una formación técnica para comprender lo que estas dos palabras pueden significar de manera intuitiva. Al mismo tiempo, es solo lo técnico y curioso lo que incluso le dará una segunda idea.

Como con la mayoría de las cosas relacionadas con la tecnología, las palabras son aire caliente. Las escucha decir, las lee en una página de inicio para un nuevo producto digital, pero no pregunta ni se preocupa por lo que está pasando. Esta actitud es comprensible, pero un poco triste. El aprendizaje automático juega un papel fundamental en nuestra sociedad y solo se volverá más importante en el futuro cercano. Si bien el aprendizaje automático no dicta cosas como el gobierno y la política económica, algún día podría hacerlo.

En un sentido amplio, el aprendizaje automático en la actualidad está restringido a círculos académicos y de negocios. Es desde el lado comercial de las cosas que se introduce en la corriente principal. La publicidad es la forma obvia de transmisión, pero también se filtra a través de los medios de comunicación. A medida que avanzamos hacia el siglo XXI, se hablará cada vez más del aprendizaje automático. Se escribirán más artículos de noticias y la población mundial tendrá que decidir por sí misma si desean seguir entendiendo o hacerse la vista gorda y hacer una estimación de lo que las palabras intentan decir. Si el futuro es algo como hoy, probablemente podamos renunciar a las escuelas públicas a la hora de impartir el aprendizaje automático a sus alumnos en el futuro.

Las cosas como la inteligencia artificial a menudo siguen el camino de la programación informática, solo porque el expresidente Obama haya mencionado que todos deberían aprender a programar, no significa que la informática deba agregarse a la base común. La realidad es que no todos deben aprender a programar. La programación nunca será una habilidad común como la lectura y la escritura, punto. En los niños en edad escolar, la programación de computadoras comienza como un pasatiempo, luego se convierte en una obsesión y, finalmente, en una profesión. Al igual que a algunos niños les gusta practicar deportes y a otros les gusta leer libros, solo a unos pocos les gusta programar. Mirando el lado positivo, la generación Z y más allá crecen rodeados de tecnología. La alfabetización informática está en el punto más alto de todos los tiempos, por lo que existe cierta esperanza de que la programación se vuelva más común. Actualmente, se asienta como conocimiento especializado. 

El aprendizaje automático es otra especialización que descansa sobre la programación. Se encuentra en una intersección entre el pensamiento estadístico y computacional. Las consecuencias de esta especialización del conocimiento son que pocas personas lo entienden. Sin embargo, el personal de marketing sigue insistiendo en empujarlo por las gargantas del consumidor común.

Por alguna razón, agregar las palabras "inteligente", "IA", etc. son los principales puntos de venta. O bien la alfabetización en aprendizaje automático debe aumentar o se seguirá tratando como una “salsa especial” o aceite mágico. Aunque realmente no hay magia detrás de esto, solo parece mágico porque la gente se siente incómoda con la idea de que una máquina o programa tenga la capacidad de pensar.

Incluso las palabras “máquina” y “aprendizaje” suenan clandestinas para muchos. ¿Qué está pasando aquí? ¿Está un programador sentado en un apartamento tenebroso en algún lugar hablándole a su monitor sobre el ABC? ¿Y puede el monitor entender lo que está diciendo? Dudo que muchos realmente lo crean cuando se topan con el aprendizaje automático en un titular. El problema es que cuando alguien no entiende algo, solo hacen preguntas si eso les importa. ¿Aprendizaje automático? Probablemente alguna cosa elegante de computadora en la que trabaja la gente en MIT. En lo más básico, el aprendizaje automático es una programación inteligente y algunas estadísticas sofisticadas. Es muy difícil separar los dos, tanto en teoría como en la práctica. Los más cínicos dirán que las máquinas no pueden pensar, por lo tanto, no pueden "aprender", y que la inteligencia artificial es solo un apodo para productos publicitarios. Lo que se denomina aprendizaje automático es en realidad solo un método estadístico, un montón de números que dan un resultado que puede confundirse con un razonamiento inteligente.

Esta actitud, si bien es práctica, todavía pierde el punto. El aprendizaje automático se basa en gran medida en fundamentos estadísticos, pero no es puramente estadística. Y no, el aprendizaje automático no puede hacer que una computadora "aprenda" de la forma en que un niño puede hacerlo, pero sin embargo pueden encontrar patrones en los datos, aplicar reglas generalizadas a los datos y usar ambas habilidades para predecir datos futuros. Más específicamente, es el programa, no la máquina en general, lo que está haciendo esto.

Las palabras "aprendizaje automático" son en realidad un gran nombre inapropiado. Las máquinas no se pueden reducir a un solo programa, y ​​el programa no está "aprendiendo" como aprendemos nosotros. Pero como es un nombre llamativo, se ha pegado tanto en el mundo académico como en la publicidad.  El aprendizaje automático era en realidad solo un nombre dado por Arthur Lee Samuel, un pionero en inteligencia artificial. Samuel estaba interesado en cómo una computadora podría jugar a juegos. Si una computadora pudiera jugar a un juego contra un oponente humano y ganar, entonces tal vez una computadora podría aprender a realizar otras tareas. Escribió con éxito un programa que jugaba a las damas en la década de 1950. Las damas luego se convertirían en un juego "resuelto" como el tic-tac-toe. Un juego resuelto significa que es posible ganar todos los juegos con las entradas correctas, sin importar otros factores.

unnamed.jpg

El profesor emérito Arthur L. Samuel murió el 29 de julio de 1990 en el Hospital de Stanford por complicaciones relacionadas con la enfermedad de Parkinson. [Pionero en la investigación de la inteligencia artificial (más conocido por su programa que jugaba a las damas a nivel de campeonato), su vida abarcó un período de amplios avances científicos. Arthur Samuel nació en 1901 en Emporia, Kansas. Se graduó en el College of Emporia y, mientras trabajaba de forma intermitente en la General Electric Company de Schenectady, obtuvo un máster en ciencias en el MIT en 1926. Posteriormente, realizó un trabajo de posgrado en física en la Universidad de Columbia. En 1946, el College of Emporia le concedió un doctorado honorífico.

Tras su maestría, permaneció en el MIT como instructor de ingeniería eléctrica hasta 1928, cuando se incorporó a los Laboratorios Telefónicos Bell. En los "Bell Labs" trabajó principalmente en tubos de electrones. Destaca su trabajo sobre la carga espacial entre electrodos paralelos y su trabajo en tiempos de guerra sobre las cajas TR, interruptores que desconectan el receptor de un radar cuando está transmitiendo y evitan que el sensible receptor sea destruido por el transmisor de alta potencia.

En 1946 Samuel se convirtió en profesor de ingeniería eléctrica en la Universidad de Illinois, y participó activamente en su proyecto de diseño de uno de los primeros ordenadores electrónicos. Allí concibió la idea de un programa de damas capaz de vencer al campeón del mundo, para demostrar la potencia de los ordenadores electrónicos. Al parecer, el programa no se terminó mientras él estaba en la Universidad de Illinois, quizá porque el ordenador no se terminó a tiempo.

En 1949 Samuel se incorporó al laboratorio de IBM en Poughkeepsie. Este movimiento fue visto por los competidores de IBM como un compromiso de IBM con la computación basada en tubos de vacío. Sin embargo, tal y como describe su autobiografía, tuvo que cumplir allí un doble papel: impulsar la investigación sobre transistores de conmutación y mantener a los ingenieros con la tecnología de tubos disponible. Los tubos se utilizaron para la lógica y la memoria del primer ordenador de programa almacenado de IBM, el 701. La memoria se basaba en los tubos Williams, que almacenaban los bits como puntos cargados en la pantalla de un tubo de rayos catódicos. Samuel consiguió aumentar el número de bits almacenados de los 512 habituales a 2.048 y elevar el tiempo medio hasta el fallo a media hora. La capacidad de memoria de esas máquinas llegó a ser de 8K palabras. Completó el primer programa de damas, aparentemente el primer programa de autoaprendizaje del mundo, en el 701. Cuando estaba a punto de ser demostrado, Thomas J. Watson, Sr., fundador y presidente de IBM, comentó que la demostración haría subir el precio de las acciones de IBM 15 puntos. Y así fue.

Arthur-Samuel1.jpg

El programa para jugar a las damas de Samuel es un ejemplo muy temprano de un método que ahora se utiliza comúnmente en la investigación de la inteligencia artificial (IA), es decir, trabajar en un dominio complejo pero comprensible. Los programas para jugar a las damas desempeñan en la investigación de la IA el papel que la mosca de la fruta (drosophila) desempeña en la genética. Las drosófilas son convenientes para la genética porque se reproducen rápidamente, y los juegos son convenientes para la IA porque es fácil comparar el rendimiento del ordenador con el de las personas.

Samuel aprovechó el hecho de que los jugadores de damas tienen acceso a muchos volúmenes de partidas anotadas con las jugadas buenas distinguidas de las malas. El programa de aprendizaje de Samuel reprodujo las partidas presentadas en Lee's Guide to Checkers para ajustar sus criterios de elección de jugadas, de modo que el programa eligiera con la mayor frecuencia posible las jugadas consideradas buenas por los expertos en damas.

En 1961, cuando Ed Feigenbaum y Julian Feldman estaban recopilando la primera antología de IA (Computers and Thought), pidieron a Samuel que les diera, como apéndice a su espléndido artículo sobre su jugador de damas, la mejor partida que el programa hubiera jugado. Samuel aprovechó la ocasión para desafiar al campeón de damas del estado de Connecticut, el cuarto jugador del país. El programa de Samuel ganó. El campeón proporcionó anotaciones y comentarios a la partida cuando se incluyó en el volumen.

Dado que su trabajo con las damas fue uno de los primeros ejemplos de cálculo no numérico, Samuel influyó enormemente en el conjunto de instrucciones de los primeros ordenadores de IBM. Las instrucciones lógicas de estos ordenadores se introdujeron a instancias suyas y fueron adoptadas rápidamente por todos los diseñadores de ordenadores porque son útiles para la mayoría de los cálculos no numéricos.

Probablemente fue el sencillo conjunto de reglas del juego de damas que le permitió a Samuel dividir el problema en un código de computadora. El programa de Samuel no solo podía jugar a las damas, sino que también podía jugarlo bien. Él desafió al cuarto mejor jugador de damas de la nación por un juego, y el programa ganó.

 

El logro más interesante de su programa es que se escribió por primera vez en una computadora antigua llamada IBM 701. Tenía una enorme memoria de 2048 bits y estaba hecha de tubos de vacío. Si tal programa pudiera hacerse con ese pequeño poder de cómputo, puede usted imaginar cuán poderosos fueron sus métodos.  Entonces, ¿cómo logró Samuel producir este comportamiento inteligente en su programa? La respuesta es la misma que se usó antes para describir el aprendizaje automático: una programación inteligente y un poco de matemáticas. Samuel usó una estructura de datos llamada "árbol de juego" que se usa para simular el estado del juego en cualquier momento.

El nombre proviene del campo de la teoría de juegos, que es una rama de las matemáticas centrada en el estudio de la estrategia competitiva dentro de las limitaciones del juego. Dado que el juego de damas es un juego tan simple, el programa podría codificar fácilmente la información en bits a lo largo del árbol. El número de turnos y las posiciones de las piezas en el tablero son relativamente fáciles de almacenar en la memoria de la computadora. Luego, el programa usó un algoritmo de búsqueda con una heurística minimax para encontrar rutas a lo largo del árbol. A cada ruta se le asignó un peso o una medida de cuán fuerte era el movimiento en esa ruta en relación con los juegos anteriores. Aquí es donde entra en juego el aprendizaje automático.

El programa de damas de Samuel pudo jugar el juego de manera competitiva solo de seis a ocho horas después de ejecutar las simulaciones del juego una y otra vez. En otras palabras, el programa podría generar sus propios datos y asignar pesos a movimientos individuales. Para entender cómo funciona su método, podemos demostrarlo con un juego aún más simple, tic-tac- toe.

En tic-tac-toe, se tiene un tablero cuadriculado con nueve celdas que pueden estar ocupadas por uno de dos símbolos y se tienen dos jugadores que corresponden a cada símbolo. Para codificar un solo giro, necesita algo para tener en cuenta cada uno de estos elementos de estado. Las computadoras almacenan la información en una serie de unos y ceros, por lo que hacer esto es bastante sencillo. Tiene nueve celdas que pueden ser una cruz, un círculo o un vacío. Esto es tres estados por celda. En binario, puede codificar "00" para significar una celda vacía, "01" para significar cruz y "10" para indicar un círculo. Para representar a toda la pizarra, entonces debe encadenarlos. Esto es un poco simplificado, pero es probable que entienda la esencia del juego. Cada representación del tablero es un solo turno en el juego. Estos se colocan en el árbol del juego como nodos individuales. En la simulación, cada turno posible se agrega como otro nodo para cada entrada posible.

Digamos que una simulación comienza cuando el jugador de cruces coloca su símbolo en la celda superior izquierda. Ese movimiento se agrega al árbol con un peso desconocido. El programa luego agrega todos los estados de juego posibles que siguen ese movimiento inicial. El jugador dos puede colocar un círculo en cualquier celda que no esté ocupada, de modo que sea igual a ocho movimientos simulados en total. El programa continúa haciendo el juego y entra en sus condiciones finales. Luego puede rastrear el camino que tomó la simulación para crear esas condiciones. Cualquier movimiento que pueda dar como resultado una victoria tiene un peso mayor que un movimiento que no. Como puede usted imaginar, colocar una cruz en la celda central recibe el mayor peso. Después de todo, el tic-tac-toe pertenece a una clase de juegos que se consideran resueltos.

Esto significa que el jugador de cruces puede forzar una victoria en cada juego. Para tic-tac-toe, encontrar la solución óptima es fácil. Las cosas se ponen un poco más complejas con las damas. La configuración estándar utilizada en los Estados Unidos es un tablero de 8 x 8 celdas con 12 piezas por jugador. En contraste, el tic-tac-toe solo tiene nueve celdas. Samuel necesitaba usar un algoritmo especial para realizar miles (sino millones) de simulaciones de juegos, mientras que nunca superó la modesta memoria del IBM 701. Utilizó una técnica llamada poda alfa-beta, que es un enfoque mínimo para el recorrido de árboles. En lugar de simular cientos de movimientos diferentes después de la entrada inicial, el programa mantuvo un peso en la memoria para cada movimiento. Si el siguiente movimiento resultara en un peso menor, simplemente se descartaría de la memoria. Y si el movimiento resultara en un peso mayor, la memoria de funcionamiento se reemplazaría con el movimiento recientemente mejorado, y el contendiente anterior también se descartaría. Esto tiene sentido, ya que mover una pieza de damas hacia atrás o hacia un lado es un movimiento inteligible cuando el jugador puede "tomar" una pieza enemiga. El hecho de que un movimiento sea posible no significa que deba considerarse directamente en el árbol de búsqueda.  Los algoritmos que utilizan heurísticas inteligentes como la estrategia minimax dan lugar a un comportamiento que parece concebido de manera inteligente. Pero todo lo que el programa está haciendo es calcular diferentes pesos para obtener el resultado deseado. La investigación de Samuel fue considerada uno de los primeros avances en el aprendizaje automático porque era fácil ver cómo se podían aplicar algoritmos similares a diferentes problemas, no solo a juegos de mesa simples. Hasta ese momento, la inteligencia artificial se centraba principalmente en el enfoque de la red neuronal.

unnamed (1).jpg
Redes_neuronales_esquema.png

La idea era que, si un programa podía simular la cantidad de conexiones en el cerebro humano, entonces podría razonar igual que un cerebro humano. Cuando el campo de la IA apenas comenzaba, las computadoras no tenían ni siquiera esa cantidad de memoria, por lo que las redes neuronales se consideraron por debajo de su potencial durante muchos años. Las redes neuronales se han convertido en sinónimo de aprendizaje automático en el lenguaje de los medios, pero se debe tener en cuenta que el programa de verificación de Samuel no las utilizó. En su lugar, el programa de juego de damas utilizó una estrategia simple llamada lookahead para predecir los mejores movimientos posibles para la computadora. Un programa no entiende las reglas de los inspectores o cómo jugarlo. Solo sabe para qué está programado y cuáles son las condiciones para finalizar un juego. Si la computadora tiene el doble de piezas que el otro jugador, el programa no sabe que tiene la ventaja. Otra forma fácil de saber quién está ganando en las damas es comparando el número de reyes en el tablero. Este conocimiento se pierde completamente en el programa de computadora encargado de jugar el juego. Las cosas que deberían afectar el comportamiento de un programa de aprendizaje automático se denominan características y son un problema central que debe resolverse. Cualquier esfuerzo de aprendizaje automático es tan bueno como las características que el programador elige para influir en el comportamiento del programa. Lo único que sabe el programa de verificación antes de realizar movimientos es el estado de la placa. En la memoria de la computadora, este será un surtido mezclado de unos y ceros.  Las características son importantes porque dan las bases para dar sentido al estado del consejo. Si el programa reconoce que puede tomar una pieza enemiga y, por lo tanto, aumentar el número de piezas de su lado en relación con sus oponentes, entonces ese comportamiento debe ser alentado. Agregar una puntuación o una función de peso a una característica permite que se tomen estas decisiones. La estrategia de búsqueda anticipada es simular los siguientes giros posibles en un rango corto de cuatro a seis movimientos y calcular cuáles son los mejores movimientos. Las damas es un juego bastante simple cuyas características y pesos son fáciles de calcular. El objetivo del juego es reducir las piezas del oponente a cero o colocar las piezas de manera que el oponente no pueda hacer ningún movimiento. El número de piezas y la disponibilidad de movimiento son dos características obvias para determinar el comportamiento del programa.

El programa "piensa" mirando hacia el futuro en respuesta al estado del tablero. Calcula el mejor curso de acción al determinar el mejor peso de un solo movimiento. Después de cientos y miles de simulaciones de juegos contra sí misma y con jugadores humanos, el programa aprende qué movimientos tienen más probabilidades de resultar en una victoria o un aumento de características que son favorables para ganar. Después de un tiempo, el programa aprende que puede llevar una pieza al lado opuesto de la tabla y obtener el "rey". Un rey puede moverse hacia atrás además de los delanteros, acentuando la capacidad del programa para tomar las piezas enemigas y bloquear otras. 

El programa de damas de Samuel tiene su parte justa de programación inteligente, pero no se basa en fundamentos estadísticos, como gran parte del aprendizaje automático es hoy en día. Samuel escribió su programa en la década de 1950, décadas antes de que el aprendizaje automático obtuviera la atención general. El aprendizaje automático del que se habla hoy es ligeramente diferente de lo que Samuel estaba haciendo. Por supuesto, los problemas que el aprendizaje automático utiliza para resolver son mucho más difíciles de calcular que la mejor estrategia de las damas. Los algoritmos son diferentes, y el papel que juegan las estadísticas es significativo. Sin embargo, Samuel logró su objetivo de demostrar que un programa podría, de hecho, exhibir un comportamiento aprendido de miles de iteraciones de juegos simulados. Sabía que las damas eran simplemente un vehículo para probar que tal hazaña era posible.

Después de que se hiciera para las damas, los investigadores buscaron aplicar el aprendizaje automático a otros problemas. El aprendizaje automático todavía carecía de una definición adecuada. La forma en que Samuel usó el término no se prestó a una aplicación generalizada a otros esquemas de aprendizaje. Esto fue resuelto por Tom M. Mitchell, quien dijo que el programa de aprendizaje automático es uno que "... se dice que aprende de la experiencia, E con respecto a alguna clase de tareas T y rendimiento P si su desempeño en tareas en T, medido por P, mejora con la experiencia E”. Esta definición amplia cubre la gama de la mayoría de las técnicas de aprendizaje automático, ya sea que utilicen redes neuronales, sistemas de búsqueda avanzada u otros algoritmos para lograr el objetivo de aprender de experiencias repetidas. Una experiencia puede ser cualquier cosa, desde una simulación hasta un dato que se alimenta a través de un algoritmo. La medida de rendimiento es simplemente una medida de corrección, y la clase de tareas T es simplemente una aplicación limitada de la IA, como reconocer si una imagen contiene desnudos. La medida P debería mejorar con la experiencia continua de recibir imágenes de desnudos. El programador tiene la tarea de configurar los parámetros para P. Tienen que decidir qué nivel de precisión es aceptable y en qué medida se toleran los falsos positivos y los falsos negativos. 

La moderación del contenido de Internet es un gran problema para los sitios web de redes sociales como Facebook, Twitter y Tumblr. Estas compañías pueden usar una combinación de moderación humana y de máquinas para señalar la desnudez y otro material gráfico. El trabajo está unido psicológicamente con el ser humano, pero se necesita un ojo humano para filtrar los resultados de los algoritmos que pueden tener un cierto grado de falso positivo. Estos algoritmos no son perfectos.

Hay una imagen popular en Internet del año 2000 sobre una "lámpara sucia". La imagen contiene lo que se ha denominado una lámpara "atractiva" porque su aspecto es similar a la región inferior de una mujer en un bikini. La mayoría de la gente pensó que aún era una lámpara de aspecto divertido hasta que el autor original publicó la imagen completa. Para horror de Internet, la lámpara sexy era en realidad una imagen recortada de una mujer en bikini. Ahora, si tal truco puede engañar a la mente humana, imagine lo difícil que es para las máquinas clasificar la desnudez simplemente aprendiendo de otras imágenes.

ls1.jpg
ls2.jpg

La cantidad de algoritmos, modelos matemáticos y técnicos que existen hoy en día para el aprendizaje automático es innumerable. Cada uno tiene su propio conjunto de aplicaciones para enseñar a aprender programas. Los primeros algoritmos se centraron en experiencias como el programa de damas de Samuel y los nuevos algoritmos se centran en el enfoque basado en datos. La gran cantidad de datos, la capacidad de procesamiento y el almacenamiento barato permiten el análisis masivo de los datos. Una familia de técnicas llamada "aprendizaje profundo" está a la vanguardia en la actualidad.

cf.jpg

El enfoque basado en datos ha provocado un debate sobre la privacidad del usuario en los últimos años. Sabemos que empresas como Facebook utilizan nuestros datos para ejecutar sistemas de aprendizaje automático. La legitimidad de algunos de estos sistemas ha sido cuestionada tanto por el público en general como por los gobiernos. A principios de 2018, se reveló que Facebook había compartido inadvertidamente algunos de sus datos de usuario con una empresa de análisis llamada Cambridge Analytica. Luego, esta compañía utilizó los datos para realizar una campaña publicitaria dirigida a los votantes indecisos a favor de Donald Trump. El escándalo fue enorme y le costó a Facebook unos $ 100 mil millones de dólares en acciones. Puede estar seguro de que Cambridge Analytica utilizó técnicas de aprendizaje automático para recopilar los datos, clasificar a los usuarios con la probabilidad de votar como republicano y crear un perfil de personalidad. Cambridge Analytica continuaría alardeando de que sus esfuerzos fueron los que llevaron al margen ganador de Trump en las elecciones presidenciales de 2016.

La línea entre el aprendizaje automático y la inferencia estadística o lo que a veces se denomina "aprendizaje estadístico" no siempre es clara. No tiene que ser un experto en estadísticas para implementar algoritmos de aprendizaje automático, pero generalmente necesita un buen conocimiento de la informática.

El aprendizaje estadístico es una disciplina matemática, y el aprendizaje automático proviene de la informática. El modelado estadístico utiliza una serie de pruebas y funciones matemáticas para encontrar relaciones entre dos variables más para predecir resultados futuros. El aprendizaje automático hace más o menos lo mismo, pero a través de algoritmos. Ambos conceptos tienden a superponerse a veces, pero siguen siendo diferentes. Las técnicas puramente estadísticas suelen suponer que los algoritmos de aprendizaje automático no lo hacen. Por ejemplo, una regresión lineal asume que hay una relación lineal entre la variable dependiente e independiente, para empezar. No es justo decir que el aprendizaje automático consiste solo en estadísticas. La distinción se hizo aún mayor con la introducción del aprendizaje profundo. La escala total de algunas redes de aprendizaje profundo sería imposible de reproducir a partir de simples regresiones múltiples basadas únicamente en estadísticas. Una tarea común en el aprendizaje automático es crear un clasificador de imágenes que pueda distinguir lo que hay en una imagen.

Marcar una imagen como desnudez, por ejemplo, es un tipo de clasificador. El programa decide si una imagen debe marcarse según la presencia de las funciones que el programador haya definido. Si la imagen parece razonablemente explícita, entonces está marcada. Cuando se trata de imágenes, estas características serán píxeles individuales de la imagen y grupos de imágenes. Si algo tiene las características de un pezón, entonces el programa probablemente lo marcará. Lo mismo sucede si hay demasiado color carnoso como probablemente pueda imaginar. Sin embargo, la clasificación de los datos no se limita a las imágenes. Los bancos usan clasificadores para determinar si las transacciones son legítimas o fraudulentas. Las compañías como Netflix los utilizan para clasificar a sus usuarios para la entrega de productos a medida. ¿A este usuario le gustan las películas de acción? Tal vez debería mostrarles más de eso. Los investigadores médicos usan clasificadores para determinar si un tumor es benigno o maligno, posiblemente salvando al paciente de cirugías innecesarias.

Las tareas de aprendizaje automático se pueden dividir en dos clases diferentes: aprendizaje supervisado y aprendizaje no supervisado. En el aprendizaje supervisado, el programador o investigador utiliza datos que ya se han clasificado para ayudar en el proceso de aprendizaje. Si están diseñando un filtro de desnudez, usarán miles o millones de imágenes etiquetadas que le dicen al programa que esto es desnudez o no lo es. El programa crea su propio clasificador basado en estas innumerables entradas. El objetivo principal es crear un clasificador suficientemente bueno que pueda generalizar el filtrado de desnudos a cualquier imagen. En lugar de tener a alguien que trabaje por poco dinero para discernir estas imágenes en tiempo real, un programa que funciona 24/7 puede hacerlo en su lugar. El problema es que los humanos tienen una comprensión intuitiva de lo que es sexualmente explícito y lo que no lo es.

Desafortunadamente, un hombre con el torso desnudo tiene connotaciones muy diferentes que una mujer con el torso desnudo. Estos tipos de convenciones sociales son difíciles de enseñar en una computadora, y mucho menos de programar manualmente en un clasificador. Un aprendizaje supervisado es tan bueno como los datos que se le dan. Para una mayor precisión, se necesitan abundantes ejemplos de desnudez flagrante, desnudez sugestiva y toneladas de falsos positivos que están etiquetados como seguros. Una lámpara sexy, aunque sugerente, probablemente no sea lo mismo que la desnudez. Los seres humanos pueden hacer llamadas de juicio sobre la marcha, pero una máquina no puede.

Un moderador humano sabe qué es un material pornográfico cuando lo ve. La mayoría de los casos de aprendizaje automático utilizan aprendizaje supervisado. El aprendizaje no supervisado, por otro lado, no utiliza datos preclasificados. En lugar de medir el rendimiento deseado, se utilizan algoritmos de aprendizaje no supervisados ​​para explorar la estructura de un conjunto de datos y encontrar relaciones. Una forma de hacerlo es a través de la agrupación en clústeres. La agrupación junta características similares en clases de semejanza. Por ejemplo, si un botánico intenta clasificar una especie desconocida de una planta, puede tomar medidas de las características de la planta para determinar su especie. Hacen tomar cientos o miles de observaciones de plantas y registran el número de pétalos, la longitud, la altura, el color del pétalo, el número de flores por pulgada cuadrada, etc. Cada una de estas funciones se procesa mediante algoritmos de agrupación en clúster para encontrar patrones. El programa puede generar una gráfica de subdivisiones ordenadas de especies determinadas por los diferentes factores. Tal vez la especie uno tiene pétalos desproporcionadamente más largos que las especies dos y tres. Tal vez la especie dos tiene longitudes de pétalos más cortas en promedio. Si el investigador escogió buenos factores, entonces la especie formará grupos obvios en la gráfica.

El algoritmo de agrupación en clúster más utilizado se denomina agrupación K- medias. Como su nombre lo indica, crea k clústeres basados ​​en los medios de las características individuales. Luego, los grupos se separan en límites espaciales denominados células Voronoi con una clara distinción. 

Todo el aprendizaje automático puede reducirse a cinco problemas diferentes: regresión, clasificación, agrupamiento, filtrado colaborativo y aprendizaje por refuerzo. Cada vez que deseamos enseñar a una computadora a realizar alguna tarea de inteligencia humana a través del aprendizaje automático, generalmente implicará cualquiera de estos problemas. Algunas tareas son extremadamente complejas y requieren respuestas a más de uno de estos problemas. Las regresiones provienen del mundo de las estadísticas. Se utilizan para predecir resultados futuros basados ​​en los anteriores.

Tenga en cuenta que los métodos de regresión en las estadísticas son diferentes de las regresiones en el aprendizaje automático. La regresión estadística es una técnica específica, mientras que la regresión en el aprendizaje automático es un problema generalizado. El objetivo de la regresión en el aprendizaje automático es simplemente predecir el valor futuro de una variable continua. En estadística, una variable continua es una variable que puede tener valores infinitamente diferentes, mientras que una variable discreta solo puede tener algunos valores.

Como solo hay cincuenta y dos estados en los EE. UU., son una variable discreta. Un ejemplo de una variable continua serían los precios del mercado de valores. Para predecir sus valores, un algoritmo de aprendizaje automático debe aprender de las entradas anteriores y sus salidas respectivas. Otro término que se usa comúnmente para denotar regresiones en el aprendizaje automático es "ajuste de curvas", otro concepto tomado de las estadísticas.

El ajuste de la curva es esencialmente una función matemática (o curva) que intenta ajustar una serie de puntos de datos. Si los puntos de datos se ajustan lo suficientemente bien, entonces la función matemática puede ser capaz de predecir puntos de datos futuros a lo largo de la curva a través de la generalización.  La clasificación y la agrupación son conceptos muy similares. Ambos requieren que el sistema de aprendizaje automático indique las diferencias en los puntos de datos, de modo que sean comparablemente diferentes o similares a otros puntos de datos.

Estos puntos de datos representan cosas de la vida real. En el caso de la conducción autónoma, el aprendizaje automático se puede utilizar para clasificar a peatones, señales de alto, otros automóviles, etc. Más sucintamente, la clasificación es el proceso de predecir una variable discreta. Dada una imagen con un número de teléfono escrito a mano, un sistema de aprendizaje automático debe saber qué números pertenecen a qué colección de píxeles. El sistema sabe de antemano que estos solo pueden ser valores numéricos entre cero y nueve. La clasificación de otras imágenes, como la diferenciación entre perros perdigueros de oro y pollo frito empanado, también se incluye en esta categoría. La agrupación, por otro lado, tiene que ver con agrupar datos. Estos pueden ser de naturaleza continua o discreta. Ya viste el ejemplo con las diferentes especies de plantas. La agrupación se basa en gran medida en la cantidad de factores que le interesan al programador. Supongamos que se toma una imagen en una reunión de la escuela secundaria. Esta es una imagen de alta resolución con cientos de caras diferentes. Desea agrupar los datos de modo que cada cara sea su propio grupo.

Cada grupo estará compuesto de píxeles distintos, grabables. Debido a una mezcla de fragmentos de letras, un sistema de aprendizaje automático puede agruparlos en diferentes géneros y artistas originales. El filtrado colaborativo es similar a la regresión, pero en lugar de predecir valores futuros, su objetivo es llenar los vacíos en los datos. Se relaciona fuertemente con la investigación en sistemas y algoritmos de recomendación. Puede usted imaginar que algunos servicios de tipo de contenido grande como YouTube y Netflix hacen un uso extensivo del filtrado colaborativo para recomendar cosas a los usuarios.

El filtrado colaborativo toma datos de colaboradores o agentes de usuarios que tienen gustos similares a los suyos e intenta generalizar el contenido que les gusta con el contenido que le gustaría. Más generalmente, el filtrado colaborativo se usa para predecir datos faltantes en otros sistemas como sensores y datos financieros. Finalmente, el aprendizaje por refuerzo se utiliza para enseñar a una máquina cómo aprender del entorno.

A diferencia de los otros tipos de aprendizaje automático, el aprendizaje por refuerzo no requiere grandes conjuntos de datos para comenzar. Los datos siguen desempeñando un papel fundamental, pero se agregan en tiempo real en lugar de a lo largo del tiempo. Un auto sin conductor, por ejemplo, aprende directamente de sus entornos. Si hay un accidente, el sistema ajusta sus parámetros para la próxima vez que ocurra una situación similar. El programa de damas de Arthur Lee Samuel se consideraría un tipo de aprendizaje de refuerzo.

Los avances recientes han llevado a la creación de programas como el AlphaGo Zero de Google, que tomó el programa AlphaGo original, pero lo generalizó para aprender a jugar Go sin ningún tipo de entrada de datos. AlphaGo Zero superaría las capacidades de su contraparte capacitada en cuestión de días. Como probablemente pueda imaginar, el aprendizaje automático tiene varias aplicaciones diferentes en nuestra vida moderna. Desde el reconocimiento facial hasta la predicción del mercado de valores y los autos sin conductor, el aprendizaje automático aplica los principios de los algoritmos matemáticos y de computadora para simular la inteligencia real.

Los problemas comunes que se resuelven mediante el aprendizaje automático incluyen algún tipo de regresión, clasificación, agrupamiento, filtrado colaborativo y aprendizaje por refuerzo. Se podría argumentar que hay algunos más que estos, pero son los más comunes. Cada vez que escuche el aprendizaje automático en un titular o en la descripción del producto, probablemente se trate de resolver uno o más de estos problemas.

DE LA CONEXIÓN NEURONAL A LA COGNICIÓN. CORRELACIÓN NEUROBIOLÓGICA

  • El estudio de las bases neurales del aprendizaje y la memoria se ha nutrido de un considerable número de trabajos, los cuales se han servido tanto de modelos de laboratorio con animales, como de estudios con humanos utilizando modernas técnicas de neuroimagen funcional.

  • En el presente capítulo se ofrecerá una taxonomía de los procesos de aprendizaje y memoria adoptando diferentes criterios. El estudio del aprendizaje y la memoria bajo un criterio funcional nos permitirá entender qué es la memoria explícita y cuáles son las características de la memoria implícita, basándonos en la distinción de aquellos procesos sin acceso  a la consciencia o implícitos  y aquellos de los que somos conscientes de su aprendizaje y recuerdo, o explícitos.

  • El estudio del aprendizaje y la memoria implícitos nos conducirá al análisis de los mecanismos fisiológicos del aprendizaje asociativo (hebbiano) y no asociativo (habituación y sensibilización), de las particularidades del aprendizaje perceptivo (priming o facilitación) y de los aprendizajes y memorias basados en el condicionamiento clásico e instrumental, para concluir analizando los mecanismos neuroanatómicos y funcionales del aprendizaje de destrezas o aprendizaje procedimental.

  • Posteriormente, examinaremos los sistemas dedicados a los tipos del aprendizaje y memoria explícita de tipo episódico y semántico, para las cuales se detalla un modelo basado en un sistema anterior y en otro sistema posterior. De igual forma, profundizaremos en la diferencia de los tipos de memoria que precisan de la actividad del hipocampo, en comparación con aquellos tipos de aprendizaje y memoria para los cuales ésta no resulta indispensable (memoria dependiente y no dependiente del hipocampo).

  • Finalmente, abordaremos el estudio del aprendizaje y la memoria considerando un criterio temporal cuantitativo (memoria inmediata, a corto plazo y a largo plazo). En este sentido, se discutirá con detalle el papel tanto de la corteza prefrontal como de las regiones posteriores en los diferentes tipos de memoria inmediata y de trabajo.

  • Familiarizarse con las principales taxonomías de los sistemas de aprendizaje y memoria.

  • Conocer los sustratos neuronales de la memoria visual, auditiva y somatosensorial.

  • Aprender el papel del lóbulo temporal medial en la formación de nuevos recuerdos.

  • Distinguir los sistemas neurales responsables de la memoria implícita y explícita.

  • Aprender los procesos nuerobiológicos involucrados en la memoria procedimental y la formación de hábitos.

  • Estudiar la implicación de la corteza prefrontal en la dimensión temporal de la memoria.

NTRODUCCIÓN AL ESTUDIO DEL APRENDIZAJE Y LA MEMORIA

Si los seres humanos son inteligentes debido a sus cerebros, y si los cerebros funcionan creando conexiones neuronales llamadas sinapsis, ¿no tendría sentido simular estas redes de conexiones para simular la inteligencia en las máquinas? o al menos, eso es lo que pensaron los primeros investigadores de IA. El gran volumen de conexiones en el cerebro humano es a lo que debemos nuestra inteligencia.

Para comprender los conceptos que han dado nacimiento al término de "Aprendizaje Automático", es necesario conocer los aspectos fundamentales correlativos a los procesos neurobiológicos subyacentes, por lo que para continuar con el estudio de esta unidad, te pedimos ingresar al material complementario a través del siguiente botón de ingreso.

Recuerda que deberás considerar las fechas descritas en el menú de la unidad en el aula virtual.