INTELIGENCIA ARTIFICIAL 

Y NEUROCIENCIA

  • Facebook
  • Twitter
  • YouTube
  • Pinterest
  • Tumblr Social Icon
  • Instagram

CONTENIDO DE LA UNIDAD

  • Material de consulta

  • Imágenes

  • Interacción

  • Actividades de Aprendizaje

Figura-22-Representacion-de-una-neurona-artificial-tipo-McCulloch-Pitts_clipped_rev_1.png

LAS REDES
NEURONALES

INTRODUCCIÓN 

Si los seres humanos son inteligentes debido a sus cerebros, y si los cerebros funcionan creando conexiones neuronales llamadas sinapsis, ¿no tendría sentido simular estas redes de conexiones para simular la inteligencia en las máquinas? O al menos, eso es lo que pensaron los primeros investigadores de IA.

El gran volumen de conexiones en el cerebro humano es a lo que debemos nuestra inteligencia. El cerebro humano promedio tiene alrededor de ochenta y seis mil millones de neuronas o diez a la undécima potencia. Estas neuronas se pueden conectar a otras 7.000 neuronas, lo que significa que el número total de conexiones es un orden de millones de miles de millones de conexiones. Es algo sorprendente. Los inicios de las redes neuronales artificiales (ANN) coincidieron directamente con el estudio de las redes neuronales reales. En 1943, un neurofisiólogo llamado Warren McCulloch se unió al matemático Walter Pitts para describir cómo podrían funcionar las neuronas en el cerebro. Es coautor de un artículo en el que crearon una ANN simple de circuitos eléctricos. Los ANN que diseñaron usaban neuronas lógicas o artificiales llamadas neuronas de McCulloch-Pitts. Dentro del cerebro, una neurona funciona recibiendo entradas, procesando la información y luego transmitiéndola a otras neuronas.

CORRELATO ANATÓMICO. LA NEURONA Y SU ANÁLOGO ARTIFICIAL. PARTE I

LA BASE DEL SISTEMA NERVIOSO

Las células del cerebro se llaman neuronas. La estructura y comunicación entre las neuronas, en los albores del siglo XIX fueron magistralmente descritas por el sabio español, Santiago Ramón y Cajal -padre de las Neurociencias-, quien encontró en el minucioso escudriñar de las laminillas bajo el microscopio una característica fundamental de la comunicación entre las células nerviosas: casi nunca se tocan, están separadas por ínfimos espacios, cuyo significado y enorme importancia vendría a conocerse mucho tiempo después. A pesar de las diferencias en la forma de las neuronas, su estructura en los sitios en los que se comunican unas con otras es, en general, parecida. La parte de la neurona que “habla” con otra neurona tiene siempre una estructura típica, y la región de la neurona que recibe ese contacto también tiene una forma característica. A esta zona de interacción de las neuronas se le conoce como sinapsis (del griego “junto” y “agarrar” = unión-enlace) cuyo término fue asignado por el destacado médico inglés Charles Sherrington en la década de los 50s.

A pesar de los avances y de las noticias sorprendentes que cada día se suceden en los medios de comunicación, el cerebro es todavía en gran medida un misterio por develar. Pero si la explicación de nuestros comportamientos es de por sí un desafío apasionante, tal vez el mayor reto que tienen ante sí los neurocientíficos radica en indagar como ese material inasible surge de transacciones químicas que se registran sin cesar, de día y de noche, mientras estamos activos y cuando parece que no lo estamos, en el interior de ese bosque Infinitesimal compuesto por los ladrillos del sistema nervioso: las neuronas.

¿En qué idioma se comunican las neuronas? ¿cómo se almacena un recuerdo en la intimidad de esas células prodigiosas? y ¿cómo volvemos a recuperarlo? En suma: ¿cómo funciona ese complejísimo engranaje que supera a las máquinas más ambiciosas diseñadas por los seres humanos? Las respuestas a estas preguntas y muchas otras capturan la imaginación no sólo de los investigadores sino de cualquier persona inquieta y curiosa.

La década de los 90s fue declarada “la década del cerebro”. Los institutos nacionales de salud de los Estados Unidos comenzaron a liderar un proyecto que inició con el registro de todas las conexiones de este órgano que nos desconcierta y que, como la hidra mitológica, con cada secreto que devela nos presenta otro desafío. La Unión Europea lanzó El “Human Brain Project”, en tanto que durante la administración del presidente Barack Obama en los Estados Unidos se dio comienzo a la “Brain Initiative”, dos monumentales programas que comenzaron con el esfuerzo para explorar las profundidades del órgano más complejo del cuerpo humano. Desde esa ingeniería microscópica la neurona se constituye como la base fundamental del sistema nervioso.

Es menester destacar la intervención histórica de personajes importantes en la ciencia como Camilo Golgi, que trabajando en una cocina italiana en 1872 depositó accidentalmente un trozo de cerebro en una placa que contenía nitrato de plata y allí lo dejó durante varias semanas (al menos esa es la historia que ha rondado por los círculos de las élites científicas, no obstante que el propio Golgi se adjudicó el proceso como una investigación respecto del entonces llamado sistema reticular ) al volver, pudo ver por primera vez los componentes esenciales del tejido cerebral; también Luigi Galvani, el primero en demostrar que los nervios pueden generar y conducir electricidad hasta el gran anatomista e histólogo español Santiago Felipe Ramón y Cajal, un sabio que compartió con Golgi el premio Nobel en 1906, inmerecido para éste último según opiniones de diversos expertos, ya que las aportaciones de Golgi se especulan fueron resultado de un accidente y no así de una investigación, sin embargo sus aportaciones permitieron a Cajal iniciar con métodos propios que darían nacimiento a nuevos descubrimientos, describiendo con gran detalle la autonomía de las células nerviosas, permitiendo el surgimiento de la teoría que al día de hoy es vigente.

Las investigaciones de Ramón y Cajal trascendieron por el mundo, colocando a España en el mapa de la ciencia y su legado fue bien aprovechado por dos de sus más grandes discípulos quienes fueron reconocidos internacionalmente por las aportaciones en sus especialidades, Pío del Río Hortega y Rafael Lorente de Nó.

Más cercano el argentino Eduardo de Robertis, cuyas investigaciones permitieron demostrar que, en la mayoría de las sinapsis, las neuronas no se fusionan, sino que existe como lo intuyó Cajal un espacio que mantienen la individualidad de la neurona presináptica y la postsináptica, así como Rita Levi-Montalcini, quien recibió el premio Nobel por haber descubierto el factor de crecimiento nervioso.

El biólogo Matthias J. Schleiden (1804-1881) propuso en 1838, que las células son los bloques fundamentales de los tejidos vegetales, y poco tiempo después, el zoólogo Theodor Schwann (1810-1882) expandió esta hipótesis a los tejidos animales. Pero la aplicación de la teoría celular al tejido nervioso fue un tema difícil de resolver para los histólogos de la época, ya que la mayoría de los científicos sostenían que los componentes del sistema nervioso se anastomosaban entre sí y formaban una red difusa e interconectada, concepto que daba por tierra con la aplicación de la teoría. A esta teoría se le conoció como la “teoría reticular” hasta la llegada de Santiago Ramón y Cajal quién advirtió como se mencionó previamente, la individualidad de la autonomía de las células nerviosas.

¿QUE ES UNA NEURONA?​

 

El término Neurona procede del vocablo griego "neyron" (nervio); es una célula del sistema nervioso especializada en captar los estímulos provenientes del ambiente y de transportar y transmitir impulsos nerviosos (mensajes eléctricos). La neurona está considerada como la unidad nerviosa básica, tanto funcional como estructural del sistema nervioso. La neurona no se divide, ni se reproduce. Su número permanece fijo desde el nacimiento, y a partir de una determinada edad se van perdiendo gran número de ellas. El tamaño y forma de las neuronas es muy variable, pero todas cumplen con su función de conducir impulsos nerviosos. Una neurona está constituida por un cuerpo celular o soma, es la parte más ancha de ésta y contiene un núcleo rodeado de citoplasma. Están también unas prolongaciones o fibras conocidas como dendritas y axón. Las primeras son ramificaciones cortas y numerosas que conducen el impulso hacia el cuerpo celular; y la segunda, es una ramificación larga que transmite dicho impulso desde el cuerpo celular hasta la neurona próxima. 

 

¿PERO COMO SE DESCUBRIERON LO QUE HOY CONOCEMOS COMO NEURONAS?

 

En el siglo XIX la idea de que las funciones mentales residían en el cerebro ya estaba bastante asumida. También se sabía, gracias a los estudios realizados por el científico británico Robert Hooke, publicados en su obra "Micrographia" en 1664, que los organismos estaban formados por células, hoy consideradas la unidad mínima de vida. Sin embargo, aún no existía un acuerdo sobre la gran diversidad de células que poblaban el cerebro, incluso si ya se habían descrito algunos tipos como la célula de Purkinje del cerebelo y la anatomía de los nervios y las regiones cerebrales.​

 

Al microscopio, el tejido cerebral no mostraba un patrón de células regulares como otros órganos, sino una maraña de fibras y cuerpos celulares. La razón de esta imagen confusa era que el método de tinción usado por los científicos de la época para analizar las muestras, no era del todo el más eficiente o adecuado. El cerebro como otros tejidos, está compuesto fundamentalmente de agua y bajo el microscopio se observa como un material prácticamente incoloro. Por eso debe teñirse con alguna sustancia que le confiera contraste y coloree sus componentes celulares, de manera que  pueda apreciarse la organización del tejido. El problema era que las tinciones que se utilizaban coloreaban la mayor parte de las células y como en el cerebro estas están muy densamente empaquetadas, el resultado apenas permitía percibir la morfología individual de lo que después se llamo "neuronas".​

 

En aquel entonces apareció una innovación genial. En 1873, el médico italiano Camilo Golgi inventó un método de tinción con cromato de plata que posibilitó por primera vez apreciar bajo el microscopio la particular estructura de las células del sistema nervioso. La técnica, todavía hoy en uso, es semejante al antiguo revelado fotográfico: la pieza de tejido se impregnas con una mezcla de dicromato de potasio y nitrato de plata en el interior celular. La peculiaridad de este método es que colorea al azar un número reducido de neuronas, pero las colorea por completo. Este avance fue crucial para que otro neurocientífico de la época, Santiago Ramón y Cajal, planteara una propuesta revolucionaria. 

 

Le correspondería a un médico español aportar una serie de conocimientos de decisiva importancia en ese campo de vital interés para la medicina. 

 

ESTRUCTURA CELULAR GENERAL DE UNA NEURONA

las neuronas son células efectoras que transportan información mediante impulsos eléctricos (entre las partes de la neurona) e impulsos químicos (entre diferentes neuronas). La glía también participa en esta actividad. Todas las neuronas poseen: a) un cuerpo (soma o pericarion), que contiene el núcleo, b) prolongaciones cortas denominadas dendritas, que reciben la mayoría de los impulsos provenientes de otras neuronas a través de uniones que se denominan sinapsis, y c) una prolongación denominada axón, que conduce la información originada en la neurona. Los axones tienen ramas terminales que forman sinapsis con las dendritas de otras neuronas o con células efectoras como las musculares y glandulares.

El cuerpo de la neurona contiene el núcleo —con su nucléolo— y otros organelos citoplasmáticos tales como las mitocondrias, el retículo endoplasmático rugoso, los ribosomas libres, el aparato de Golgi y los elementos del citoesqueleto. En el cuerpo se sintetizan todas las enzimas de la neurona, las proteínas estructurales, los componentes de la membrana celular y de los organelos, y algunos mensajeros químicos. Los ribosomas se tiñen intensamente con colorantes básicos formando masas denominadas cuerpos de Nissl.


El citoesqueleto de las neuronas está formado por microtúbulos, neurofilamentos y microfilamentos, que contribuyen a mantener la forma de la neurona. Los microtúbulos son cilindros compuestos por polímeros de una proteína llamada tubulina y sirven como sustrato para transportar organelos a través de los axones. Los neurofilamentos —especialmente abundantes en el axón— están formados por complejos de proteínas que al unirse forman lazos. Los microfilamentos son los elementos más pequeños del citoesqueleto y contienen filamentos de actina. Son necesarios para fijar las moléculas de membrana en su lugar —p. ej., las moléculas de los receptores en las sinapsis— y para permitir el movimiento de la porción distal del axón (cono de crecimiento axonal).

Veamos ésto de manera esquemática simplificada: 

NEURONA.png

Analicemos ahora cada una de sus estructuras:

Soma o cuerpo: El soma o cuerpo celular es el centro metabólico de la neurona, es el lugar donde se fabrican las moléculas y se realizan las actividades fundamentales para mantener la vida y las funciones de la célula nerviosa.

 

En el interior de la célula está constituido por el citoplasma donde se localizan los mismos orgánulos que en otras células: aparato de Golgi, lisosomas, mitocondrias, retículo endoplasmático rugoso y liso.

El cuerpo celular también contiene el núcleo donde, al igual que en otras células, se localizan los cromosomas y el nucléolo.

La neurona necesita fabricar una gran cantidad de proteínas, necesarias para la trasmisión de información. Para sintetizar estas proteínas la neurona tiene gran cantidad de ribosomas y de retículo endoplasmático rugoso, llamado así por la gran cantidad de ribosomas que tiene adheridos. Esta gran cantidad de retículo endoplasmático rugoso se denomina sustancia de Nissl.

En el citoplasma de la neurona también encontramos unas proteínas fibrilares o tubulares especializadas que constituyen el citoesqueleto. Estas proteínas son la actina, tubulina y miosina. Son fundamentales para formar la matriz intracelular que determinará la forma de la neurona, su consistencia y proporcionan un mecanismo de transporte de moléculas en su interior.

Núcleo: por lo general las neuronas poseen un único núcleo que está relacionado con la síntesis de ácido ribononucleico (ARN: es la molécula que dirige las etapas intermedias de la síntesis proteica; el ADN (ácido desoxirribonucleico) no puede actuar solo, y se vale del ARN (ácido ribonucleico) para transferir esta información vital durante la síntesis de proteínas).

Nucleolo: es una zona del núcleo, el cual es considerado una estructura supra macromolecular, que no posee una membrana que lo limite o divida del resto de las estructuras. El nucléolo se encarga esencialmente de la transcripción del ARN (ácido ribonucleico) de los ribosomas por la polimerasa I,  para luego procesarlo y llevar a cabo el ensamblaje de los componentes que darán lugar a nuevos ribosomas.

Aparato de Golgi: Sacos pequeños planos apilados formados por membranas dentro del citoplasma (líquido parecido a la gelatina) de la célula. El complejo de Golgi elabora proteínas y moléculas de lípidos (grasa) para su uso en otros lugares dentro y fuera de la célula. El complejo de Golgi es un orgánulo celular. También se le ha denominado como complejo o cuerpo de Golgi.

Dendritas: Son delgadas ramificaciones neuronales encargadas de recibir información proveniente de los axones de otras neuronas.

Axón: Antes de entrar de lleno en el establecimiento del significado del término axón, tenemos que proceder a conocer su origen etimológico. En este caso, cabe decir que procede del griego, exactamente de la palabra “axon”, que puede traducirse como “eje”.

El concepto de axón se emplea para denominar a la continuación muy delgada de una neurona, mediante la cual esta célula envía los impulsos nerviosos hacia otros tipos de células.

También llamado neurita, el axón surge en la eminencia axónica a partir de una dendrita o del soma. Con apariencia de cono, el axón dispone de una membrana conocida como axolema, mientras que su citoplasma recibe el nombre de axoplasma.

Vaina de mielina: (una capa de sustancia blanca) es una capa aislante, o vaina, que se forma alrededor de los nervios, incluso los que se encuentran en el cerebro y la médula espinal. Está compuesta de proteína y sustancias grasas.

La vaina de mielina permite que los impulsos eléctricos se transmitan de manera rápida y eficiente a lo largo de las neuronas. Si la mielina se daña, los impulsos se vuelven más lentos, lo cual puede causar enfermedades como la esclerosis múltiple.

Células de Schwann: Las células de Schwann (actualmente llamadas neurolemocitos) histológicamente forman parte del tejido nervioso, debido a que se encuentran íntimamente relacionadas con lo que son las neuronas, estas células recubren la porción prolongada de las neuronas llamadas axón, por donde las cuales ejecutan sinapsis con las otras neuronas, al estar envolviendo al axón neuronal las células de Schwann forman una vaina de proteína conocida como mielina, sin esto es imposible la transmisión del impulso nervioso. Este tipo de células, se encuentran desde el nacimiento de la neurona hasta su completo desarrollo, cumpliendo un papel importante en la maduración de las mismas, para que las células de Schwann mielinicen (fabriquen la vaina de mielina) a la neurona, se necesita que su axón posea un diámetro considerable.

Nódulos de Ranvier: Los nódulos de Ranvier constituyen una serie de interrupciones que se originan en intervalo regulares a lo largo de la longitud del axón de una neurona. Así pues, tal y como su nombre indica, resultan unos pequeños nódulos que ocurren en la vaina de mielina que envuelven los axones de las neuronas.

Los nódulos de ranvier se caracterizan por constituir espacios de tamaño muy reducido. Concretamente, presentan una dimensión de un micrómetro.

Así mismo, estos nódulos se exponen a la membrana del axón al líquido extracelular, y sirven para que el impulso nervioso transmitido entre neuronas se traslade con mayor velocidad, de una forma saltatoria.

Estos nódulos fueron descubiertos por el anatomista francés Louis Antoine Ranvier a principios del siglo pasado y resultan unos de los elementos básicos de las transmisiones sinápticas mielínicas.

De hecho, la formación de estos pequeños saltos ubicados en el axón de la neurona (región de la célula encargada de transmitir la información) se encuentra altamente vinculada con la vaina de mielina.

La vaina de mielina es una estructura multilaminar formada por las membranas plasmáticas que rodean los axones. Está constituida por material lipoproteico que forma algunos sistemas de bicapas fosflipídicas.

Cuando esta vaina se adhiere a las células del cerebro, genera las conocidas neuronas de sustancia blanca. Este tipo de neuronas se caracterizan por presentar una transmisión sináptica más rápida que las demás.

El incremento de la velocidad de transmisión se genera principalmente a través de los nódulos de ranvier que se originan en los axones recubiertos de mielina de las neuronas.

En este sentido, los nódulos de Ranvier dan lugar a una transmisión saltatoria, la cual incrementa la velocidad de la circulación de los impulsos nerviosos.

Botones terminales: El botón terminal es una de las tres partes en la que se divide el axón de la neurona (que es el transmisor de las señales neuronas). Es la parte de unión que libera la información y contiene diminutas estructuras esféricas llamadas vesículas sinápticas, conteniendo estas a su vez miles de moléculas de transmisor químico. Cuando un impulso nervioso llega al botón terminal, algunas vesículas descargan su contenido en la estrecha hendidura que separa el botón de la membrana de otra dendrita celular. Esta está destinada a recibir el mensaje químico. Algunas sinapsis tiene la función excitadora, provocando una "puesta en marcha", mientras otras son inhibidoras, cancelando señales de "puesta en marcha". 

IMPORTANTE:

Lo anterior es un resumen básico de las características fundamentales de una neurona como célula. Recordemos que a las neuronas les acompañan otras células denominadas "Gliales".

Por otro lado, las neuronas se comunican entre si compartiendo sustancias químicas denominadas "Neurotransmisores" a través del proceso conocido como "Sinapsis".

Por lo anterior los invitamos a repasar el contenido de las subunidades 3.1 y 3.2 de este diplomado, pudiendo acceder desde los siguientes botones:

CORRELATO ANATÓMICO. LA NEURONA Y SU ANÁLOGO ARTIFICIAL. PARTE II

Una célula neuronal está formada por un núcleo que forma el cuerpo celular. Desde el cuerpo celular, las estructuras llamadas dendritas se ramifican como los brazos de un pulpo. Adjunto al cuerpo celular hay una estructura parecida a una cadena larga llamada axón que se usa para conectarse a otras neuronas. Este punto de conexión se denomina sinapsis y también se parece a los zarcillos o ramas que se usan para la conexión.

La estructura de la dendrita recibe información y el cuerpo celular o soma la procesa. La salida luego se dispara a través del axón y en la sinapsis donde la próxima neurona la recibe. Esta es, por supuesto, una versión simplificada de la historia real, pero es suficiente para comprender las neuronas artificiales y las AN. La neurona de McCulloch-Pitts es, por supuesto, puramente lógica. No tiene sentido hablar de partes de una neurona como si existieran en la vida real. Pero tiene sentido hablar de las partes de acuerdo con su función lógica. Estas neuronas artificiales se componen de dos partes llamadas simplemente f y g. Primero está g, actúa como dendrita y recibe algo de entrada, realiza algún procesamiento y lo pasa a f. El procesamiento puede ser una cadena de operaciones booleanas que se dice que son decisiones excitatorias o inhibitorias. Una decisión que es inhibitoria tiene un efecto mayor en la activación de las neuronas o no.

Por ejemplo, si la neurona está decidiendo si comer en un restaurante, una decisión inhibitoria sería algo como "¿tengo hambre?" Obviamente, si usted no tiene hambre, no hará el viaje. Las decisiones menos importantes en el proceso pueden ser "¿anhelo comida rápida?", "¿tengo ganas de salir?", "¿mi automóvil tiene suficiente gasolina?", etc. Estos otros insumos excitadores no tomarán la decisión final por sí mismos, pero juntos podrían hacerlo. A continuación, g toma estas entradas y las agrega mediante una función. Para que la f se dispare, la puntuación agregada de las entradas debe superar un cierto valor denominado parámetro de umbral. Más específicamente, una neurona artificial es una función matemática. Tiene una serie de entradas y una salida. En el caso de las neuronas de McCulloch-Pitts, se espera que tanto las entradas como las salidas sean valores booleanos (verdaderos o falsos).

También se conoce como una puerta de umbral lineal. La estructura de la neurona artificial le permite simular puertas lógicas. Para simular una operación AND lógica, la neurona toma un parámetro de umbral de tres entradas dadas. En otras palabras, la neurona solo se dispara si las tres entradas son verdaderas. Una operación OR lógica toma tres entradas, y el parámetro de umbral es uno. Tenga en cuenta que la puerta lógica puede ser un poco más compleja al agregar entradas inhibitorias. Por ejemplo, una neurona con dos entradas puede formar una lógica AND, pero si una de esas entradas es inhibitoria, la neurona no se activará. Sin embargo, se activará si la entrada inhibitoria se establece en falso. Las puertas lógicas NOR y NO se pueden derivar fácilmente de los ejemplos anteriores. Si está familiarizado con la lógica if-else en la programación de computadoras, probablemente pueda decir que este esquema es esencialmente simulando largas cadenas de lógica if-else. Sin embargo, el modelo matemático de neuronas puede "aprender" los resultados de las decisiones sin necesidad de calcular cada afirmación if-else. La lógica se reduce a una función simple que genera un resultado verdadero o falso. Esto también se llama límites de decisión lineal. La neurona artificial divide las entradas en dos categorías amplias: positiva o negativa, disparar o no disparar. En una neurona AND con dos entradas, esto significa que la única clase positiva sucede cuando ambas entradas son verdaderas. Digamos que la neurona está decidiendo si irse a la cama. La primera entrada puede ser "¿ya pasaron las 11 p.m.?" y la segunda entrada es "¿es mañana un día laboral?". Si ambos son verdaderos, entonces el fuego de la neurona significa que es hora de acostarse.

En términos conceptuales, la neurona acaba de aprender qué es la hora de acostarse, aunque para la mayoría de las personas puede ser un poco tarde.

LA NEURONA DE MCCULLOCH-PITTS

 

La neurona de McCulloch-Pitts es una versión extremadamente simplificada de una neurona abstraída en la lógica. También existen otros tipos de neuronas artificiales. Y así como las neuronas se conectan con otras para formar sinapsis, lo mismo puede decirse de las neuronas artificiales. Es decir, cada ANN utilizará alguna versión de una neurona como su unidad más irreductible. Usando la misma neurona de McCulloch-Pitts, podemos imaginarnos cómo sería una red neuronal. Las neuronas artificiales se organizan en diferentes capas que alimentan sus salidas a otras neuronas. Ya vimos cómo una simple neurona puede aprender cuándo es hora de acostarse. Imagine qué tipo de comportamiento pueden lograr cientos o miles de estas neuronas.

Dado que las neuronas de McCulloch-Pitts utilizan solo la lógica booleana, las cosas que pueden calcular son un poco simplificadas en comparación con lo que otras neuronas artificiales pueden usar. Mientras que solo pueden pasar valores verdaderos o falsos a la siguiente neurona, otros pueden pasar valores ponderados. Aunque los principios siguen siendo los mismos, las neuronas solo se activan si se pasa un cierto valor de umbral. Dado que una ANN puede tener múltiples entradas en múltiples neuronas al mismo tiempo, se dice que estas entradas se propagan o caen en cascada a través de la red. En lugar de devolver un valor verdadero o falso, las neuronas artificiales más sofisticadas pueden desencadenar el comportamiento del programa, como conducir un vehículo autónomo unos pocos grados hacia la izquierda para evitar un bache.

La historia de cómo las ANN derivan resultados ponderados de las conexiones neuronales es un poco más complicada. Dos métodos en el corazón de muchas ANN se llaman propagación hacia atrás y pendiente de gradiente. Los algoritmos que hacen que el aprendizaje automático y las redes neuronales sean viables provienen de la rama de las matemáticas aplicadas llamada optimización. La optimización matemática se centra en la selección del mejor elemento de una lista de alternativas y el criterio necesario para hacer esa selección. Cuando entrena una ANN utilizando aprendizaje supervisado, necesita usar algo que se llama una función de costo que calcula la tasa de error entre lo que ANN pronosticó y cuál es la respuesta correcta. La función de costo es en realidad la agregación de funciones de pérdida individual, que calculan la tasa de error para ejemplos de entrenamiento individuales. Esto se relaciona con un algoritmo llamado descenso de gradiente que se usa durante la fase de entrenamiento de una ANN. El propósito del algoritmo es encontrar los valores de los parámetros que reducen la función de costo utilizada por la ANN tanto como sea posible. En otras palabras, las funciones de costo, el descenso de gradiente y la propagación hacia atrás son realmente el pan y la mantequilla del aprendizaje automático de ANN. Sin ellos, no hay ninguna indicación de que el modelo esté aprendiendo de los datos que le son suministrados. 

Figura-22-Representacion-de-una-neurona-artificial-tipo-McCulloch-Pitts.png

Probablemente sepa qué es un degradado si alguna vez se ha metido con un programa de edición de gráficos. Se utilizan para unir dos colores diferentes en diferentes grados de intensidad. Un tipo de degradado matemático hace lo mismo, pero mide la cantidad de salidas que cambian dependiendo de las entradas ligeramente modificadas. Un gradiente se puede calcular como una especie de pendiente.

 

En el aprendizaje automático, cuanta más alta es la pendiente, más rápido puede aprender una ANN. Y si la pendiente del gradiente es cero, entonces la ANN no aprende. La analogía más simple para entender los gradientes matemáticos es un excursionista ciego que sube una montaña o colina. Su objetivo es llegar a la cima con el menor número de pasos. El pico es relativamente plano con una pequeña pendiente, pero la base de la montaña tiene una gran pendiente. Al principio, el excursionista puede dar pasos más largos por la ladera de la montaña para minimizar el número de pasos, pero cuando se acerca a la cima, toma pasos más pequeños porque quiere llegar a la cima y pasar por ella. En palabras de orden, es más fácil cubrir más terreno cuando la pendiente es alta. La cantidad de altura que puede subir en relación con la longitud de sus zancadas es alta, pero va bajando a medida que más alto sube. Si recuerda las matemáticas de la escuela secundaria, una pendiente de 0 indica una línea horizontal. Un número más alto indica un grado más inclinado o ángulo de inclinación. Luego, un descenso de gradiente está bajando la montaña hacia un valle o la parte inferior de la curva de función (si fue trazado). Es un algoritmo de minimización, por lo que tiene sentido intuitivo bajar. Si tiene un problema de aprendizaje automático con una función de costo que tiene dos parámetros W y B, el descenso de gradiente intentará encontrar los valores de esos dos parámetros que resulten en el valor más bajo para la función de costo. Esto significa que la tasa de error global de la red neuronal disminuye. Otro concepto llamado tasa de aprendizaje es una medida de qué tan rápido debe bajar un descenso de gradiente. Una tasa de aprendizaje más alta significa que el descenso puede disparar el mínimo local mucho, y una tasa de aprendizaje más baja significa que el descenso alcanzará el mínimo local, pero tendrá un costo de tiempo y rendimiento.

Tenga en cuenta que alcanzar el mejor mínimo local es sinónimo de que el sistema obtiene la mejor precisión. Una mayor tasa de aprendizaje, entonces, puede conducir a resultados inexactos. Un buen enfoque es tratar de encontrar una tasa en algún punto intermedio entre rápido y lento. La propagación hacia atrás es simplemente encontrar la tasa de error, la función de pérdida o la función de costo a través del descenso de gradiente y aplicarla a los pesos de las neuronas artificiales en la red. En términos más simples, la propagación hacia atrás es un mecanismo que toma una tasa de error y modifica el programa para aprender de él. Cuando un programa de reconocimiento de escritura a mano clasifica un cero de aspecto extraño como nueve, la propagación hacia atrás ajusta los pesos para que, en el futuro, los ceros de aspecto extraño se clasifiquen correctamente como ceros. En la práctica, esto es un poco más complicado, pero la idea general sigue siendo la misma. Un sistema de aprendizaje automático solo puede aprender si se corrigen los errores. Sin algo para propagar correcciones en la red neuronal, no habría aprendizaje. No importa cuántos datos usted suministre o por cuánto tiempo ejecute sus conjuntos de entrenamiento, el sistema nunca superará los cero o nueve descensos sin modificar los pesos de las neuronas.

Así como hay diferentes tipos de neuronas artificiales, hay diferentes tipos de redes neuronales artificiales. Cada uno tiene sus propias aplicaciones y métodos para manejar las entradas y devolver sus salidas respectivas. Los conceptos básicos de las redes neuronales convolucionales (CNN) se tratarán más adelante, ya que forman parte del aprendizaje profundo. Otro tipo llamado redes neuronales recurrentes (RNN) usa una estructura donde las entradas no van directamente de la neurona a la salida. En cambio, las entradas pueden rebotar alrededor de las neuronas para formar un patrón de aprendizaje "recurrente".

CNN-08.png

Un tipo de RNN llamado redes de memoria a corto plazo largo (LSTM) intenta simular memorias con cada neurona lógica aferrada a cierta información junto con la entrada dada.  Aunque son geniales como son, las redes neuronales probablemente no imitan exactamente cómo la inteligencia llega a los humanos. Han sido llamados los mejores algoritmos inventados en nuestra vida, pero tal vez sean solo eso y nada más. Ciertamente, la mayoría de las aplicaciones de las redes neuronales pertenecen a la versión "estrecha" de la inteligencia artificial en lugar de la general. En parte, esto se debe a la gran complejidad del cerebro humano. Incluso las redes neuronales más complejas casi no se acercan al poder de computación en bruto del cerebro humano. E incluso si lo hicieran, es probable que intenten resolver uno o más de los cinco problemas generales del aprendizaje automático. No están tratando de simular el pensamiento, ni están formulando ideas abstractas por su cuenta. También se ha dicho que el hecho de que la mente humana sea la cosa más compleja que conoce el hombre, no significa que el hombre no pueda crear cosas que sean aún más complejas.

Si bien esta es una afirmación lógica, tal complejidad aún no se ha visto en las técnicas modernas de aprendizaje automático. Estos sistemas provienen de la complejidad matemática en una visión puramente sistémica, pero no se comparan con la complejidad biológica de la mente. Si todo lo que necesita es un programador competente y un paquete de aprendizaje de código abierto para comenzar a simular la inteligencia, existe una marcada ausencia de complejidad allí.  Las redes neuronales ciertamente tienen sus usos y pueden muy bien ser algunos de los algoritmos más importantes conocidos por el hombre, pero son, en el fondo, simples abstracciones matemáticas. Recuerde que los problemas más útiles en el aprendizaje automático se resuelven mediante la supervisión, ya que cuentan con vastas cantidades de datos previamente etiquetados que el sistema puede aprender.

El cerebro humano, por el contrario, puede aprender a categorizar las cosas sin supervisión alguna. Un niño pequeño, incluso sin saber qué es un perro, puede identificarlo fácilmente, incluso si carece de ese conocimiento. Puede identificar a sus padres sin saber qué es un padre. Alguien puede argumentar que el cerebro humano siempre usa una versión de aprendizaje supervisado porque nos bombardean diariamente las entradas sensoriales, pero esto es esencialmente información sin etiquetar. El equivalente sería entrenar una red neuronal en el audio que escucha un niño a lo largo del día y pedirle que identifique la voz de la madre. Lo único que puede hacer la red neuronal es categorizar sonidos similares, pero no puede "decir" que pertenece a algo. Esto es algo que el cerebro humano hace a un nivel intuitivo.

PRIMERA ACTIVIDAD DE APRENDIZAJE:

Comprensión de lectura

Responda el siguiente cuestionario y remita su actividad al correo: actividades@consejomexicanodeneurociencias.org

1. ¿Cuál sería la analogía entre el núcleo de una neurona y redes informáticas creadas bajo ese esquema?

2. ¿En qué consiste la teoría de las neuronas de neuronas de McCulloch-Pitts?

3. ¿En qué consiste la lógica booleana?

4. ¿Es la mente humana un sistema informático?

5. ¿En qué consisten redes de memoria a corto plazo largo (LSTM)

EL APRENDIZAJE DE REFUERZO

Los esquemas tradicionales de aprendizaje automático del aprendizaje supervisado y no supervisado suelen ser bastante estáticos, lo que significa que siguen los principios establecidos de agregación de datos, diseño de redes neuronales y luego capacitación. No importa qué tipo de técnicas de aprendizaje automático se utilicen, el sistema ingiere los datos y aprende de ellos. Los datos pueden cambiar con el tiempo, pero el sistema no genera ningún dato propio. El aprendizaje por refuerzo cambia todo eso. Aunque técnicamente es un tipo de aprendizaje automático, el aprendizaje por refuerzo va un paso más allá al agregar un "agente de software" que puede aprender de los datos derivados del entorno aprendido, así como generar sus propios comentarios. Un agente de software es simplemente un robot o programa autónomo que está diseñado para imitar las propiedades de la agencia en actores humanos y animales.

 

Este agente de software actúa como la principal fuente de inteligencia en el programa. En lugar de recibir un conjunto correcto de resultados a través de datos clasificados, el agente aprende a través de la simulación de recompensa y castigo. Debido a esto, el aprendizaje por refuerzo se considera un tercer paradigma en la esfera del aprendizaje automático después del aprendizaje supervisado y el aprendizaje no supervisado. Como tal, no hay conjuntos de datos para entrenar al agente. En cambio, se dice que aprenden de los entornos y sus propios sistemas de retroalimentación. Puede imaginar que un posible agente de software sea un programa de computadora encargado de encontrar su salida de un laberinto. Al enfrentarse con el mismo problema, un estudiante de ciencias de la computación podría usar un algoritmo de búsqueda de caminos para encontrar la salida, pero un agente de software opera basándose en principios poco fundamentales. No sabe muy bien qué es un laberinto, pero puede estar programado para buscar recompensas y evitar el castigo. Una posible recompensa en un laberinto, por ejemplo, es pasar a una celda que no había sido descubierta anteriormente y un posible castigo es pasar por las mismas celdas. Estos sistemas de recompensa-castigo permiten que el agente navegue finalmente hacia la salida del laberinto, aunque el agente aún no comprende cómo moverse de una celda a otra a menos que esté programado explícitamente.

 

Una posible forma de que estos agentes de software estén diseñados es a través de máquinas de estados finitos (FSM). Las recompensas y los castigos se basan en los estados individuales con los que se encuentra la máquina. Para un programa de resolución de laberintos, un posible estado negativo se está atascando en un callejón sin salida. El programa aprenderá que es evitarlos en el futuro como un niño recuerda no tocar los quemadores de la estufa.  Para comenzar el proceso de cambio de estado, el programa a menudo necesita una función de aleatoriedad o un proceso estocástico que simule la toma de decisiones en un entorno desconocido. Hay muy pocos escenarios que un humano puede encontrar donde tienen una pizarra completamente en blanco. Si nos encontramos con un laberinto, intuitivamente pensamos en formas de atravesarlo. Si nos colocamos en un entorno nuevo y aterrador, consolidamos el conocimiento de situaciones anteriores que pueden ayudarnos.

 

Piense en los rompecabezas de la sala de escape que puede resolver con un grupo de amigos. Una vez que esté allí, presumiblemente bloqueado, debe encontrar la salida resolviendo las pistas que se le han dado. Pero no importa lo que haga en esa situación, generalmente tiene un propósito para hacerlo. Muy pocas veces decimos que los humanos hacen las cosas al azar. Este aspecto de la aleatoriedad es un problema central en el aprendizaje por refuerzo, ya que se supone que la inteligencia debe ser modelada según el propósito, no el lanzamiento de un dado. A diferencia del aprendizaje automático tradicional, el aprendizaje por refuerzo es más parecido al estudio de la toma de decisiones. Toma prestados conceptos de varias disciplinas, incluyendo ciencias de la computación, economía, neuropsicología y matemáticas.  Es posible que haya oído hablar de "refuerzo positivo" si alguna vez ha tomado una clase de psicología. Observe que el refuerzo positivo y negativo suena similar al aprendizaje por refuerzo. Eso es porque influyen directamente en el campo del aprendizaje por refuerzo. ¿Por qué un animal o un humano hacen algo, cualquier cosa? Bueno, un posible motivador es la experiencia de placer o ganancia personal. En el lado opuesto, evitar resultados negativos fortalece el comportamiento igual o mejor. El aprendizaje por refuerzo lleva estos conceptos un poco más lejos porque busca encontrar decisiones óptimas para las soluciones.

 

Un agente de software puede visitar cada celda en un laberinto y aun así encontrar la salida, pero hacerlo es tedioso e ineficiente. Una mejor solución es evitar los callejones sin salida (resultados negativos o castigos) para que el agente no siga interviniendo en las celdas que ya ha visitado.

 

Debido a estas razones, el aprendizaje por refuerzo pertenece a un subconjunto de la investigación en inteligencia artificial que busca principios generales más simples. Si la naturaleza de la inteligencia es simplemente una toma de decisiones inteligente, entonces un avance suficiente en el aprendizaje por refuerzo podría llevar a la creación de los primeros sistemas de inteligencia general que alcancen o superen el intelecto humano. Si el aprendizaje por refuerzo es adecuado para ese fin es discutible, pero difiere claramente de los otros tipos de aprendizaje automático. El aprendizaje de refuerzo es limitado porque el poder de las redes neuronales y sus algoritmos también son limitados.

EL APRENDIZAJE PROFUNDO

Si las redes neuronales se enfocan en la forma en que los humanos piensan, el aprendizaje profundo lleva la idea un paso más allá. Las redes neuronales y las neuronas artificiales tienen una larga historia que se remonta a 1950. Pero cuando se introdujeron por primera vez, el poder de computación era limitado, y se consideraba a ANN como juguetes de investigación en lugar de algoritmos de negocios incondicionales.

Cuando la potencia de cálculo mejoró, ANN recibió un renovado interés por parte de investigadores de la IA y de grandes compañías de Internet. Acabamos de salir del invierno de investigación de la IA que persistió en los años 80 y 90. Parte de esto se debe a la potencia de cálculo, y la otra parte se debe a la introducción de la web y la gran cantidad de datos que genera. Hoy en día, el aprendizaje profundo está a la vanguardia de la investigación en IA y continúa avanzando, ayudando al campo a descongelarse del frío.

Dos cosas limitan una red neuronal artificial. Primero está la potencia de cálculo necesaria para simular capas de neuronas artificiales, y la segunda es una combinación de datos disponibles y selección de características. Incluso los grupos de ANN más poderosos de hoy en día siguen siendo órdenes de magnitud detrás de la potencia de cálculo sin procesar del cerebro, por ejemplo. La introducción de potentes unidades de procesamiento de gráficos (GPU) para fines de aprendizaje automático aumenta enormemente la potencia de cómputo disponible en todos los ámbitos. Las GPU son intrínsecamente más rápidas que las CPU porque tienden a priorizar núcleos más pequeños y eficientes en comparación con los potentes, pero voluminosos, de la CPU. También permiten múltiples subprocesos de tareas computacionales y pueden realizar aritmética de punto flotante (números decimales) con más facilidad que las CPU. Aunque las GPU estaban destinadas a representar gráficos en 3D a cientos de cuadros por segundo, la comunidad de la IA los ha adoptado para procesar grandes proyectos de aprendizaje profundo.  Entonces, ¿qué es exactamente el aprendizaje profundo? Como se aplica el nombre, se relaciona con la creación de capas adicionales de profundidad que las ANN tradicionales. El argumento es que, si el cerebro está formado por capas y capas de neuronas, ¿cómo es posible que las ANs endebles con capas singulares sean capaces de simular inteligencia?

Estas redes a veces se denominan redes neuronales “superficiales” para diferenciarse de aquellas con múltiples capas. Ahora que las GPU son extremadamente rápidas y mejoran cada año, el aprendizaje profundo no requiere centros de datos completos o agrupaciones de redes neuronales para entrenar modelos. Volviendo al motivo del cerebro humano, el aprendizaje profundo toma la tendencia de ideas complejas a disparar profundamente en los pliegues del cerebro, en lugar de a niveles superficiales. Reconocer los bordes de las imágenes y los detalles minúsculos dispara las neuronas más cerca de la superficie del cerebro, mientras que el reconocimiento de construcciones más grandes como la cara de una persona las dispara más profundamente. Más capas equivalen a mejores sistemas, más inteligentes. La información pasa de las neuronas de entrada a las capas ocultas adicionales que también pasan esas entradas entre sí. Mientras existan más de estas capas ocultas, mejores serán los resultados del aprendizaje automático. Esta es la razón por la que el aprendizaje profundo es capaz de abordar problemas en la inteligencia artificial que tradicionalmente ha carecido el aprendizaje superficial. Esto incluye la visión por computadora, el reconocimiento de voz y el procesamiento del lenguaje.  

 

El verdadero poder del aprendizaje profundo proviene de su procesamiento no lineal de características. Las técnicas tradicionales de aprendizaje automático utilizan principalmente modelos lineales y sufren la fase de ingeniería de características. Con el aprendizaje profundo, las características no tienen que ser seleccionadas por un experto en el campo. En su lugar, se seleccionan muchas características diferentes por modelo, lo que contribuye a la complejidad general de la red neuronal. Una clasificación tradicional de algo puede haber usado dos o tres características, pero el equivalente de aprendizaje profundo es usar tantas como lo permitan los datos.

Por ejemplo, para detectar si un objeto en la carretera debe considerarse un obstáculo para un vehículo, un sistema de aprendizaje automático de poca profundidad puede usar la forma del objeto y su velocidad como factores. Dicho sistema puede funcionar bien a corto plazo, identificando con éxito diferentes marcas y modelos de automóviles, ya sea en movimiento o estacionados. Sin embargo, el sistema puede encontrar algún comportamiento no especificado como una gran carroza de carnaval que se mueve relativamente lenta alrededor de muchos peatones. Usar la forma y la velocidad por sí solo no sería suficiente para clasificarlos. En contraste, un sistema de aprendizaje profundo puede usar varios factores diferentes además de la forma y la velocidad. A medida que las entradas de línea de base, la forma y la velocidad pasan a las capas más profundas, donde también pueden comparar la proximidad a una carretera, la presencia de peatones, la orientación, la distancia desde la cámara, etc. Estos factores adicionales tomarán más tiempo para entrenar el modelo y serán más costosos en términos de computación, pero a la larga serán mejores para identificar vehículos.

En consecuencia, el alcance del aprendizaje automático tradicional tiene sus límites. Hay un punto en el que introducir más datos etiquetados no da como resultado un mejor rendimiento del sistema. Sin embargo, con un aprendizaje profundo, agregar más datos directamente conduce a un mejor rendimiento.

 

Es principalmente una cuestión de escala. Uno puede escalar bien a un gran número de entradas, pero el otro no puede. No es de extrañar que las empresas de datos gruesos como Facebook y Google lo utilicen. Su principal valor como empresa proviene de los datos que adquieren. El aprendizaje profundo les permite explotarlo, obtener información y finalmente beneficiarse de él, y la razón por la que los algoritmos de aprendizaje profundo se escalan tan bien es que son más propicios a los datos analógicos, que abarcan muchas características. Los datos como imágenes, grabación de audio, texto sin etiquetar y secuencias de video son muy diferentes para trabajar con datos tabulares nítidos. Estos tipos de datos son particularmente buenos para formar representaciones jerárquicas de características. Dado que las funciones no tienen que ser seleccionadas de antemano, los algoritmos de aprendizaje profundo pueden aprender a formar clases de características por sí mismos.

 

Las características aprendidas de nivel superior se definirán en términos de las características aprendidas de nivel inferior. Volviendo al ejemplo de identificación del vehículo, una característica de bajo nivel puede ser un pequeño aspecto definitorio del automóvil, como el parabrisas trasero. Una característica de nivel superior es una colección de estas, como el tamaño del parachoques, las posiciones de las luces indicadoras y el área de la placa de la licencia, 

que se utilizan para identificar diferentes marcas. Un automóvil con un parabrisas más alto y una apariencia de bloque puede ser una clase de SUV, mientras que algo que está cerca del piso puede ser una clase de sedán.

 

Las redes neuronales de aprendizaje profundo funcionan de manera un poco diferente a las ANN regulares. Una clase de estas redes se llaman redes neuronales convolucionales (CNN) y se utilizan principalmente para el reconocimiento de imágenes. Al igual que otras redes neuronales, están diseñadas después de procesos biológicos en el cerebro. Los animales usan su corteza visual para percibir la luz a través de neuronas corticales individuales. Cada una de estas neuronas corresponde a campos receptivos que se superponen en la retina. Las CNN trabajan de manera similar. Consisten en una capa de entrada y salida más capas ocultas adicionales en medio. Las capas ocultas utilizan algo llamado convolución para procesar sus entradas. En pocas palabras, la convolución está utilizando dos funciones distintas para crear una tercera función que expresa cómo la primera afecta a la segunda. La convolución se utiliza para agrupar los píxeles desde el principio, de modo que la red ya tenga una idea de cómo encaja el panorama general.

 

También es más fácil formar una estructura jerárquica de características. Estas redes reconocen primero los bordes pequeños de la imagen como la característica más pequeña posible. Cada capa agrega progresivamente otro borde 

o sección media a la representación de datos jerárquica hasta que se aprende toda la imagen.  

 

A pesar de su mayor precisión, las redes neuronales profundas sufren una serie de inconvenientes. El hecho de que el aprendizaje profundo sea lo último en tecnología no significa que deba ser generalizado a todos los problemas de aprendizaje automático concebibles. Para muchas tareas, las redes neuronales poco profundas son la opción preferida. Sin embargo, las grandes empresas como Facebook emplean regularmente un aprendizaje profundo porque tienen el requisito, los datos y los recursos computacionales para realizarlo.

 

Facebook dijo recientemente que utiliza unos mil millones de imágenes digitales para enseñar sus sistemas de aprendizaje profundo. Los jugadores más pequeños en la escena de la IA no tienen la capacidad de procesamiento para trabajar en esa escala. Pero, de nuevo, Facebook es una de las compañías más grandes que existen. Google demostró lo potentes que son algunos de sus sistemas hace unos años. Su sistema supuestamente consistía en mil millones de conexiones. Se entrenó con los datos de YouTube y pudo reconocer con precisión a los gatos en los videos, flores amarillas y otras imágenes. Es interesante notar que ninguna de estas características fue seleccionada o programada de manera absoluta. Sus redes neuronales los identificaron a través de la representación jerárquica de datos. Además, podría reconocer entre 22.000 categorías diferentes de imágenes con un 17% de precisión. Ese nivel de precisión es bastante sorprendente una vez que considera la cantidad de categorías y cómo se aprendió el sistema sin que ningún humano etiquetara los datos. Esta precisión podría aumentarse al 50% si el número de categorías se redujera a 1.000.  

 

Hoy en día, si algún sistema de inteligencia artificial está a la vanguardia, probablemente esté usando un aprendizaje profundo. Prácticamente todas las grandes empresas de tecnología de Silicon Valley lo están utilizando. Cuando usa el traductor de Google en una cadena arbitraria, está usando un sistema de aprendizaje profundo. Cada vez que enciende su Amazon Echo para hablar con Alexa, está utilizando un aprendizaje profundo. Google lo usa para adaptar su experiencia de búsqueda a sus intereses personales. A lo largo del tiempo, ha desarrollado una base de datos de conocimiento denominada “Gráfico de conocimiento” que contiene unos 570 millones de entidades diferentes y 70 mil millones de datos. Se usa junto con la Búsqueda de Google para representar con mayor precisión los datos que un usuario puede estar buscando a través de sus consultas. Por ejemplo, si busca el nombre de un ex presidente de los Estados Unidos, el gráfico de conocimiento acumula los datos relevantes y los muestra en la barra lateral. Estos pequeños fragmentos de datos relevantes se recopilan de fuentes en la web como Wikipedia y el CIA Factbook.

 

Google dice que la información provista a través del gráfico de conocimiento es capaz de responder a un tercio de sus 100 mil millones de consultas mensuales de usuarios. Y si alguna vez tiene la suerte de viajar en un auto sin conductor, sí, también es gracias a la tecnología de aprendizaje profundo.

SEGUNDA ACTIVIDAD DE APRENDIZAJE:

Considerando el uso actual de tecnología como asistentes inteligentes (Amazon, Google), así como el uso de redes sociales, comparta en el siguiente recuadro de comentarios algunos ejemplos que pueda identificar valorando los conceptos de aprendizaje de refuerzo y aprendizaje profundo.