Cosas que nunca creeríais

Rodrigo Quian Quiroga

Fragmento

Introducción

Introducción

El cine imagina más allá de lo evidente, suele anticiparse a su época y propone situaciones fascinantes y disruptivas. En Inception, un grupo de conspiradores implanta falsas memorias; en Hasta el fin del mundo, un científico alocado llega a leer los sueños; en 2001: Odisea del espacio, una supercomputadora siente y piensa como una persona.

Pero, así como el cine de ciencia ficción suele apoyarse en los últimos avances de la ciencia, la ciencia también se nutre de la prolífica imaginación de los cineastas y, años después, nos encontramos sumergidos en esas realidades. Implantar memorias usando optogenética y la consecuente posibilidad de manipular a voluntad grupos de neuronas, leer la mente durante el sueño a partir de avanzados algoritmos de decodificación, o lograr que las computadoras superen el pensamiento humano en infinidad de tareas mediante redes neuronales profundas, han sido logros descriptos en prestigiosas publicaciones científicas de los últimos años.

De eso trata este libro, de cómo la ciencia está logrando lo que hace décadas parecía imposible, y de cómo estos avances nos llevan a replantearnos las grandes preguntas que el hombre viene haciéndose desde que tiene uso de razón. Busco compartir lo que me desvela y apasiona. Quiero hablarles de la revolución que estamos viviendo en relación con el funcionamiento del cerebro. Una revolución tan profunda, tan cercana a las raíces de nuestra propia esencia, que se nutre de las discusiones más trascendentales de la filosofía y, a la vez, tan atrapante que ha disparado la imaginación de escritores futuristas y ha supuesto una fuente inagotable de infinidad de películas de ciencia ficción.

Este es justamente el trípode en el que se apoya este libro, tres pasiones que se apuntalan la una a la otra: la ciencia ficción, la neurociencia y la filosofía. Películas como 2001, Blade Runner, Matrix o Inception, entre otras tantas, nos llevan a pensar sobre la conciencia humana y una eventual consciencia de las máquinas, la existencia de la realidad exterior, el libre albedrío y el sentido de identidad; aquello que nos lleva a reconocernos como persona, a atribuirnos la noción de un Yo y hasta a plantearnos si algún día podríamos inmortalizarnos.

La neurociencia está avanzando a un ritmo estremecedor y muchas de las ideas de estas películas tienen cada vez más de ciencia y menos ficción. Aunque parezca mentira, implantar una memoria, leer la mente, comunicarse con pacientes en coma, predecir la decisión de una persona segundos antes de que la tome, crear cyborgs o volver a hacer caminar a un paralítico, ya no es una quimera. Es una realidad sólida y verificable que nos tiene deslumbrados a los neurocientíficos.

Tengo la suerte de trabajar en neurociencia desde hace años y he tenido también la suerte de descubrir un tipo de neuronas, las llamadas “neuronas de concepto” o neuronas de Jennifer Aniston, que responden a conceptos específicos, como ser la actriz, Luke Skywalker o Maradona. Estas neuronas nos dan evidencia concreta sobre el funcionamiento de nuestra memoria y pensamiento y también, creo yo, tienen connotaciones asombrosas.

Hace casi 400 años, René Descartes propuso una división entre el cuerpo y la mente, y que la comunicación entre ambos se da a través de la glándula pineal, la cual se creía que existía solo en humanos. En nuestros días, la idea de concebir a la mente como un ente distinto del cerebro ha perdido sustento entre los científicos y, por otro lado, también sabemos que la glándula pineal existe en otros animales.

¿Qué es entonces lo que nos hace humanos? ¿Qué es lo que nos distingue y nos lleva a ser la especie dominante? ¿Podrían acaso los monos tener sometidos a los humanos como en El planeta de los simios? Más concretamente, nos preguntamos si hay algo especial en nuestro cerebro para hacernos más inteligentes y llevarnos a escribir libros y plantearnos estas cosas.

Retomando una de las grandes preguntas que lleva siglos de debate en la filosofía, me atrevo a postular que las neuronas de concepto que encontrara hace unos años, quizás sean el sustrato neuronal que da lugar a nuestros pensamientos más elaborados y abstractos; aquello que nos hace humanos y nos diferencia de otros animales y de las computadoras; aquello que, en el contexto de numerosos cruces entre ciencia y ciencia ficción de este libro, y dando rienda suelta a mi imaginación, me atrevo incluso a especular que podría eventualmente hacer realidad alguna de las predicciones más fascinantes de la ciencia ficción.

I. 2001: Odisea del espacio - Inteligencia de las máquinas

En abril de 1968, un año antes de que el hombre pisara la luna, Stanley Kubrick estrenó su monumental 2001: Odisea del espacio, la cual escribió junto con Arthur Clarke, el renombrado autor de ciencia ficción, quien poco después publicaría una novela con el mismo nombre.

A medio siglo de su estreno, 2001 sigue siendo considerada por muchos la película más lograda del cine de ciencia ficción. Comienza con tres minutos absolutamente a oscuras, estableciendo un punto de referencia a partir del cual Kubrick irá desarrollando una experiencia audiovisual única. En gran parte de la película dominan las escenas majestuosas en el espacio, con un realismo sin precedentes para la época. Rompiendo con una línea argumental estereotipada, las escenas van acompañadas por música clásica y una casi absoluta falta de diálogos, en donde se imponen los planos que se mantienen eternamente y que dan lugar a una cadencia extremadamente lenta que evoca el ritmo de acontecimientos a falta de gravedad. La primera palabra se escucha recién tras casi media hora de empezada la película y la mayor parte de la trama transcurre en silencio, sin que conversaciones inocuas arruinen la increíble experiencia propuesta por Kubrick.

Más allá del realismo y la belleza de estas escenas, la película trasciende por otro motivo. Dividida en tres partes, la segunda parte describe la monótona rutina de dos astronautas (Dave Bowman y Frank Poole) a cargo de una misión espacial a Júpiter y de otros tres astronautas en estado de hibernación. Aunque, por lejos, el personaje que se roba la película es el sexto miembro de la tripulación, HAL 9000, una supercomputadora representada por una voz monocorde y pausada, y una lente de color rojo.

HAL 9000, la supercomputadora de 2001: Odisea del espacio.

El gran logro de Kubrick es el de convencer al espectador de que esa luz roja es un ser sintiente, con sus emociones, miedos e intereses. Y como en todo buen argumento, los personajes evolucionan a medida que transcurre la trama y quien en principio era la compañía perfecta en una misión a Júpiter, incapaz de la más mínima equivocación, se vuelve un ser temible que comienza a tomar decisiones erráticas e impredecibles debido a algo tan humano como el miedo a dejar de existir.

Temiendo ser desconectada por Dave Bowman, quien tras una excursión en el espacio exterior le pide que abra la compuerta para poder reingresar a la estación espacial, HAL toma una decisión inesperada, aunque lógica, considerando que prioriza su instinto de supervivencia:

[Dave Bowman: Open the pod bay doors, HAL

HAL: I’m sorry, Dave. I’m afraid I can’t do that.

D.B.: What’s the problem?

HAL: I think you know what the problem is just as well as I do.

D.B.: What are you talking about, HAL?

HAL: This mission is too important for me to allow you to jeopardize it.

D.B.: I don’t know what you’re talking about, HAL

HAL: I know that you and Frank were planning to disconnect me, and I’m afraid that’s something I cannot allow to happen.]

Dave Bowman: Abre las compuertas, HAL.

HAL: Perdón, Dave, pero me temo que no puedo hacer eso.

D.B.: ¿Cuál es el problema?

HAL: Creo que lo sabes tanto como yo.

D.B.: ¿De qué estás hablando, HAL?

HAL: Esta misión es demasiado importante para mí como para permitirte que la pongas en riesgo.

D.B.: No sé de lo que hablas, HAL

HAL: Sé que tú y Frank estaban planeando desconectarme, y me temo que eso es algo que no puedo permitir.

Con una frialdad aterradora, HAL no duda un instante en matar a quien sea que amenace su existencia. Sus argumentos son racionales e irrefutables, después de todo es una computadora. Pero cuando su desconexión es ya inevitable, HAL muestra su costado sensible y humano:

[Stop, Dave. I’m afraid. I’m afraid, Dave. Dave, my mind is going. I can feel it. I can feel it. My mind is going. There is no question about it. I can feel it. I can feel it. I can feel it. I’m afraid…]

Para, Dave. Tengo miedo. Tengo miedo, Dave. Dave, mi mente se pierde. Puedo sentirlo. Mi mente se pierde. No hay duda de eso. Puedo sentirlo. Puedo sentirlo. Puedo sentirlo. Tengo miedo…

El hecho de que una computadora —en el fondo, una colección de algoritmos— pueda pensar, ejercer su propia voluntad y hasta negarse a aceptar órdenes o sentir miedo, abre una discusión fascinante y sorprendente para la época. En los 60 comenzaban a desarrollarse las calculadoras electrónicas y las primeras computadoras personales recién aparecerían a mediados de los 70; sin embargo, la genialidad de Kubrick y Clarke en vislumbrar el futuro de las computadoras tuvo un sostén científico extraordinario. Al verse en peligro, HAL decide cortar los suministros vitales de los astronautas en hibernación. Uno de ellos se llama Victor Kaminski, un juego de letras en honor a Marvin Minsky, el gran pionero de la Inteligencia Artificial, que fuera consultor de la película.

Entre otros muchos logros, Minsky es reconocido por haber creado una de las primeras redes neuronales artificiales, llamada SNARC (Stochastic Neural Analog Reinforcement Computer), en 1951. Esta red de 40 neuronas estaba compuesta básicamente por válvulas de vacío, circuitos y motores, y simulaba el comportamiento de una rata buscando la salida de un laberinto.

Más tarde Minsky fundaría el famoso laboratorio de Inteligencia Artificial en el Instituto de Tecnología de Massachusets (MIT) y tiempo después, en 1986, publicaría Society of mind, en donde propone una visión radical sobre la inteligencia y la eventual posibilidad de pensar de las computadoras.

Minsky considera a la inteligencia como la capacidad de resolver problemas difíciles, que a su vez pueden ser segmentados en una colección de procesos más sencillos y mecánicos, llamados agentes, los cuales no requieren pensamiento o conciencia. Por ejemplo, según Minsky el proceso de tomar una taza de té involucra agentes que se ocupan de agarrar la taza para que no se caiga, otros que la mantienen balanceada para no derramar el té, agentes que dan la sensación de sed y que llevan a la persona a querer beber, y agentes involucrados en movimientos motores para llevar la taza a la boca (Society of Mind, p. 20).

Marvin Minsky y el circuito de una de las 40 neuronas en la red neuronal SNARC[1].

Considerando que una máquina puede realizar estos procesos sencillos e inconscientes, Minsky argumenta que en principio no hay una diferencia fundamental entre la inteligencia de un humano y la que podría llegar a tener una computadora. En otras palabras, “no hay una diferencia clara entre la Psicología y la Inteligencia Artificial, ya que el cerebro es, en el fondo, una máquina” (Society of Mind, p. 326).

La barrera que separa la Inteligencia Artificial y la inteligencia humana es cada vez más difusa, pero antes de repasar los logros de la Inteligencia Artificial, sobre todo en los últimos cinco años, necesito detenerme en esta última afirmación porque involucra una discusión que lleva más de dos mil años en la filosofía.

La gran pregunta que plantean HAL 9000 y la visión de Minsky es si una máquina podría llegar a pensar y ser inteligente. A priori, la respuesta pareciera ser un rotundo no. Una máquina puede contar con complejos algoritmos y realizar varias tareas (como efectuar un cálculo) mucho mejor que un humano, pero la máquina responde a rutinas escritas por un usuario y en principio no puede pensar por sí misma porque no posee una mente. ¿Pero qué es la mente? ¿De qué está compuesta? ¿Qué es lo que hace que sea un atributo exclusivamente humano?

En 399 a. C., hace más de 2400 años, un tribunal ateniense declara a Sócrates (470-399 a. C.) culpable de corromper a los jóvenes atenienses y lo condena a la pena de muerte. La pena, injusta, se debió a su cuestionamiento del orden existente, al dudar y replantearse absolutamente todo, y al abierto desafío a su proceso de enjuiciamiento.

La muerte de Sócrates (oleo de Jacques-Philip-Joseph de Saint-Quentin). En el centro de la escena, Sócrates, luego de haber bebido de la copa con cicuta, rechaza el lamento de sus discípulos.

Los pensamientos de Sócrates en los últimos días antes de tomar la famosa copa con cicuta trascendieron a partir de dos diálogos escritos por Platón (427-347 a. C.), su discípulo más notable. En Critón, Platón dice que Sócrates rechaza ser salvado por sus amigos, argumentando con una racionalidad asombrosa, casi como si estuviera opinando de otra persona y no de sí mismo, que prefiere la muerte a escapar de Atenas traicionando sus principios. El otro diálogo que refiere a la muerte de Sócrates es Fedón, un tratado sobre el alma en donde Platón describe los últimos momentos de Sócrates y el estoicismo con el que acepta su destino, en contraste con la angustia de sus discípulos.

La total naturalidad con la que Sócrates enfrenta a la muerte se sustenta en su indeclinable coherencia intelectual y la firme convicción de la existencia de un alma inmortal. Platón atribuye a su maestro la noción de la existencia de conceptos universales como “igualdad”, “belleza” o “bondad”, de los cuales se ocupa el alma y que solo pueden ser comprendidos a través del pensamiento. Las demás cosas, como ser “hombres”, “caballos”, “trajes” o “muebles”, corresponden al cambiante dominio de lo corpóreo que puede ser percibido con los sentidos. Dice Platón (Fedón, 53, 55):

Cuando el alma se sirve del cuerpo para considerar algún objeto, ya por la vista, ya por el oído, ya por cualquier otro sentido (porque la única función del cuerpo es atender a los objetos mediante los sentidos), se ve entonces atraída por el cuerpo hacia cosas, que no son nunca las mismas; se extravía, se turba, vacila y tiene vértigos, como si estuviera ebria […]. Mientras que, cuando ella examina las cosas por sí misma, sin recurrir al cuerpo, se dirige a lo que es puro, eterno, inmortal, inmutable; y como es de la misma naturaleza, se une y estrecha con ello cuanto puede y da de sí su propia naturaleza. Entonces cesan sus extravíos, se mantiene siempre la misma, porque está unida a lo que no cambia jamás, y participa de su naturaleza; y este estado del alma es lo que se llama sabiduría.

Para Platón, la mente es una entidad distinta del cuerpo y la tarea del filósofo es abstraerse de las confusiones que impone la percepción de la realidad corpórea y así llegar al saber esencial. El filósofo mantiene el alma pura y en la muerte se libera del anclaje del cuerpo y las tentaciones y decepciones de los sentidos, para pasar a otro mundo en compañía de los dioses. De aquí la desazón de Sócrates al ver que sus discípulos se aferraban a la preservación de su vida y no terminaban de entender su enseñanza más fundamental. Pero ¿qué tiene que ver esta discusión con las ideas de Minsky sobre Inteligencia Artificial? Que de ser ciertos los argumentos de Platón, aquellos por los cuales Sócrates no dudó un segundo en dar su vida, entonces hay algo fundamental que diferencia al hombre de las máquinas. El hombre tiene mente, alma, mientras que las máquinas son solo materia.

René Descartes (1596-1650), el padre de la filosofía moderna, retomó las ideas de Platón y diferenció claramente entre la mente y la materia, sentando las bases de lo que se conoce como dualismo cartesiano. En sus Meditaciones metafísicas (sexta Meditación, 1641) argumenta:

Y aunque acaso (o mejor, con toda seguridad, como diré en seguida) tengo un cuerpo al que estoy estrechamente unido, con todo, puesto que, por una parte, tengo una idea clara y distinta de mí mismo, en cuanto que yo soy sólo una cosa que piensa —y no extensa—, y, por otra parte, tengo una idea distinta del cuerpo, en cuanto que él es sólo una cosa extensa —y no pensante—, es cierto entonces que ese yo (es decir, mi alma, por la cual soy lo que soy), es enteramente distinto de mi cuerpo, y que puede existir sin él.

Para Descartes el cerebro, tanto en humanos como en animales, se ocupa de actos reflejos, mientras que el alma, exclusivamente humana, se ocupa de los procesos mentales. El cuerpo es una sofisticada máquina que actúa en el dominio de lo material (res extensa), mientras que el alma es una entidad intangible a cargo del pensamiento (res cogitans). Según Descartes, la interacción entre mente y cuerpo se da a través de la glándula pineal, un órgano que en aquel entonces se creía erróneamente que existía solo en humanos. Y justamente aquí radica la gran falla del dualismo cartesiano. No en el hecho de que la glándula pineal no tenga la función exclusiva que Descartes postulara, sino en que el dualismo cartesiano no explica cómo la mente podría interactuar con el cerebro.

En electromagnetismo, variaciones en el campo eléctrico generan un campo magnético y, a la vez, las variaciones en el campo magnético generan un campo eléctrico. Electricidad y magnetismo están íntimamente ligados a través de las ecuaciones de Maxwell. Pero ¿existe una interacción análoga entre mente y materia? En principio, es posible concebir que la actividad de las neuronas dé lugar a procesos mentales, pero ¿cómo podrían los procesos mentales, incorpóreos, dar lugar a actividad cerebral? ¿Cómo la idea mental de querer mover el brazo en el croquis de abajo podría afectar el disparo de neuronas para realizar el movimiento? El dualismo cartesiano no tiene respuesta a esta pregunta[2].

René Descartes (óleo por Frans Hals, museo de Louvre) y uno de sus croquis ilustrando la función de la glándula pineal. La luz pasa a través de los ojos a la glándula pineal y allí los estímulos materiales se convierten en pensamientos que dan lugar a las acciones inteligentes, como mover el brazo hacia un punto dado.

En la actualidad, sabemos que la mente no es una entidad distinta del cerebro. De hecho, existe irrefutable evidencia científica que muestra cómo determinadas lesiones en el cerebro pueden cambiar “la mente” de una persona. Uno de los casos más renombrados es el de Phineas Gage, el capataz de un grupo de trabajadores encargados de tender vías del ferrocarril, quien en 1848 sufrió un accidente en el que una barreta de metal disparada por una explosión le atravesó el cráneo destrozándole el lóbulo frontal izquierdo. Lo sorprendente fue no solo que Gage no murió en el accidente, sino que la lesión cerebral le produjo un dramático cambio de personalidad. Pasó de ser un trabajador responsable y amable en el trato, a ser una persona mucho más irreverente, libertina y agresiva, como si hubiera perdido el sentido de la censura[3].

Otro caso muy mentado en neurociencia es el de Leborgne, un zapatero parisino a quien el personal del hospital apodara “monsieur Tan”, ya que eso era lo único que esta persona lograba balbucear. En 1861, Leborgne fallecería justo una semana después de haber sido examinado por Pierre Paul Broca, un brillante cirujano y anatomista, quien en una autopsia post mortem descubrió una marcada lesión en el lóbulo frontal izquierdo. Esto es lo que en nuestros días se conoce como el área de Broca (la primera evidencia científica irrefutable sobre la localización de funciones cerebrales), que se sabe es fundamental para el lenguaje[4]. Un tercer caso que vale la pena mencionar es el de Henry Molaison, quizás el paciente más estudiado en la historia de la ciencia, conocido por sus iniciales como H. M.

H. M. sufría de crisis epilépticas que no podían controlarse con medicación. En 1953, el neurocirujano William Scoville le extrajo quirúrgicamente el hipocampo (una estructura con forma de caballito de mar que suele estar comprometida en el origen de las crisis epilépticas) y áreas adyacentes de ambos hemisferios cerebrales. El resultado inesperado fue que, a partir de la cirugía, H. M. no pudo reconocer al personal del hospital, encontrar el camino al baño o recordar los eventos diarios. En otras palabras, H. M. perdió la capacidad de formar nuevos recuerdos, lo cual estableció la importancia del hipocampo en la memoria[5].

Reconstrucción de la lesión sufrida por Phineas Gage (izquierda), cerebro de Leborgne post mortem (centro) y foto de Henry Molaison, a quien se le extrajeron ambos hipocampos para tratar de curarlo de epilepsia.

Resumiendo los argumentos anteriores, por un lado, el dualismo cartesiano no puede explicar cómo la mente interactúa con la materia y, por el otro, funciones que en principio parecerían exclusivas de la mente, como la capacidad del lenguaje, de memoria y hasta rasgos de la personalidad, no son una entidad independiente sino la actividad del cerebro.

El golpe de gracia al dualismo cartesiano se lo daría el filósofo Gilbert Ryle, a mediados del siglo XX[6]. Ryle estigmatizó la noción de la mente en el dualismo cartesiano como el dogma del ghost in the machine (fantasma en la máquina), el cual se basa en un error de categorización. Para ilustrar la idea, Ryle dio el ejemplo de un extranjero que visita la Universidad de Oxford y tras recorrer los distintos colegios y facultades se pregunta “¿Dónde está la universidad?”, como si la universidad fuera una entidad de la misma categoría que los colegios y las facultades que la componen. La universidad es, de hecho, la organización que agrupa los distintos colegios y facultades, así como lo que llamamos mente es un conjunto de procesos cerebrales (y nótese la correspondencia de esta idea con la visión de Minsky sobre la inteligencia).

Hoy en día, son muy pocos los científicos que aún sostienen el dualismo cartesiano. Sin embargo, la separación entre cuerpo y mente está muy arraigada en el pensamiento popular cuando hablamos de enfermedades mentales (como ser la depresión, el trastorno bipolar o la esquizofrenia) o, sin ir más lejos, cuando atribuimos a la mente nuestra voluntad y la capacidad de tomar decisiones para elegir nuestro futuro (pero este será el tema del capítulo 6, cuando hablemos de Minority Report). Francis Crick, uno de los grandes científicos del siglo XX[7], resume magistralmente la visión que hoy tenemos la mayoría de los neurocientíficos sobre la mente y el cerebro (La búsqueda científica del alma, 1994):

Tú, tus alegrías y tristezas, tus recuerdos y ambiciones, tu sentido de identidad y libre albedrío, son de hecho no más que el comportamiento de un gran ensamble de neuronas…

Me he alejado bastante de Kubrick y su monumental 2001. Partiendo de una afirmación de Marvin Minsky sobre la posibilidad de la Inteligencia Artificial, dimos un salto de más de dos milenios para analizar las ideas de Sócrates y Platón y, más cercanos en el tiempo, aquellas de Descartes, Ryle y los científicos contemporáneos. He tomado un largo desvío para justificar la aseveración de Crick. Pero esta afirmación, lo que se conoce como materialismo, da lugar a conclusiones sorprendentes. En particular, si la mente no es más que la actividad de neuronas, entonces podríamos reemplazar neuronas por transistores, que organizados en complejos circuitos replicarían las funciones del cerebro. Podríamos también usar algoritmos para simular el comportamiento de neuronas y los circuitos que forman a partir de redes neuronales. La clave está en el hecho de que, habiendo rechazado el dualismo cartesiano, no hay ningún principio fundamental que impida que una máquina pueda llegar a ser inteligente como un humano. Después de todo, el hecho de que la actividad neuronal esté basada en circuitos de carbono (materia orgánica) o de silicio (el material inerte usado para fabricar los chips de las computadoras) no debería cambiar nada. Es solo una cuestión de tecnología, aunque ciertamente no menor, ya que el cerebro está constituido por casi cien mil millones de neuronas y aproximadamente mil billones de conexiones entre ellas.

Pero ¿qué tan lejos ha llegado la Inteligencia Artificial en nuestros días? En 2001, HAL 9000 jugaba al ajedrez con Frank Poole, apreciaba los dibujos de Dave Bowman, controlaba el funcionamiento de la nave y conversaba con ambos tripulantes. Cuando se estrenó la película en la década del 60, esto no era más que el fruto de la prolífica imaginación de Kubrick, Clarke y Minsky. Pero en la actualidad ¿cuánto hay de ficción y cuánto de realidad en las proezas de HAL?

A finales del siglo XX se produjo el avance más mentado de la Inteligencia Artificial. Para sorpresa de toda la humanidad, quien era considerado uno de sus exponentes más brillantes, el campeón imbatible de ajedrez, Garry Kasparov, fue derrotado en una serie de seis partidas por la supercomputadora Deep Blue.

Apoyado en avances extraordinarios de las últimas décadas, el equipo de IBM que diseñó Deep Blue llegó a hacerla calcular unos 200 millones de jugadas por segundo y anticipar alrededor de 20 jugadas para elegir la más favorable. Pero no todo era fuerza bruta y velocidad de procesamiento. Deep Blue también contaba con una vastísima base de datos con distintas aperturas y el desarrollo de infinidad de partidas. Semejante combinación doblegó a Kasparov y desató una animada discusión sobre la existencia de un límite en el avance de las computadoras, y de si estas podrían eventualmente sobrepasar la inteligencia humana.

Los avances de la Inteligencia Artificial no se limitan a derrotarnos al ajedrez, explotando una mayor capacidad de cálculo o de almacenamiento de memoria. Entre otras cosas, las redes neuronales son usadas para leer la escritura a mano, con una performance casi idéntica a la de un humano —por ejemplo, para clasificar automáticamente las direcciones de millones de cartas de correo, o para procesar el importe de un cheque introducido en un cajero automático. Programas análogos son también usados para el reconocimiento (y repr

Suscríbete para continuar leyendo y recibir nuestras novedades editoriales

¡Ya estás apuntado/a! Gracias.X

Añadido a tu lista de deseos