El día en el que dejaremos de ser humanos

«Detente, Dave. Detente, por favor… Mi mente se está yendo. Puedo sentirlo». Eran las últimas y agónicas palabras pronunciadas por HAL 9000, mientras su punto rojo vagamente pupilar se apagaba para siempre en la película 2001: Una odisea en el espacio. Antes de extinguirse, no obstante, HAL cantó un fragmento de Daisy Bell, una canción popular de finales del siglo XIX que había devenido en geek tras usarse para demostrar la síntesis de voz en los Laboratorios Bell, en 1962. Esa demostración llevada a cabo por un IBM 7094 fue la que precisamente había inspirado a Arthur C. Clarke para escribir la novela que fue adaptada al cine por Stanley Kubrick.

El nombre de HAL, casualmente, es IBM si realizamos un corrimiento hacia atrás en el abecedario de cada una de las letras. Sin embargo, HAL nos parece una criatura inteligente e IBM un simple ordenador. ¿La diferencia entre ambos solo reside, pues, en su complejidad? ¿O hay algo más? ¿HAL murió o se apagó? ¿Experimentaba verdadera melacolía mientras cantaba Daisy Bell o solo imitaba la melancolía?

73e3199a1f72bd3b20a3976277bcb460

Laz Marquez
«2001: A Space Odyssey»
Minimal Movie Poster

c:\> Los orígenes de la singularidad

HAL 9000 no era solo ficción: el consejero científico de 2001: Una odisea en el espacio fue Marvin Minsky, cofundador del laboratorio de Inteligencia Artificial del Instituto Tecnológico de Massachusetts (MIT). Minsky sostenía que, en el futuro, los ordenadores serían como HAL. Una creencia ciertamente optimista si la comparamos con la sustentada por la primera programadora de la historia, la poeta Ada Lovelace, que nunca confió en que la máquina analítica de su querido Charles Babbage pudiera manifestar verdadera creatividad.

Antes de envenenarse con una manzana rociada con cianuro, como una moderna Blancanieves acosada por su condición de homosexual, Alan Turing logró que un cerebro mecánico descifrara los códigos nazis y los aliados acortaran la Segunda Guerra Mundial en varios años. No fue un ejemplo de la creatividad que exigía Ada Lovelace, pero era mucho más de lo que podía hacer ningún cerebro humano.

Lo que probablemente nunca esperó Minsky es que su HAL se pudiera hacer casi realidad en una fecha tan temprana como 2011, precisamente en un IBM, y que sus palabras, que dejaron atónita a la audiencia de Estados Unidos, fueran: «¿Quién es Isaac Newton?».

IBM Watson estaba participando en el popular concurso de televisión Jeopardy!. Aquella inquietante pregunta no denotaba verdadera curiosidad, pero sí que ponía de manifiesto una asombrosa capacidad para entender el lenguaje natural, manipular ingentes cantidades de datos, relacionar conceptos y captar la ironía. Jeopardy! consiste en adivinar la pregunta que corresponde a una determinada respuesta. Y la pregunta había sido: «Con mucha “gravedad”, este becario del Trinity College se convirtió en profesor de la Cátedra Lucasiana de Matemáticas de la Universidad de Cambridge en 1669».

Watson venció a todos sus rivales humanos, incluidos los campeones históricos del programa, y ni siquiera tuvo la oportunidad de conectarse a internet para recabar la información: el conjunto de su sabiduría estaba almacenado en su cerebro de dieciséis terabytes. Fue un hito comparable al instante en que un antecesor de Watson, Deep Blue, demostrara trece años antes que ningún ser humano ganaría una partida de ajedrez contra una máquina.

Si primero fueron los códigos nazis, luego el ajedrez, y más tarde un concurso de cultura general emitido por televisión, ahora Watson está estudiando medicina para convertirse en el mejor médico del mundo gracias a Nuance Communications, la primera empresa de Ray Kurzweil. ¿Cuál será el siguiente paso? Tal vez sea la esperada «singularidad», el momento en el que una máquina superará la inteligencia humana y se mejorará a sí misma recursivamente. Según Ray Kurzweil, apenas faltan treinta años para que lleguemos a ese punto de inflexión.

c:\> Crecimiento exponencial e imitación

A mediados del siglo XX, cuando apenas superaba medio metro de suelo, Kurzweil escuchaba con devoción los relatos de su abuelo a propósito de unos escritos originales de Leonardo da Vinci que habían pasado por sus manos. A raíz de ello, Kurzweil supo que quería ser inventor, y constató con convicción casi religiosa que las limitaciones humanas podían, y debían, trascenderse través de la tecnología. Desde entonces, Kurzweil ha obtenido 39 patentes, entre las que encontramos la primera máquina de leer para invidentes o el primer sintetizador de texto a voz. Sin embargo, donde Kurzweil ha cultivado su fama planetaria es el ámbito de la futurología.

Basándose en las contraintuitivas características del crecimiento exponencial de la tecnología, verbigracia, la ley de Moore (cada 24 meses se dobla la potencia de los microprocesadores), el incremento de la información y el número de científicos y los millones de dólares en juego, Kurzweil ha osado realizar una serie de predicciones que, en gran parte, han resultado ser asombrosamente precisas.

En 1988, en su primer libro, The Age of Intelligent Machines, pronosticó que un ordenador ganaría el campeonato del mundo de ajedrez y que existirían los coches autónomos. En 1999, en su siguiente libro, La era de las máquinas espirituales, llevó a cabo otra serie de pronósticos para el año 2008, el 2019, el 2029 y el 2099. De momento solo podemos validar las predicciones para el año 2009, y el resultado deja en ridículo las ambigüedades de Nostradamus, tal y como explica Peter H. Diamandis en Abundancia: «de las 108 profecías hechas para 2009, 89 se cumplieron completamente y otras 13 estuvieron a punto».

Según Kurzweil, en 2035 conectaremos nuestros cerebros a la Nube. Y en 2045 podremos transferir nuestras mentes a un ordenador. De cumplirse la predicción, habremos asumido que los seres humanos solo somos máquinas, y que seremos capaces de actualizar nuestro hardware y nuestro software a voluntad. Y lo más importante: desde un punto de vista filosófico, quizás nos plantearemos que desconectar a HAL pueda ser equivalente a asesinar una persona.

El Proyecto Cerebro Humano está intentando simular el conjunto de las neuronas de un cerebro, así como sus billones de conexiones. El Proyecto Conectoma está mapeando todas las conexiones neuronales. Todo ello está allanado el camino del deep learning, el aprendizaje profundo, en el que los ordenadores imitan al máximo el cerebro humano. Kurzweil podría estar pecando de optimismo, pero sin duda aparecerá muy pronto algún ordenador cuyas capacidades nos volverán a asombrar, desplegando un tipo de inteligencia que acaso no sea humana, pero sí muy parecida a ella. Y llegados a ese punto nos preguntaremos si hay alguna diferencia entre ser e imitar.

Cada una de nuestras neuronas se comporta como un ordenador en sí mismo (y en un cerebro hay 100.000 millones), y además no dejan de cambiar en función del entorno. Todavía no sabemos recrear algo tan endiabladamente abstruso, pero la velocidad de computación permite fingir que sí. Cuando en 1966 nació ELIZA (en alusión a Eliza Doolittle, la violetera analfabeta que aprende a hablar inglés culto en Pigmalión gracias a la tutela del profesor Henry Higgins) no importaba tanto que fuera una imitación como el apego emocional que era capaz de suscitar en su interlocutor. ELIZA solo era un bot de chat bastante simple programado por Joseph Weizenbaum, que se inspiraba en el discurso de un psicoterapeuta seguidor de Carl Rogers, pero mucha gente prefería ELIZA a un psicoterapeuta humano; y, de hecho, la secretaria de Weizenbaum montó en cólera cuando descubrió que éste tenía acceso a los registros de sus conversaciones con ELIZA. Con Siri (de Apple) y Cortana (de Microsoft) la línea que separa el pensamiento humano del artificial se está difuminando de facto, aunque técnicamente podamos aducir nuestras reservas.

Her – IMDb

Póster de «Her»
Fuente: voyage / fromchive.lofter.com

Podemos disfrutar hablando con simulaciones y sentir que nos comprenden aunque no sea realmente así, como ha referido la profesora del MIT Sherry Turkle frente a las interacciones humanas con Kismet, un robot humanoide de grandes ojos que vive en un laboratorio del MIT. Como abunda en ello Thomas P. Keenan, profesor de Ciencias Computacionales de la Universidad de Calgary, en su libro Tecnosiniestro: «En realidad no importa que las máquinas nos “entiendan” de verdad; a veces los humanos tampoco nos entienden. Es posible que Google Search y Gmail no comprendan íntegramente tu personalidad de la misma manera que tu pareja, pero sí te conocen de una manera distinta». En definitiva, todos podríamos enamorarnos como lo hace el protagonista de la película Her, aun sabiendo que ella solo es un conjunto de algoritmos. El misántropo de Schopenhauer lo describió elocuentemente en su tesis Sobre la cuádruple raíz del principio de razón suficiente: «A veces hablo con los hombres como el niño con sus muñecos; aun sabiendo que los muñecos no pueden comprender, mediante un grato autoengaño metódico se logra el gozo de la comunicación».

No obstante, ésta es tan solo una de tantas preocupaciones que afloran en un contexto de crecimiento exponencial tecnológico. A medida que los ordenadores igualen o incluso superen muchas de las destrezas humanas, emplearemos estos dispositivos en nuestros propios cerebros a través de neuroprótesis. Nanorobots recorrerán nuestro cuerpo para mantenerlo saludable y permitir que vivamos, si no eternamente, al menos alcanzando una longevidad matusalénica. Obtendremos órganos personalizados mediante impresoras 3D. CRISPR/Cas9 abonará el terreno para diseñar humanos a la carta. Todos ellos son los primeros pasos que nos encaminan hacia la era del transhumanismo, en cuyos pilares NBIC (nanotecnología, biotecnología, tecnologías de la información y ciencia cognitiva) se sustentan ya organismos como The World Transhumanist Association o Extropy Institute.

c:\> ¿Qué significa ser humano?

Se cumplan o no las predicciones de Kurzweil, la mayoría de nosotros tendrá la posibilidad de enfrentarse a un gran número de estas innovaciones, y por tanto constituyen una preocupación nuclear para muchos expertos. Por ejemplo, Stephen Hawking, Elon Musk (fundador de Tesla y SpaceX) y otros mil científicos ya han firmado su rechazo a desarrollar inteligencia artificial avanzada. Francis Fukuyama, miembro del Consejo Presidencial de Bioética de Estados Unidos, ha publicado un libro y diversos artículos a propósito de los peligros de la revolución biotecnológica que se avecina y el transhumanismo al que parecemos abocados.

Otros expertos, por el contrario, conducen sus argumentos por terrenos menos distópicos, y sostienen que debemos cruzar el Rubicón hacia el transhumanismo lo antes posible.

Lo cierto es que ambas posturas son necesarias, y la tensión entre las dos probablemente enriquecerá el debate más importante al que debe enfrentarse la humanidad respecto a su futuro como especie, así que vamos a explorarlas en mayor profundidad.

c:\> DELETE Transhumanismo

La creación de una IA superior o la posibilidad de realizar copias exactas de nuestro cerebro (ya sea para verterlas en ordenadores como en otros cuerpos más jóvenes) no solo implica cierto grado de sacrilegio por parte de algunas personas, sino que, por sí mismos, son actos que ponen en entredicho la definición de humanidad y plantean espinosos problemas bioéticos y legales, así como epistemológicos, ontológicos y hasta estéticos. Tal y como describe el novelista de ciencia ficción hard Greg Egan en Un secuestro, uno de los cuentos incluidos en la antología Axiomático, vivir en forma de bits en vez de en forma de átomos podría hacernos dudar de si algún día estuvimos vivos realmente.

Sin irnos tan lejos, en un mundo donde dispondremos de herramientas que exceden todas nuestras capacidades, incluidas las intelectuales, ¿qué razón habrá para no prescindir de la humanidad? ¿Hasta qué punto el error, la ignorancia, la ineficacia y el caos son necesarios en un contexto en el que el orden lógico es perfectamente alcanzable? El investigador sobre tecnología Evgeny Morozov es un gran defensor de la idea de evitar la virtud edénica que ofrecen estos avances en su libro La locura del solucionismo tecnológico:

La ignorancia puede ser peligrosa, pero también puede serlo la omnisciencia: por algo hay universidades que mantienen sus procesos de admisiones “ciegas”, en el que no se tiene en cuenta la condición económica de los postulantes. La ambivalencia puede ser contraproducente, pero también puede serlo la certeza: si todos nuestros amigos dijeran lo que de veras piensan, quizá no volveríamos a hablarles. La eficacia puede ser útil, pero la ineficacia también: si todo fuera eficaz, ¿quién se tomaría el trabajo de innovar?

En uno de los mejores capítulos de la serie de televisión Black Mirror, el tercero de la primera temporada, la gente se ha implantado un chip que registra toda su vida y, eventualmente, puede ser proyectada a los demás como si de una película se tratara. Tras una escalada armamentística de celos conyugales, el protagonista advierte que saber toda la verdad acerca de los sentimientos de su esposa no es lo más deseable. La tecnología, sin embargo, está encaminándonos hacia la memoria eidética, en la que nada se olvidará, todo se arrastrará, como le sucede al borgeano Funes el memorioso. O a Gordon Bell.

Bell, ingeniero de alto rango en Microsoft, empezó a finales de los años 1990 a usar una pequeña cámara negra del tamaño de un paquete de cigarrillos llamada SenseCam, que toma una fotografía cada veinte segundos. Es decir, que Bell almacena un total de 3.000 fotografías diarias teniendo en cuenta que pasa dieciséis horas despierto. Bell describe con entusiasmo su proyecto de lifelogging (bitácora de vida) en Your Life, Uploaded, considerándolo una especie de un autoanálisis enriquecido, la capacidad de revivir la propia vida con mayor grado de detalle que las magdalenas de Proust. En poco tiempo, todos podríamos disponer de un gadget similar que lo registrara absolutamente todo.

Lo que Bell parece pasar por alto es que no siempre queremos recordar, ni que nos recuerden, y que los recuerdos no son tampoco un registro exacto del pasado, sino una construcción narrativa propiciada por la forma en que nuestro cerebro almacena los datos. En ese sentido, los recuerdos funcionan más como forma de autodefinición emocional que como vínculo a la verdad de los hechos. Por esa razón, por ejemplo, los testigos tienen un peso muy relativo en un tribunal de justicia.

Faye Wong en «2046» de Wong Kar-wai

Christopher Doyle & Pung-Leung Kwan
Faye Wong en «2046»

A todo ello se suma que, en muchos ámbitos, ni siquiera existe un consenso sobre lo que significa ser acertado, sabio, eficaz y hasta saludable, como ya puso de relevancia el crítico social Ivan Illich en Némesis médica al cuestionar las sociedades medicalizadas:

Cada civilización define sus propias enfermedades. Lo que en una es enfermedad, en otra puede ser anormalidad cromosómica, crimen, santidad o pecado. Cada cultura crea su propia respuesta a la enfermedad. Por el mismo síntoma de robo compulsivo uno puede ser ejecutado, tratado hasta la muerte, exiliado, hospitalizado, o socorrido con limosnas o dinero público.

Por ello, prescindir de ciertos avances tecnológicos no debería estar necesariamente asociado a una postura ludita. Esa lógica es perversa en tanto en cuanto podría emplearse, también, para cuestionar las estrictas regulaciones de los organismos manipulados genéticamente a fin de que se tornaran más laxas y, en consecuencia, presentaran más riesgos potenciales. Sin control ni precaución, la tecnología deriva en lo que el sociólogo Neil Postman llamó «tecnopolio»: una sociedad en la que la autorización y la satisfacción emanan exclusivamente de la tecnología.

Tal vez sea inevitable, en aras de sobrevivir a la escasez de recursos naturales o a la muerte de nuestro Sol, el acceder a mundos virtuales en los que el tiempo transcurre millones de veces más lento, obteniendo así un modo de pseudoinmortalidad. Evitar la extinción de la especie, pues, requiere de una solución tecnológica. Pero admitir que una solución tecnológica es inevitable no equivale a asumir que todas son buenas o malas por igual, aunque logremos cumplir el objetivo deseado con ellas. Si una tecnología nos arranca la humanidad para sobrevivir siendo otra cosa no humana, quizá la idea de desaparecer manteniendo la definición primigenia de humanidad no resulte tan suicida como se nos pudo antojar en un primer momento.

c:\> ENTER Transhumanismo

Por su parte, los adalides del transhumanismo defienden su postura aduciendo que la idea de ser humano es difusa e inconstante, y que su definición es en cierto punto arbitraria y, por tanto, se puede redefinir. Paralelamente, la desconfianza hacia el transhumanismo no se distingue en sus formas generales al miedo y la desconfianza que también suscitaron muchas otras tecnologías hoy ya superadas. Los transhumanistas, además, reconocen en su postura una ventaja superlativa: la capacidad de gobernar su propio destino, tal y como resume el escritor de ciencia ficción Greg Egan en su novela El instante Aleph:

Si las personas conocen las fuerzas biológicas que influyen sobre ellas y quienes las rodean, por lo menos tendrán la oportunidad de adoptar estrategias inteligentes para conseguir lo que quieren con un conflicto mínimo, en lugar de dar tumbos por ahí cargados de mitos románticos y buenas intenciones cortesía de algún filósofo político muerto.

Por ejemplo, frente a la idea de restringir la modificación de nuestro cuerpo en aras de mantener una suerte de pureza biológica se omite que el ser humano no es en modo alguno una entidad formada, sino un proceso evolutivo de 3500 millones de años, que dio inicio probablemente en una célula procariota que es el ancestro de todos los organismos vivos de la Tierra y que hemos bautizado como LUCA (Last Universal Common Ancestor). La especie humana solo constituye el 0,03% de la historia evolutiva.

Incluso el que parece la cúspide de la evolución, el Homo sapiens, está sometido a la evolución azarosa de sus antecesores. Solo en los últimos diez mil años, la evolución humana ha tenido lugar a un ritmo entre diez y cien veces más rápido que en cualquier otro momento de la historia, mucho antes del advenimiento de la biotecnología. En los últimos cinco mil años, nuestro cerebro ha encogido un 10%. En los últimos cien años, nuestros pies han aumentado cuatro números. Cada generación de seres humanos sufre 175 mutaciones (en la mayoría de casos solo es un cambio de una sola letra de un gen). Estas mutaciones naturales suelen ser completamente intrascendentes, pero en ocasiones producen cambios perceptibles: por ejemplo, el espectacular rendimiento físico del esquiador finés Eero Mäntyranta tenía su origen en una mutación genética que aumenta su producción de EPO, lo que permitía que el traslado de oxígeno en sangre fuera entre un 25 y un 50% mayor.

La propia naturaleza, en suma, está continuamente influyendo en nuestro genoma. ¿Por qué cambiarlo de forma artificial habría de suponer un problema? ¿Por qué habríamos de negarnos a usar terapias génicas no solo para curar enfermedades sino también para estimular el rendimiento físico y mental, tal y como sucede con Mäntyranta?

Si nos centramos en los sistemas que nos permitirán vivir otras realidades, volcar nuestros cerebros en entornos virtuales o incrementar nuestras capacidades cognitivas, ya llevamos miles de años usando tecnologías que controlan artificialmente nuestra experiencia sensorial, como explica el físico de la Universidad de Oxford David Deutsch en su libro La estructura de la realidad: «Incluso las pinturas rupestres prehistóricas proporcionaban al observador la falsa experiencia de ver unos animales que, en realidad, no estaban allí». El arte en general es un generador de simulación virtual de baja tecnología. La inquietud de ir un poco más allá de nuestra propia biología, pues, quizá parece inherente a cualquiera tecnología nueva, como las feelies, esas películas sensoriales que aparecían en Un mundo feliz de Aldous Huxley.

A grandes rasgos, de hecho, nuestras propias percepciones, moldeadas por millones de años de evolución darwiniana, no nos ofrecen una visión de la realidad, sino una suerte de mundo virtual que ya Descartes denunciaba en el siglo XVII cuando se refería al «demonio» que saboteaba nuestros sentidos. Y, en este caso, son precisamente algunas manifestaciones tecnológicas, como el microscopio o el espectrómetro de masas, las que nos permiten escudriñar la naturaleza de un modo más objetivo y completo.

Que estas prótesis tecnológicas pudieran mezclarse de tal modo con nuestras dotaciones de serie hasta el punto de que estas últimas desaparezcan o queden menoscabadas de algún modo tampoco parece una idea nueva. Actualmente se diagnostica que el abuso de entornos digitales o virtuales se presentan como fenómenos netamente deletéreos por parte de algunos investigadores, como Nicholas Carr, autor de Superficiales, que se encarga de denunciar que internet, y en particular los hipertextos, nos abocan a períodos de atención más cortos, lo que deriva en un aprendizaje más superficial de los asuntos complejos. Susan Greenfield, neurofarmacóloga de la Universidad de Oxford, todavía llega más lejos en su visión agorera del mundo digital, comparando el cambio mental que se está sufriendo con el cambio climático del planeta, según escribía en un artículo de la revista The Independent.

Pero alarmas similares se manifestaron en los albores de internet, la televisión, la radio, e incluso la imprenta. Cuando el científico suizo Conrad Gessner expresaba públicamente su inquietud por la sobrecarga de información en el mundo moderno, la llamada infoxicación, no se refería a internet, sino a la imprenta, allá por el año 1565. Sócrates incluso abominó de los libros como forma de transmisión de conocimiento, pues consideró que acarrearían efectos nocivos en nuestra memoria, tal y como hace ahora Carr y sus adláteres. Con la aparición de la radio se creyó que vendría aparejada la muerte de la conversación. Con la aparición del teléfono, la desaparición de la intimidad. Con la aparición de la televisión, la destrucción de la prensa escrita. Estas reservas, pues, son constantes, porque toda nueva tecnología invoca el Unheimlich, término alemán que literalmente puede traducirse como «lo que es contrario a lo que nos resulta familiar».

El uso de nuevas tecnologías, como la tablet o el smartphone, sin duda están recableando nuestro cerebro, pero también lo hizo el libro, hasta el punto de que el cerebro de un analfabeto es anatómicamente diferente al de un lector. Hilando fino, cualquier actividad recablea nuestro cerebro, como explica el psicólogo cognitivo Tom Stafford: sí, internet está recableando nuestro cerebro, pero también lo hace el ver la televisión o el tomar una taza de té.

La cuestión reside en dilucidar si este reacableado es bueno o malo, y justo antes deberemos, también, determinar qué significa bueno o malo, es decir, cuáles son nuestros objetivos tanto individuales como colectivos. Por ejemplo, los libros, e internet, pueden haber perjudicado nuestra memoria, pero también han optimizado nuestra capacidad de procesar información abstracta y ha favorecido la posibilidad de que la gente pueda mantenerse debidamente informada. Un estudio publicado en PloS ONE y realizado con miles de individuos durante ocho años sugirió que la probabilidad de sufrir demencia se redujo en quienes usaban más el ordenador. En otro estudio también con miles de personas de entre 32 y 84 años, quienes usaban más el ordenador también tendían a obtener una puntuación más alta en los ejercicios que implicaban cambios de tarea.

En un mundo donde hay millones de dispositivos que se usan para guardar nuestra memoria, tal vez ya no es tan importante recordarlo todo. Y tal vez acceder a la verdad, incluso a lo que piensan sinceramente de nosotros, causará traumas y fricciones sociales, pero finalmente todo ello desembocará en una concordia mucho más sosegada: nos relacionaremos con las personas que de verdad nos gustan y a las que gustamos, sabremos que la hipocresía no será un lubricante para un contexto perfectamente fluido, tal y como defiende el filósofo y neurocientífico Sam Harris en su ensayo Lying. También concebiremos la privacidad como un escollo para obtener beneficios sociales mayores, tal y como explica el periodista e investigador Jeff Jarvis en su libro Partes públicas, ampliando más que nunca nuestros círculos de empatía.

Fotografía de «Eva» dirigida por Kike Maillo

Arnau Valls Colomer
Fotograma de «Eva»
Fuente: Sensacine

Cuando tratamos de juzgar los efectos de una nueva tecnología, pues, a menudo pasamos por alto el análisis del contexto futuro donde prosperará esta nueva tecnología. El problema es que resulta muy difícil imaginar el contexto futuro, como les sucedía a los luditas que boicoteaban los telares mecánicos del siglo XIX. Porque la tecnología no es algo que aparece en un contexto, sino que mezcla y altera el contexto, como ocurre en una simbiosis mutualista. El historiador de la tecnología Chris Otter lo resume así: los valores victorianos como la puntualidad, la pulcritud y la atención fueron efectos colaterales de la creación de relojes precisos, agua corriente y gafas. El descubrimiento del mismo fuego transformó radicalmente al ser humano: Richard Wrangham, de la Universidad de Harvard, sostiene que cocinar los alimentos pudo haber disparado el aumento de la capacidad cerebral al permitir que los carbohidratos complejos de alimentos con almidones fueran más fácilmente digeribles.

La definición de humanidad no es unívoca, sino miriónima y profundamente flexible; dependiente de un contexto que, además, cambia y se adapta en función de la tecnología. Por ello, en puridad, todo se reduce a establecer líneas: esto es humano, esto no lo es. Líneas mayormente arbitrarias que deberán trazarse en función de nuestros sentimientos, la disquisición filosófica y legal, el folclore, los datos arrojados por las ciencias naturales y otros factores que se imbrican en una impenetrable jungla lógica.

Para el transhumanismo, por tanto, no importa demasiado identificar definitivamente al humano o el Yo, que se convierte así en el buque de Teseo que Plutarco describía en Vidas paralelas: si las partes del barco se reemplazan por otras más nuevas, ¿cuándo deja de ser el mismo barco? Desde el punto de vista de un microscopio, el barco dejaría de ser él mismo en pocos años aunque nunca le reemplazáramos sus partes. Desde la óptica transhumanista, todas son líneas imaginarias basadas en algunos datos objetivos escogidos discrecionalmente. El propio Kurzweil se atreve a pronosticar, en La era de las máquinas espirituales, que en el año 2099 los seres individuales se mezclarán y separarán constantemente, haciendo imposible determinar cuántas «personas» hay en la Tierra. Esta habilidad para unir mentes individuales en mentes colectivas diluirá la definición de identidad.

Naturalmente, podemos establecer líneas rojas (o diagramas de Venn, en el escenario descrito por Kurzweil), líneas que eventualmente nunca pasaremos por mor de mantener incólumes los principios más sólidos de nuestro sistema de valores. Y podemos porque las líneas también pueden ser pisadas e incluso sobrepasadas, aunque sean rojas, porque éstas no son muros ni barricadas. Si lo fueran, entonces estaríamos dando por sentado que lo sabemos todo sobre todo, que sabemos lo que hay más allá del horizonte. Un exceso de omnisciencia semejante a la desplegada por la máxima aristotélica de que la sabiduría se encuentra en el punto medio, evidenciando así que no solo conocemos el final de ambos extremos y que éstos son realmente el extremo (en el sentido de que no hay más allá), sino que conocemos el punto equidistante entre los mismos, como si las ideas pudieran medirse con una regla graduada.

Con muros y barricadas, jamás hubiéramos abandonado la acogedora temperatura uterina de la cueva de Platón. Por ello, como explica Gary Marcus en su libro Kluge, es necesario establecer verdades sagradas que siempre puedan ser sometidas a revisión, y muchas de las rarezas de nuestra cognición propician cosas bellas como la poesía, pero también el egocentrismo, los estereotipos o la paranoia: «Aceptar todo lo que es inherente a nuestra composición biológica sería someterse a una versión de la “falacia naturalista”, confundiendo lo que es natural con lo que es bueno».

Lo relevante desde el punto de vista del transhumanismo o el posthumanismo es determinar hacia dónde queremos ir y cuáles son los homéricos finisterres que deseamos alcanzar. Las líneas rojas solo nos informarán de que debemos andar con extrema precaución, como si pisáramos un campo jalonado de minas, pero jamás nos deberían arredrar a la hora de descubrir qué hay más allá, como los exploradores que siempre hemos sido. No deberíamos asumir por defecto que la vida de HAL/IBM9000 se extinguiera para siempre con esas postreras palabras fidedignas/simuladas «Detente, Dave». Tal vez podríamos esperar un poco más antes de desconectarlo/asesinarlo como lo hizo el astronauta Dave Bowman, y comprobar qué sucede, monolito mediante, mientras atrona Also Sprach Zarathustra.

Bibliografía consultada

Alain de Botton, Las consolaciones de la filosofía, traducción de Pablo Hermida, Madrid, Santillana, 2006.

David Deutsch, La estructura de la realidad, traducción de David Sempau, Barcelona, Anagrama, 1999.

Evgeny Morozov, La locura del solucionismo tecnológico, traducción de Nancy Viviana, Madrid, Katz, 2015.

Gary Marcus, Kluge, traducción de Carlos Milla, Madrid, Ariel, 2010.

Greg Egan, Axiomático, traducción de Pedro Jorge Romero, Granada, Ajec, 2003.

Greg Egan, El instante Aleph, traducción de Adela Ibañez, Barcelona, Gigamesh, 2000.

Ivan Illich, Némesis médica, traducción de Carlos Godard Buen Abad, Barcelona, Barral, 1975.

Jeff Jarvis, Partes públicas, traducción de Adela Padín, Madrid, Gestión 2000, 2012.

Juan Scaliter, Exploradores del futuro, Barcelona, Debate, 2014.

Nicholas Carr, Superficiales, traducción de Pedro Cifuentes, Madrid, Taurus, 2011.

Peter H. Diamandis, Abundancia, traducción de Ricardo Artola, Barcelona, Antoni Bosch, 2013.

Ray Kurzweil, La singularidad está cerca, traducción de Carlos García Hernández, Barcelona, Lola Books, 2012.

Thomas P. Keenan, Tecnosiniestro, traducción de Albert Fuentes, Santa Cruz de Tenerife, Melusina, 2015.

Walter Isaacson, Los innovadores, traducción de Inga Pellisa Díaz, Barcelona, Debate, 2014.