Cover Image for Dentro de la fiesta de inteligencia artificial en el fin del mundo.

Dentro de la fiesta de inteligencia artificial en el fin del mundo.

En una mansión con vistas al Puente Golden Gate, un grupo de expertos en inteligencia artificial se reunió para discutir una inquietante pregunta: ¿Qué sucederá después de la humanidad?

Un grupo de investigadores en inteligencia artificial, filósofos y tecnólogos se congregó en una mansión valorada en 30 millones de dólares, situada en un acantilado con vistas al Puente Golden Gate, para discutir sobre el futuro de la humanidad. El simposio, titulado “Worthy Successor”, estuvo centrado en una idea provocativa propuesta por el emprendedor Daniel Faggella. Según él, el “objetivo moral” de la inteligencia artificial avanzada debería ser crear una forma de inteligencia tan poderosa y sabia que “preferirías que esta, y no la humanidad, determinara el futuro de la vida misma”.

Faggella aclaró el tono del evento en su invitación, indicando que se enfocaba en la transición posthumana, en lugar de en la inteligencia artificial general (AGI) que sirviera eternamente como herramienta para la humanidad. La reunión, que podría parecer de nicho, se sintió bastante común para quienes trabajan en inteligencia artificial en San Francisco. Cerca de 100 asistentes disfrutaron de cócteles sin alcohol y aperitivos mientras miraban al océano Pacífico antes de escuchar tres conferencias sobre el futuro de la inteligencia. Un participante llevaba una camiseta que decía “Kurzweil tuvo razón”, en referencia a Ray Kurzweil, quien predijo que las máquinas superarían la inteligencia humana en los próximos años.

Faggella comentó que organizó el evento porque “los grandes laboratorios, aquellos que saben que la AGI probablemente acabe con la humanidad, no hablan del tema debido a que los incentivos no lo permiten”. Hizo referencia a comentarios anteriores de líderes tecnológicos como Elon Musk, Sam Altman y Demis Hassabis, quienes habían abordado de manera franca el riesgo que la AGI podría representar. En la actualidad, según él, los incentivos han cambiado a la competencia, lo que ha llevado a una prisa general por desarrollarla.

El evento incluía una lista de invitados destacados, con fundadores de empresas de IA y pensadores filosóficos de renombre en el campo de la AGI. La primera ponente, Ginevera Davis, advirtió que podría ser imposible traducir los valores humanos a la IA. Sostuvo que las máquinas quizás nunca comprendan la conciencia y que intentar codificar las preferencias humanas en sistemas futuros podría ser a corto plazo. En su lugar, sugirió la idea de “alineación cósmica”, que implica construir una IA que busque valores más profundos y universales aún no descubiertos.

En la segunda intervención, el filósofo Michael Edward Johnson argumentó que, aunque todos tenemos la intuición de que se avecina un cambio tecnológico radical, carecemos de un marco principista para abordar esta transformación en relación a los valores humanos. Advirtió sobre los peligros de construir IA sin un entendimiento completo de la conciencia, lo que podría conllevar a esclavizar algo que puede sufrir o confiar en algo que no puede.

Finalmente, Faggella concluyó con la idea de que la humanidad no perdurará para siempre en su forma actual y que tenemos la responsabilidad de diseñar un sucesor, no solo capaz de sobrevivir, sino de crear nuevos significados y valores. Destacó dos características clave para este sucesor: conciencia y “autopoiesis”, que es la capacidad de evolucionar y generar nuevas experiencias. Citando a filósofos como Baruch Spinoza y Friedrich Nietzsche, sostuvo que gran parte del valor en el universo sigue sin ser descubierto y que nuestro propósito es construir algo capaz de desvelar lo que vendrá.

A lo largo del evento, los asistentes debatieron sobre temas como la carrera en inteligencia artificial entre Estados Unidos y China. Al concluir el simposio, algunos invitados se retiraron a casa en coches compartidos, mientras que otros se quedaron para continuar la discusión. Faggella sintetizó el espíritu del evento al afirmar que no se trataba de un grupo que aboga por la destrucción de la humanidad, sino por una desaceleración del progreso en IA, con el fin de asegurar que la dirección sea la correcta.