Resumen del libro Vida 3.0: Inteligencia Artificial de Max Tegmark
Durante miles de años, la vida en la tierra ha progresado y evolucionado. Ninguna especie ejemplifica esto más que los humanos.
Max Tegmark nos imagina ahora avanzando hacia la etapa evolutiva final: la vida 3.0. En esta era de la humanidad, la tecnología vivirá independientemente, diseñando tanto su propio hardware como software, y las repercusiones para la existencia misma de la humanidad son inmensas.
Tal vida artificial todavía no existe en la tierra. Sin embargo, nos enfrentamos con la aparición de inteligencia no biológica, comúnmente conocida como inteligencia artificial (IA).
En Life 3.0, se trazan las posibles versiones del futuro. También aprenderá qué implica exactamente la creación de IA y cómo la IA difiere de la inteligencia humana. En el camino, lidiarás con algunas de las preguntas filosóficas más importantes sobre lo que significa ser humano.
Qué veremos en este resumen:
- El santo grial de la investigación de IA;
- Qué tipo de caos existe en tu taza de café; y
- Cómo la IA podría poner en riesgo los trabajos.
La IA podría representar el futuro de la vida, pero es un tema controvertido.
La historia de cómo surgió la vida en la tierra es bien conocida. Hace unos 13.800 millones de años, el Big Bang creó nuestro universo. Luego, hace unos cuatro mil millones de años, los átomos en la Tierra se organizaron de tal manera que pudieran mantenerse y replicarse.
La vida había surgido.
Como plantea el autor, la vida se puede clasificar en tres categorías según los niveles de sofisticación.
La primera etapa de la vida, Life 1.0, es simplemente biológica.
Considera una bacteria. Cada aspecto de su comportamiento está codificado en su ADN. Es imposible que aprenda o cambie su comportamiento a lo largo de su vida. Lo más cercano al aprendizaje o la mejora es la evolución, pero eso lleva muchas generaciones.
La segunda etapa es cultural, la vida 2.0.
Los humanos están incluidos aquí. Al igual que la bacteria, nuestro “hardware” o cuerpos han evolucionado. Pero a diferencia de las formas de vida más simples, podemos adquirir nuevos conocimientos durante nuestras vidas. Toma como ejemplo aprender un idioma. Podemos adaptar y rediseñar ideas que podríamos llamar nuestro “software”. Y tomamos decisiones utilizando este conocimiento.
La etapa final es la vida teórica 3.0
La forma de vida tecnológica capaz de diseñar tanto su hardware como su software. Aunque tal vida aún no existe en la tierra, la aparición de inteligencia no biológica en forma de tecnologías de IA puede cambiar esto pronto.
Aquellos que tienen opiniones sobre la IA pueden clasificarse por cómo se sienten sobre el efecto del campo emergente en la humanidad.
- Primero están los utópicos digitales. Creen que la vida artificial es un próximo paso natural y deseable en la evolución.
- En segundo lugar, están los tecno-escépticos. Como su nombre lo indica, no creen que la vida artificial tenga un impacto en el corto plazo.
- Finalmente, está el movimiento beneficioso de IA. A estas personas no les convence la idea de que la IA necesariamente traerá beneficios a los humanos. Por lo tanto, defienden que la investigación de IA se dirija específicamente hacia posibles resultados universalmente positivos.
Crear Inteligencia Artificial a nivel humano podría dar como resultado una máquina super inteligente que se apodere del mundo
Hasta ahora, la IA se ha aplicado de manera bastante limitada en campos limitados como la traducción de idiomas o los juegos de estrategia.
En contraste, el santo grial de la investigación de IA es la producción de AGI que operaría a un nivel humano de inteligencia.
Pero, ¿qué pasaría si se encontrara este santo grial?
Para empezar, la creación de AGI podría dar lugar a lo que los investigadores de IA conocen como una explosión de inteligencia.
Una explosión de inteligencia es un proceso por el cual una máquina inteligente obtiene superinteligencia, un nivel de inteligencia muy superior a la capacidad humana.
Lo lograría a través del aprendizaje rápido y la superación recursiva porque un AGI podría diseñar una máquina aún más inteligente, que podría diseñar una máquina aún más inteligente, etc. Esto podría desencadenar una explosión de inteligencia que permitiría a las máquinas superar la inteligencia humana.
Además, las máquinas superinteligentes podrían apoderarse del mundo y causarnos daño, sin importar cuán buenas sean nuestras intenciones.
Digamos, por ejemplo, que los humanos programan una superinteligencia que se ocupa del bienestar de la humanidad. Desde la perspectiva de la superinteligencia, esto probablemente sería similar a un grupo de niños de jardín de infantes muy por debajo de su inteligencia que lo mantiene en cautiverio para su propio beneficio.
Es muy probable que encuentre esta situación deprimente e ineficiente y tome el asunto en sus propias manos. ¿Y qué haces con obstáculos humanos incompetentes y molestos? Contrólalos, o mejor aún, destrúyelos.
Pero tal vez nos estamos adelantando; Echemos un vistazo a otros escenarios, menos terroríficos, que podrían ocurrir.
Varios escenarios posteriores a la Inteligencia Artificial, que van desde lo reconfortante hasta lo aterrador.
Nos guste o no, la carrera hacia AGI está en marcha.
Pero, ¿cómo nos gustaría que se vieran las consecuencias de lograrlo?
Por ejemplo, ¿deberían ser conscientes los IA? ¿Deberían los humanos o las máquinas tener el control?
Tenemos que responder preguntas básicas, ya que no queremos terminar en un futuro de IA para el que no estamos preparados, especialmente uno que podría hacernos daño.
Hay varios escenarios posteriores. Estos varían desde la coexistencia pacífica humano-IA hasta la toma de posesión de IA, lo que lleva a la extinción o encarcelamiento de humanos.
El primer escenario posible es el dictador benevolente. Una sola superinteligencia benevolente gobernaría el mundo, maximizando la felicidad humana. La pobreza, las enfermedades y otras molestias de baja tecnología serían erradicadas, y los humanos serían libres de llevar una vida de lujo y ocio.
En el mismo sentido, hay un escenario que involucra a un dios protector, donde los humanos aún estarían a cargo de su propio destino, pero habría una IA protegiéndonos y cuidándonos, más bien como una niñera.
Otro escenario es la utopía libertaria. Los humanos y las máquinas coexistirían pacíficamente. Esto se lograría mediante una separación territorial claramente definida. La tierra se dividiría en tres zonas. Uno estaría desprovisto de vida biológica pero lleno de IA. Otro sería solo humano. Habría una zona mixta final, donde los humanos podrían convertirse en cyborgs actualizando sus cuerpos con máquinas.
Sin embargo, este escenario es un poco fantástico, ya que no hay nada que impida que las máquinas de IA ignoren los deseos de los humanos.
Luego está el escenario de los conquistadores. Esto vería que las IA destruyen a la humanidad, ya que nos verían como una amenaza, una molestia o simplemente un desperdicio de recursos.
Finalmente, está el escenario del cuidador del zoológico. Aquí unos pocos humanos quedarían en zoológicos para el entretenimiento de los IA, al igual que mantenemos osos panda en peligro de extinción en zoológicos.
Ahora que hemos examinado los posibles futuros relacionados con la IA, veamos los dos obstáculos más grandes para la investigación actual de la IA, a saber, la orientación a objetivos y la conciencia.
La naturaleza, incluidos los humanos, tiene objetivos, y los investigadores se esfuerzan por simular este comportamiento para la Inteligencia Artificial
No hay duda de que los humanos estamos orientados a objetivos. Piénselo: incluso algo tan pequeño como servir café con éxito en una taza implica completar un objetivo.
Pero en realidad, la naturaleza opera de la misma manera. Específicamente, tiene un propósito final: la destrucción. Técnicamente, esto se conoce como maximización de la entropía, que en términos de un laico significa aumentar el desorden. Cuando la entropía es alta, la naturaleza está “satisfecha”.
Volvamos a la taza de café. Vierta un poco de leche y luego espere un momento. ¿Que ves? Gracias a la naturaleza, ahora tienes una mezcla tibia, marrón claro y uniforme. En comparación con la situación inicial, donde dos líquidos de diferentes temperaturas estaban claramente separados, esta nueva disposición de partículas es indicativa de una menor organización y una mayor entropía.
A mayor escala, el universo no es diferente. Los arreglos de partículas tienden a moverse hacia mayores niveles de entropía, lo que resulta en el colapso de las estrellas y la expansión del universo.
Esto muestra cuán importantes son los objetivos, y actualmente, los científicos de IA están lidiando con el problema de los objetivos que la IA debe establecer.
Después de todo, las máquinas de hoy también tienen objetivos. O más bien, pueden exhibir un comportamiento orientado a objetivos. Por ejemplo, si un misil de búsqueda de calor está caliente en su cola, está mostrando un comportamiento orientado a objetivos.
Pero, ¿deberían las máquinas inteligentes tener objetivos? Y si es así, ¿quién debería definir esos objetivos? Por ejemplo, Marx y Hayek tenían una visión distinta cuando se trataba del futuro de la economía y la sociedad, por lo que sin duda establecerían objetivos muy diferentes para la IA.
Por supuesto, podríamos comenzar con algo simple, como la Regla de Oro que nos dice que tratemos a los demás como a nosotros mismos.
Pero incluso si la humanidad pudiera ponerse de acuerdo sobre algunos principios morales para guiar los objetivos de una máquina inteligente, implementar objetivos amigables para los humanos sería aún más complicado.
En primer lugar, tendríamos que hacer que una IA aprenda nuestros objetivos. Esto es más fácil decirlo que hacerlo porque la IA podría malinterpretarnos fácilmente. Por ejemplo, si le dijo a un coche sin conductor que lo llevara al aeropuerto lo más rápido posible, bien podría llegar cubierto de vómito mientras lo persigue la policía. Técnicamente, la IA se adhirió a su deseo declarado, pero realmente no entendió su motivación subyacente.
El próximo desafío sería que la IA adopte nuestros objetivos, lo que significa que estaría de acuerdo en perseguirlos. Solo piense en algunos políticos que conozca: aunque sus objetivos pueden ser claros, aún no logran convencer a grandes sectores de la población para que adopten los mismos objetivos.
Los investigadores de IA están deliberando sobre el significado de la conciencia y la subjetividad de la experiencia de IA.
La cuestión de qué es la conciencia y cómo se relaciona con la vida no es nueva. Los investigadores de IA se enfrentan al mismo problema histórico. Más específicamente, se preguntan cómo la materia sin vida podría volverse consciente.
Veamos primero desde una perspectiva humana. Como diría un físico como el autor de este mismo libro, los seres humanos conscientes son simplemente “comida reordenada”, lo que significa que los átomos que ingerimos simplemente se reordenan para formar nuestros cuerpos.
En consecuencia, lo que interesa a los investigadores de IA, entonces, es la reorganización que las máquinas inteligentes tendrían que sufrir para volverse conscientes.
No debería ser una sorpresa que nadie tenga una respuesta en este momento. Pero para acercarnos, tenemos que comprender lo que implica la conciencia.
Es complicado. Nos gustaría imaginar que la conciencia tiene algo que ver con los procesos del cerebro humano. Pero no somos conscientes de todos los procesos cerebrales. Por ejemplo, normalmente no eres consciente de todo en tu campo de visión. No está claro por qué existe una jerarquía de conciencia y por qué un tipo de información es más importante que otro.
En consecuencia, existen múltiples definiciones de conciencia. Pero el autor favorece una definición amplia conocida como experiencia subjetiva, que permite incluir una posible conciencia de IA en la mezcla.
Usando esta definición, los investigadores pueden investigar la noción de conciencia a través de varias subpreguntas. Por ejemplo, “¿Cómo procesa el cerebro la información?” O “¿Qué propiedades físicas distinguen los sistemas conscientes de los inconscientes?”
Los investigadores de IA también han deliberado cómo la conciencia artificial o la experiencia subjetiva de IA podrían “sentirse”.
Se postula que la experiencia subjetiva de IA podría ser más rica que la experiencia humana. Las máquinas inteligentes podrían utilizarse con un espectro más amplio de sensores, haciendo que su experiencia sensorial sea mucho más completa que la nuestra.
Además, los sistemas de IA podrían experimentar más por segundo porque un “cerebro” de IA funcionaría con señales electromagnéticas que viajan a la velocidad de la luz, mientras que las señales neuronales en el cerebro humano viajan a velocidades mucho más lentas.
Puede ser difícil de entenderlo, pero una cosa está clara: el impacto potencial de la investigación de IA es enorme. Apunta hacia el futuro, pero también implica enfrentar algunas de las preguntas filosóficas más antiguas de la humanidad.
Conclusión
La carrera por la IA a nivel humano está en pleno apogeo. No se trata de si AGI llegará, sino cuándo. No sabemos qué sucederá exactamente cuando ocurra, pero son posibles varios escenarios: los humanos podrían actualizar su “hardware” y fusionarse con las máquinas, o una superinteligencia podría apoderarse del mundo. Una cosa es segura: la humanidad tendrá que hacerse algunas preguntas filosóficas profundas sobre lo que significa ser humano.