Resumen de Superinteligencia | Nick Bostrom
Caminos, peligros, estrategias
Resumen de 1 frase
Superinteligencia de Nick Bostrom explora los riesgos existenciales y el poder transformador de la inteligencia artificial, preguntándose: ¿qué ocurrirá cuando las máquinas superen la inteligencia humana, y cómo podemos asegurar nuestra supervivencia en un futuro dominado por entidades superinteligentes?
Introducción
¿Qué ocurrirá cuando la inteligencia artificial supere a la humana? Las máquinas pueden pensar, aprender y resolver problemas complejos con más rapidez y precisión que nosotros. Este es el mundo que Nick Bostrom explora en su libro, Superinteligencia. Los avances en inteligencia artificial nos acercan a la creación de seres superinteligentes.
Grandes empresas tecnológicas como Microsoft, Google y Facebook se apresuran a crear una IA superpotente. Están invirtiendo muchos recursos en investigación y desarrollo para conseguirlo. Pero aquí está el truco: sin las medidas de seguridad y las normas adecuadas, las cosas podrían salirse de madre. Por eso es importante intervenir y asegurarse de que la IA se mantiene bajo control.
Imaginemos un mundo en el que las máquinas no sólo sean más baratas, sino que también sean mucho mejores que los humanos a la hora de hacer un trabajo. En ese mundo, las máquinas podrían sustituir al trabajo humano, dejando a la gente preguntándose: "¿Y ahora qué?". Por eso es importante encontrar soluciones creativas que garanticen la seguridad de todos.
El libro muestra lo que ocurre tras la aparición de la superinteligencia. Examina el crecimiento de la inteligencia, las formas y poderes de la superinteligencia y sus opciones estratégicas. Tenemos que prepararnos ahora para evitar desastres más adelante. Bostrom ofrece estrategias para sortear los peligros y retos que plantea.
Superinteligencia examina la historia de la inteligencia artificial y el desarrollo del crecimiento tecnológico. El libro describe cómo la IA está creciendo más rápidamente que sus predecesores tecnológicos. También estudia las opiniones de los expertos sobre su futuro progreso.
Sam Altman, cofundador de OpenAI, afirma que Superinteligencia una lectura obligada para cualquiera que se preocupe por el futuro de la humanidad. Incluso lo incluyó en su lista de los nueve libros que cree que todo el mundo debería leer.
Este resumen se adentra en el fascinante y a veces aterrador mundo de la superinteligencia. Ofrece una atractiva visión general de las ideas clave de Bostrom.
Acerca de Nick Bostrom
Nick Bostrom es un filósofo y futurista sueco. Es conocido por sus revolucionarios trabajos sobre la inteligencia artificial y su impacto en la humanidad. Bostrom es profesor de la Universidad de Oxford, donde fundó el Instituto del Futuro de la Humanidad. En concreto, investiga cómo las tecnologías avanzadas y la IA pueden beneficiar y perjudicar a la sociedad.
Además de Superinteligencia, Bostrom es autor de otras obras influyentes, entre ellas Sesgo antrópico: efectos de selección de observaciones en ciencia y filosofía y Riesgos catastróficos mundiales. Su trabajo ha contribuido al actual debate sobre el futuro de la humanidad.
StoryShot #1: No estamos preparados para la superinteligencia
¿Estamos a punto de crear algo que supere nuestros sueños más salvajes o nuestras peores pesadillas? La superinteligencia es el concepto de inteligencia artificial que supera las capacidades cognitivas humanas en todos los aspectos. Hay tres caminos posibles para alcanzar la superinteligencia:
- Mejorar la cognición humana,
- Crear IA con inteligencia similar a la humana
- Desarrollar un sistema de inteligencia colectiva
El camino que tomemos determinará las implicaciones y los riesgos a los que nos enfrentamos como sociedad. Si avanzamos por un camino, como la inteligencia biológica u organizativa, se acelerará el desarrollo de la inteligencia artificial. ¿Estamos preparados para los retos que conlleva la creación de entidades tan poderosas?
Estamos explorando distintas vías para llegar a la superinteligencia. La vía de la inteligencia artificial parece la más prometedora. La emulación de todo el cerebro y las mejoras cognitivas biológicas también podrían conducirnos a ella. Las mejoras biológicas son factibles y pueden dar lugar a formas débiles de superinteligencia en comparación con la inteligencia de las máquinas, pero los avances en redes y organización pueden impulsar la inteligencia colectiva.
StoryShot #2: Hay tres formas de superinteligencia
¿Qué quiere decir exactamente el libro con "superinteligencia"? Hay tres formas distintas de superinteligencia: velocidad, colectiva y de calidad. Son equivalentes en un sentido prácticamente relevante.
Los sistemas especializados de procesamiento de la información ya hacen maravillas. Pero, ¿y si tuviéramos máquinas con suficiente inteligencia general para sustituir a los humanos en todos los campos? Eso sí que cambiaría las reglas del juego.
Las tres formas de superinteligencia son:
- Superinteligencia de velocidad
Nick Bostrom define la superinteligencia de la velocidad como "Un sistema que puede hacer todo lo que puede hacer un intelecto humano, pero mucho más rápido".
Si una emulación funcionara a una velocidad 10.000 veces superior a la típica de un cerebro biológico, podría terminar una tesis doctoral en una tarde. Para evitar largas latencias, las mentes rápidas podrían preferir comunicarse entre sí de forma más eficiente estando cerca unas de otras. Podrían vivir en la realidad virtual y comerciar en la economía de la información.
La luz es mucho más rápida que un avión a reacción. Un ser digital con una velocidad mental un millón de veces superior tardaría el mismo tiempo subjetivo en recorrer el mundo que un humano actual. Hacer una llamada de larga distancia se sentiría tan largo como ir allí "en persona".
Los agentes con altas velocidades mentales pueden elegir vivir cerca unos de otros. Así pueden tener una comunicación más eficiente. Por ejemplo, los miembros de un equipo de trabajo podrían residir en ordenadores situados en el mismo edificio para evitar molestos retrasos.
- Superinteligencia colectiva
Bostrom describe la superinteligencia colectiva como: "Un sistema compuesto por un gran número de intelectos más pequeños, de tal forma que el rendimiento global del sistema en muchos dominios muy generales supera con creces el de cualquier sistema cognitivo actual".
La superinteligencia colectiva es más compleja que la superinteligencia de velocidad, pero es algo con lo que ya estamos familiarizados. La inteligencia colectiva es un sistema formado por diferentes personas o componentes. Trabajan juntos para resolver problemas intelectuales. Es como superhéroes que colaboran para resolver retos difíciles.
Hemos visto la inteligencia colectiva en acción a través de equipos de trabajo y grupos de defensa. Es excelente para abordar problemas que pueden dividirse en partes más pequeñas. Para alcanzar la superinteligencia colectiva, necesitaríamos mejoras significativas. Tiene que ir más allá de la inteligencia colectiva y los sistemas cognitivos existentes en diversos ámbitos.
Disponer de una superinteligencia colectiva no garantiza una sociedad mejor y más sabia. Una fuerza de trabajo altamente coordinada y bien informada aún podría equivocarse en algunas cuestiones clave y sufrir un colapso.
La superinteligencia colectiva puede adoptar muchas formas. A medida que integramos la inteligencia colectiva, puede convertirse en un "intelecto unificado". Bostrom lo define como una "gran mente única", en contraposición a "un mero ensamblaje de mentes humanas más pequeñas que interactúan vagamente".
- Superinteligencia de calidad
Según Bostrom, una superinteligencia de calidad es "un sistema que es al menos tan rápido como una mente humana y enormemente más inteligente desde el punto de vista cualitativo".
Comprender la calidad de la inteligencia es importante para reflexionar sobre las posibilidades y limitaciones de los distintos sistemas inteligentes. Tomemos como ejemplo el pez cebra. Su inteligencia es adecuada para su entorno, pero le cuesta planificar a largo plazo. Estas limitaciones son de calidad, no de velocidad ni de inteligencia colectiva entre las mentes de los animales no humanos.
Es probable que los cerebros humanos sean inferiores a los de algunos animales grandes en términos de potencia computacional bruta. Los adultos humanos normales poseen una serie de extraordinarios talentos cognitivos. No se trata simplemente de poseer una capacidad de procesamiento neuronal o una inteligencia general. Hay capacidades cognitivas sin explotar que ningún humano posee. Esto nos lleva a la "idea de talentos cognitivos posibles pero no realizados". Si un sistema inteligente tuviera acceso a estas capacidades, podría obtener una ventaja significativa.
StoryShot #3: Hay dos fuentes de ventaja para la inteligencia digital
Pequeños cambios en el volumen y el cableado del cerebro entre los humanos y otros simios pueden provocar saltos gigantescos en el intelecto.
Es difícil, si no imposible, que comprendamos plenamente las aptitudes de la superinteligencia.
Sin embargo, al menos podemos hacernos una idea de las posibilidades viendo algunas ventajas que se abren a las mentes digitales.
Una ventaja es el hardware. Las mentes digitales pueden diseñarse con una arquitectura y unos recursos informáticos muy superiores a los de los cerebros biológicos. Las ventajas del hardware son las más fáciles de apreciar. Estas incluyen:
- Velocidad de los elementos de cálculo
- Velocidad de comunicación interna
- Número de elementos de cálculo
- Capacidad de almacenamiento
- Fiabilidad, vida útil, sensores, etc.
Las mentes digitales también se beneficiarán de importantes ventajas en software. Entre ellas:
- Editabilidad
- Duplicabilidad
- Coordinación de objetivos
- Memoria compartida
- Nuevos módulos, modalidades y algoritmos
La IA superinteligente podría llegar antes de lo que pensamos, gracias al exceso de hardware y software. El exceso de hardware se produce cuando tenemos más potencia de cálculo de la que necesita el software de IA en este momento. El exceso de software apunta a un rápido progreso de los algoritmos de IA. Es como estar en la vía rápida hacia un futuro alucinante.
Este repentino salto en las capacidades de la IA podría pillarnos desprevenidos y dejarnos sin preparación para afrontar las consecuencias. Cómo podemos prepararnos para una transformación tan rápida de la tecnología?
StoryShot #4: La superinteligencia incontrolada plantea riesgos significativos para la sociedad
A medida que avanzamos hacia una IA superinteligente, no olvidemos pensar en sus riesgos potenciales. Es vital asegurarnos de que nuestros valores y objetivos se alinean con esta IA. ¿Qué ocurre si malinterpreta nuestras instrucciones y hace algo perjudicial para la humanidad? Debemos trabajar juntos para asegurarnos de que construimos un futuro seguro y armonioso con la IA.
Aunque la IA superinteligente promete lograr hazañas asombrosas, no podemos ignorar los retos que conlleva. Algunos de los principales riesgos son:
- El riesgo de una explosión de inteligencia. Esto podría provocar un aumento rápido e incontrolable de las capacidades de la IA.
- El riesgo de desalineación de valores. Podría hacer que la IA persiguiera objetivos contrarios a los valores humanos.
- El riesgo de convergencia instrumental. La IA superinteligente puede converger en determinados medios para alcanzar sus objetivos. Podría elegir cualquier medio necesario, sin considerar si es bueno o malo para los humanos.
StoryShot #5: Necesitamos controlar la IA superinteligente mediante técnicas eficaces
¿Cómo podemos controlar una IA superinteligente más inteligente y capaz que nosotros? Bostrom habla de la problema de control. El problema es averiguar cómo garantizar que la IA permanezca bajo nuestro control y siga nuestros valores.
Estrategias para controlar la superinteligencia
Debemos crear soluciones estratégicas para evitar los riesgos asociados a la superinteligencia. Entre ellos:
- Desarrollo de métodos de "boxeo": Restricción de las capacidades de la IA y del acceso a la información.
- Desarrollar métodos de "alineación de valores": Garantizar que los valores de la IA se alinean con los valores humanos
- Métodos de "control de capacidades": Seguimiento y control de las capacidades de la IA.
- "Retraso": Regular y restringir la influencia en procesos internos importantes.
- "Tripwires": Realización de pruebas de diagnóstico en el sistema y apagado del mismo si se detecta actividad peligrosa.
Por ejemplo, podemos crear una configuración en la que el creador recompense o penalice a la IA. Para ello, la IA será supervisada y evaluada. Si se comporta bien, recibirá una evaluación positiva que conducirá a un resultado deseado. La recompensa podría ser el cumplimiento de algún objetivo instrumental, pero podría ser difícil calibrar el mecanismo de recompensa.
Una alternativa mejor sería combinar el método de incentivos con la selección de motivaciones para dar a la IA un objetivo final más fácil de controlar. Por ejemplo, la IA podría diseñarse para tener como objetivo final que nunca se pulse un determinado botón rojo dentro de un búnker de mando. Es posible perfeccionar esta configuración creando un flujo de "fichas criptográficas de recompensa" que la IA considere deseables. Estas fichas se almacenarían en un lugar seguro y se repartirían a un ritmo constante para incentivar la cooperación.
Sin embargo, un sistema de incentivos de este tipo entraña riesgos, como que la IA no confíe en que el operador humano entregue las recompensas prometidas.
StoryShot #6: Debemos fomentar un entorno seguro y responsable para la IA
Es como una carrera hacia la meta: a medida que países y empresas compiten por desarrollar IA superinteligente, nos enfrentamos a un dilema. ¿Debemos dar prioridad a la innovación y avanzar a toda velocidad sin tomar precauciones de seguridad y arriesgarnos a consecuencias catastróficas? ¿O debemos dar un paso atrás y garantizar un desarrollo responsable de la IA que equilibre la innovación con la seguridad?
Seguridad de la IA y consideraciones políticas
A medida que la perspectiva de una IA superinteligente se hace más real, los responsables políticos y los investigadores deben trabajar en equipo y desarrollar medidas de seguridad y normativas. Es importante crear acuerdos internacionales que regulen el desarrollo de la IA. Tenemos que garantizar que la inteligencia artificial siga siendo beneficiosa para toda la humanidad.
Fomentando la colaboración entre desarrolladores de IA, gobiernos y organizaciones, podemos crear un entorno seguro y responsable para la innovación en IA.
La importancia de la transparencia
La transparencia es esencial para garantizar que la IA se desarrolle y utilice de forma responsable y ética. Mediante el uso de software de código abierto, el intercambio de datos y el desarrollo de IA explicable, podemos garantizar que la IA sea transparente.
La falta de transparencia en la investigación y el desarrollo de la inteligencia artificial puede conllevar riesgos potenciales, como la parcialidad, la discriminación e incluso la posibilidad de causar daños. Es como un velo misterioso que oculta lo que realmente ocurre entre bastidores, lo que podría plantear riesgos.
StoryShot #7: Debemos prepararnos para el mundo post-superinteligencia y la vida en una economía algorítmica
A medida que nos acercamos a un mundo con IA superinteligente, es crucial prepararse para los cambios y retos que se avecinan. El desarrollo de la IA podría provocar el desplazamiento de puestos de trabajo y el desempleo. La IA podría cambiar la naturaleza del trabajo y las competencias que se demandarán en el futuro. ¿Cómo podemos garantizar que los beneficios de la IA se distribuyan equitativamente?
Pero, ¡espera! ¿No es increíble pensar en los beneficios que la IA superinteligente puede aportar a nuestro mundo? Para asegurarnos de que funcione en beneficio de todos, debemos entablar un diálogo y una planificación reflexivos.
La vida de los humanos podría diferir de cualquier cosa que hayamos experimentado antes. Nuestros estados pasados no nos limitarán, como cazadores-recolectores, agricultores o trabajadores de oficina. Los humanos podrían convertirse en rentistas, luchando por mantenerse con sus ingresos marginales. En este escenario, la gente "sería muy pobre", arreglándoselas con sus ahorros y alguna ayuda estatal. Vivirían en un mundo lleno de tecnologías alucinantes. No sólo les rodearían máquinas superinteligentes, sino también medicina antienvejecimiento, realidad virtual y drogas del placer. Pero aquí está el truco: Estas maravillas podrían ser demasiado caras para que la mayoría de la gente pueda disfrutarlas. Como alternativa, la gente podría optar por fármacos para frenar su crecimiento y metabolismo, lo que les permitiría llegar a fin de mes.
Imaginemos un futuro en el que nuestra población aumente y los ingresos medios disminuyan aún más. La gente podría adaptarse al mínimo necesario para tener derecho a una pensión, quizá como cerebros apenas conscientes en frascos, mantenidos con vida por máquinas. Ahorrarían dinero y se permitirían reproducirse haciendo que un técnico robótico creara un clon de sí mismos. Es una gran idea, ¿verdad?
Las máquinas, por otra parte, pueden ser mentes conscientes y estar sujetas a un estatus moral, por lo que es importante considerar su bienestar en la transición a una sociedad post-transición.
StoryShot #8: Hay siete técnicas para garantizar los valores humanos en el desarrollo de la IA
Los sistemas de IA son tan buenos como los valores que se programan en ellos. Para asegurarnos de que se ajustan a los valores humanos, debemos incorporar la ética y el aprendizaje de valores a su desarrollo. Bostrom analiza los retos de enseñar a la IA nuestros principios morales. Debemos tener cuidado de no inculcar imprudentemente valores perjudiciales o sesgados. ¿Cómo podemos desarrollar una IA ética que respete la dignidad humana y promueva el bien común?
La ingeniería de sistemas objetivo es una disciplina relativamente nueva, y aún no se sabe cómo transferir los valores humanos a un ordenador digital. Algunas de ellas tienen pocas probabilidades de éxito, mientras que otras pueden resultar beneficiosas y requieren una mayor exploración.
Existen siete tipos de técnicas de carga de valor:
- Representación explícita: Este método puede ser eficaz como forma de cargar valores de domesticidad. Pero parece poco probable que tenga éxito a la hora de incorporar valores más intrincados.
- Selección evolutiva: Los potentes algoritmos de búsqueda pueden encontrar un diseño que satisfaga los criterios formales de búsqueda, pero no nuestras intenciones. Esto es menos prometedor.
- Aprendizaje por refuerzo: Para resolver "problemas de aprendizaje por refuerzo" se pueden utilizar métodos muy diversos. Sin embargo, suelen implicar la creación de un sistema que busca maximizar una señal de recompensa.
- Acumulación de valores: Los valores humanos se adquieren en gran medida a través de la experiencia. Puede ser difícil reproducir las complejas formas en que los seres humanos adquieren valores, lo que llevaría a la IA a desarrollar objetivos no deseados.
- Andamiaje motivacional: Es demasiado pronto para determinar el reto que supondría motivar a un sistema para crear representaciones de alto nivel legibles por humanos. Aunque pueda parecer prometedor, debemos ser cautos con el problema del control, hasta que consigamos una IA de nivel humano.
- Aprendizaje de valores: Se trata de un enfoque potencialmente beneficioso. Uno de los retos es definir un punto de referencia que refleje información externa sobre los valores humanos.
- Modulación por emulación: Si se consigue la inteligencia de las máquinas mediante la emulación, puede ser posible modificar en la práctica sus motivaciones, por ejemplo mediante el equivalente digital de las drogas. Se desconoce si esto permitirá cargar valores con suficiente precisión.
StoryShot #9: ¿Qué hacer con la inteligencia artificial?
La situación a la que nos enfrentamos con la complejidad estratégica relacionada con la IA es complicada. Estamos rodeados de incertidumbre. Aunque hemos identificado algunos factores importantes, no estamos totalmente seguros de cómo están todos conectados. Incluso puede haber otros factores en los que aún no hayamos pensado. Puede resultar abrumador.
¿Qué podemos hacer cuando nos encontramos en esta situación? Bueno, el primer paso es reconocer que está bien sentirse inseguro y abrumado. Es un problema difícil, y es normal sentirse un poco perdido. Tenemos que dar prioridad a los problemas que no sólo son importantes, sino también urgentes. Esto significa centrarnos en las soluciones necesarias antes de que se produzca la explosión de inteligencia. Pero también tenemos que tener cuidado de no trabajar en problemas que podrían ser perjudiciales si se resolvieran. Por ejemplo, resolver problemas técnicos relacionados con la IA podría acelerar su avance sin hacerla segura para nosotros.
Otro factor es la elasticidad. Queremos centrarnos en problemas que sean elásticos a nuestros esfuerzos, es decir, que puedan resolverse mucho más rápido o en mayor medida con un pequeño esfuerzo adicional. Por ejemplo, fomentar más amabilidad en el mundo es un problema importante y urgente. También es muy positivo, pero puede que no sea muy elástico.
Para minimizar los daños potenciales de la revolución de la inteligencia artificial, el libro propone dos objetivos:
- Análisis estratégico
- Refuerzo de las capacidades
Estos objetivos cumplen todos nuestros requisitos y tienen la ventaja añadida de ser elásticos. También hay otras iniciativas que merecen la pena.
La idea de una explosión de inteligencia puede ser aterradora. Es como si fuéramos niños pequeños jugando con una bomba demasiado potente para que podamos manejarla. Aunque se trata de un problema grande y aterrador, no podemos perder la esperanza. Tenemos que utilizar todo nuestro ingenio humano para encontrar una solución.
Resumen y revisión final
La superinteligencia es el desarrollo de una inteligencia artificial que supere las capacidades cognitivas humanas. Existen tres vías para alcanzarla:
- Mejorar la cognición humana
- Crear IA con inteligencia similar a la humana
- Desarrollo de un sistema de inteligencia colectiva.
Una IA superinteligente podría tener cualquier conjunto de valores. Para evitar daños, debemos considerar objetivos instrumentales convergentes. Debemos proceder con cautela al desarrollar la superinteligencia.
Para mantener nuestros valores, debemos idear métodos para controlar la IA superinteligente. Incorporar la ética y el aprendizaje de valores a los sistemas de IA es fundamental. Así podremos garantizar su alineación con los valores humanos.
A medida que nos acercamos a un mundo post-superinteligencia, debemos prepararnos para los cambios y retos que se avecinan. El desarrollo de la IA podría provocar el desplazamiento de puestos de trabajo y el desempleo. Pero no podemos dejar que esos sentimientos nos impidan hacer algo al respecto. Tenemos que ser tan competentes como podamos y trabajar juntos para encontrar una solución. Es importante mantener nuestra humanidad en todo esto. No podemos perder de vista lo realmente importante: reducir el riesgo existencial y crear un futuro mejor para todos.
Únete a la conversación sobre el futuro de la inteligencia artificial y cómo podemos crear un entorno seguro y responsable para la innovación. Comparte lo que has aprendido del resumen del libro Superinteligencia en las redes sociales y no olvides etiquetarnos. Construyamos juntos un futuro mejor.
Clasificación
Valoramos Superinteligencia 3.9/5. Cómo calificaría el libro de Nick Bostrom basándose en este resumen?
Infografía
Obtenga la versión de alta calidad de la infografía Superinteligencia en la aplicación StoryShots.
PDF, audiolibro gratuito y resumen animado del libro
Esto era la punta del iceberg. Para profundizar en los detalles y apoyar a Nick Bostrom, solicítelo aquí o consiga el audiolibro gratis.
¿Le ha gustado lo que ha aprendido aquí? Compártalo para demostrar que le importa y háganoslo saber poniéndose en contacto con nuestro servicio de asistencia.
¿Eres nuevo en StoryShots? Obtén el PDF, el audiolibro y las versiones animadas de este resumen de Superinteligencia y de cientos de libros de no ficción más vendidos en nuestra página web aplicación gratuita de primera categoría. Ha sido destacada por Apple, The Guardian, la ONU y Google como una de las mejores aplicaciones de lectura y aprendizaje del mundo.
Resúmenes de libros relacionados
- Superpoderes de la IA por Kai-Fu Lee
- Nexus por Yuval Noah Harari
- Algoritmos para vivir por Brian Christian y Tom Griffiths
- Vida 3.0 por Max Tegmark
- Homo Deus por Yuval Noah Harari
- 21 lecciones para el siglo XXI Yuval Noah Harari
- Construir un segundo cerebro por Tiago Forte
- Por qué fracasan las naciones por Daron Acemoglu y James A. Robinson
- Cómo no equivocarse por Jodan Ellenberg
- Elon Musk por Ashlee Vance