Superintelligence Résumé de l'article de Nick Bostrom
Chemins, dangers, stratégies
Résumé en 1 phrase
Superintelligence de Nick Bostrom explore les risques existentiels et le pouvoir de transformation de l'intelligence artificielle, en posant la question suivante : que se passera-t-il lorsque les machines dépasseront l'intelligence humaine, et comment pouvons-nous assurer notre survie dans un avenir dominé par des entités superintelligentes ?
Introduction
Que se passera-t-il lorsque l'intelligence artificielle dépassera l'intelligence humaine ? Les machines peuvent penser, apprendre et résoudre des problèmes complexes plus rapidement et plus précisément que nous. C'est ce monde qu'explore Nick Bostrom dans son livre, Superintelligence. Les progrès de l'intelligence artificielle nous rapprochent de la création d'êtres superintelligents.
Les grandes entreprises technologiques telles que Microsoft, Google et Facebook se lancent dans une course à la création d'une IA surpuissante. Elles consacrent beaucoup de ressources à la recherche et au développement pour y parvenir. Mais le hic, c'est qu'en l'absence de mesures de sécurité et de règles adéquates, les choses risquent de déraper. C'est pourquoi il est important d'intervenir et de veiller à ce que l'IA reste sous contrôle.
Imaginez un monde où les machines sont non seulement moins chères, mais aussi bien plus performantes que les humains. Dans ce monde, les machines pourraient prendre le pas sur le travail humain, ce qui amènerait les gens à se poser la question suivante : "Et maintenant ?" Il est donc important de trouver des solutions créatives pour s'assurer que tout le monde est pris en charge.
Ce livre montre ce qui se passe après l'émergence de la superintelligence. Il examine la croissance de l'intelligence, les formes et les pouvoirs de la superintelligence, ainsi que ses choix stratégiques. Nous devons nous préparer maintenant pour éviter les désastres plus tard. Bostrom propose des stratégies pour faire face aux dangers et aux défis qu'elle présente.
Superintelligence examine les histoire de l'intelligence artificielle et le développement de la croissance technologique. Le livre décrit comment l'IA se développe plus rapidement que ses prédécesseurs technologiques. Il se penche également sur des enquêtes d'opinion d'experts concernant ses progrès futurs.
Sam Altman, cofondateur d'OpenAI, déclare Superintelligence un livre incontournable pour quiconque se préoccupe de l'avenir de l'humanité. Il l'a même inclus dans sa liste des neuf livres qu'il pense que tout le monde devrait lire.
Ce résumé se penche sur le monde fascinant et parfois effrayant de la superintelligence. Il vous offre une vue d'ensemble attrayante des idées clés de Bostrom.
À propos de Nick Bostrom
Nick Bostrom est un philosophe et futurologue suédois. Il est connu pour ses travaux novateurs sur l'intelligence artificielle et son impact sur l'humanité. Bostrom est professeur à l'université d'Oxford, où il a fondé l'Institut du futur de l'humanité. Il mène notamment des recherches sur la manière dont les technologies avancées et l'IA peuvent profiter à la société ou lui nuire.
Outre Superintelligence, Bostrom est l'auteur d'autres ouvrages influents, notamment Biais anthropique : effets de sélection des observations dans la science et la philosophie et Risques catastrophiques mondiaux. Son travail a contribué au débat actuel sur l'avenir de l'humanité.
StoryShot #1 : Nous ne sommes pas prêts pour la superintelligence
Sommes-nous sur le point de créer quelque chose qui dépasse nos rêves les plus fous ou nos pires cauchemars ? La superintelligence est le concept d'une intelligence artificielle surpassant les capacités cognitives humaines dans tous les domaines. Il existe trois voies possibles pour parvenir à la superintelligence :
- Améliorer la cognition humaine,
- Créer une IA dotée d'une intelligence comparable à celle de l'homme
- Développer un système d'intelligence collective
La voie que nous choisirons déterminera les implications et les risques auxquels nous sommes confrontés en tant que société. Si nous progressons dans une voie, comme l'intelligence biologique ou organisationnelle, cela accélérera encore le développement de l'intelligence des machines. Sommes-nous prêts à relever les défis liés à la création d'entités aussi puissantes ?
Nous explorons différentes voies pour atteindre la superintelligence. La voie de l'IA semble la plus prometteuse. L'émulation du cerveau entier et les améliorations cognitives biologiques pourraient également nous y conduire. Les améliorations biologiques sont réalisables et peuvent donner lieu à des formes de superintelligence plus faibles que l'intelligence de la machine, mais les progrès en matière de réseaux et d'organisation peuvent stimuler l'intelligence collective.
StoryShot #2 : Il existe trois formes de superintelligence
Qu'entend-on exactement par "superintelligence" dans le livre ? Il existe trois formes distinctes de superintelligence : la vitesse, le collectif et la qualité. Elles sont équivalentes d'un point de vue pratique.
Les systèmes spécialisés de traitement de l'information font déjà des merveilles. Mais que se passerait-il si nous avions des machines dotées d'une intelligence générale suffisante pour remplacer les humains dans tous les domaines ? De quoi changer la donne !
Les trois formes de superintelligence sont les suivantes :
- Vitesse Superintelligence
Nick Bostrom définit la superintelligence de vitesse comme "un système qui peut faire tout ce qu'un intellect humain peut faire, mais beaucoup plus rapidement".
Si une émulation fonctionnait à une vitesse 10 000 fois supérieure à celle d'un cerveau biologique, elle pourrait terminer une thèse de doctorat en un après-midi. Pour éviter les longues latences, les esprits rapides pourraient préférer communiquer plus efficacement en étant proches les uns des autres. Ils pourraient vivre dans une réalité virtuelle et travailler dans l'économie de l'information.
La lumière est beaucoup plus rapide qu'un avion à réaction. Un être numérique dont la vitesse mentale serait multipliée par un million mettrait le même temps subjectif qu'un être humain actuel pour parcourir le monde. Passer un appel longue distance semblerait aussi long que de s'y rendre "en personne".
Les agents ayant une vitesse mentale élevée peuvent choisir de vivre à proximité les uns des autres. Ils peuvent ainsi communiquer plus efficacement. Par exemple, les membres d'une équipe de travail pourraient résider dans des ordinateurs situés dans le même bâtiment afin d'éviter les retards gênants.
- Superintelligence collective
Bostrom décrit la superintelligence collective comme suit : "Un système composé d'un grand nombre d'intelligences plus petites, de sorte que les performances globales du système dans de nombreux domaines très généraux dépassent largement celles de n'importe quel système cognitif actuel.
La superintelligence collective est plus complexe que la superintelligence de vitesse, mais elle nous est déjà familière. L'intelligence collective est un système composé de différentes personnes ou composantes. Ils travaillent ensemble pour résoudre des problèmes intellectuels. C'est un peu comme si des super-héros collaboraient pour relever des défis difficiles.
Nous avons vu l'intelligence collective à l'œuvre au sein d'équipes de travail et de groupes de pression. Elle est très efficace pour s'attaquer aux problèmes qui peuvent être divisés en petits morceaux. Pour parvenir à une superintelligence collective, il faudrait une amélioration significative. Il faut aller au-delà de l'intelligence collective et des systèmes cognitifs existants dans différents domaines.
La superintelligence collective ne garantit pas une société meilleure et plus sage. Une main-d'œuvre hautement coordonnée et bien informée pourrait toujours se tromper sur certains points essentiels et s'effondrer.
La superintelligence collective peut prendre de nombreuses formes. Au fur et à mesure que nous intégrons l'intelligence collective, elle peut devenir un "intellect unifié". Bostrom la définit comme un "grand esprit unique", par opposition à un "simple assemblage d'esprits humains plus petits interagissant de manière lâche".
- Superintelligence de qualité
Selon Bostrom, une superintelligence de qualité est "un système qui est au moins aussi rapide qu'un esprit humain et beaucoup plus intelligent d'un point de vue qualitatif".
Il est important de comprendre la qualité de l'intelligence pour réfléchir aux possibilités et aux limites des différents systèmes intelligents. Prenons l'exemple du poisson-zèbre. Son intelligence est adaptée à son environnement, mais il a du mal à planifier à long terme. Ces limites se situent au niveau de la qualité, et non de la vitesse, ou de l'intelligence collective parmi les esprits des animaux non humains.
Le cerveau humain est probablement inférieur à celui de certains grands animaux en termes de puissance de calcul brute. Les adultes humains normaux disposent d'un éventail de talents cognitifs remarquables. Ces talents ne sont pas simplement liés à la puissance générale de traitement neuronal ou à l'intelligence. Il existe des capacités cognitives inexploitées qu'aucun humain ne possède. Cela nous amène à l'"idée de des talents cognitifs possibles mais non réalisés". Si un système intelligent avait accès à ces capacités, il pourrait en tirer un avantage significatif.
StoryShot #3 : Deux sources d'avantages pour l'intelligence numérique
Des changements mineurs dans le volume et le câblage du cerveau entre l'homme et les autres singes peuvent provoquer des bonds gigantesques dans l'intellect.
Il nous est difficile, voire impossible, de comprendre pleinement les aptitudes des superintelligences.
Cependant, nous pouvons au moins nous faire une idée des possibilités en examinant certains avantages offerts aux esprits numériques.
L'un des avantages réside dans le matériel. Les cerveaux numériques peuvent être conçus avec des ressources informatiques et une architecture largement supérieures à celles des cerveaux biologiques. Les avantages matériels sont les plus faciles à apprécier. Il s'agit notamment de
- Vitesse des éléments de calcul
- Vitesse de communication interne
- Nombre d'éléments de calcul
- Capacité de stockage
- Fiabilité, durée de vie, capteurs, etc.
Les esprits numériques bénéficieront également d'avantages majeurs en matière de logiciels. Il s'agit notamment de
- Modifiable
- Duplicabilité
- Coordination des objectifs
- Partage de la mémoire
- Nouveaux modules, modalités et algorithmes
L'IA superintelligente pourrait arriver plus tôt que nous ne le pensons, grâce à une surabondance de matériel et de logiciels. On parle de surcharge matérielle lorsque nous disposons d'une puissance de calcul supérieure à celle dont les logiciels d'IA ont besoin actuellement. Le surnombre de logiciels laisse présager des progrès rapides dans les algorithmes d'IA. C'est comme si nous étions sur une voie rapide vers un avenir époustouflant.
Ce bond soudain dans les capacités de l'IA pourrait nous prendre au dépourvu et nous laisser dans l'incapacité d'en gérer les conséquences. Comment pouvons-nous nous préparer à une transformation technologique aussi rapide ?
StoryShot #4 : La superintelligence incontrôlée pose des risques importants pour la société
Alors que nous progressons vers une IA superintelligente, n'oublions pas de réfléchir aux risques potentiels qu'elle comporte. Il est essentiel de veiller à ce que nos valeurs et nos objectifs soient en adéquation avec cette IA. Que se passera-t-il si elle comprend mal nos instructions et fait quelque chose de préjudiciable à l'humanité ? Nous devons travailler ensemble pour nous assurer que nous construisons un avenir sûr et harmonieux avec l'IA.
Même si l'IA superintelligente promet de réaliser des exploits étonnants, nous ne pouvons pas ignorer les défis qu'elle pose. Voici quelques-uns des principaux risques :
- Le risque d'une explosion de l'intelligence. Cela pourrait conduire à une augmentation rapide et incontrôlable des capacités de l'IA.
- Le risque de désalignement des valeurs. L'IA pourrait poursuivre des objectifs contraires aux valeurs humaines.
- Le risque de convergence instrumentale. L'IA superintelligente peut converger vers certains moyens pour atteindre ses objectifs. Elle pourrait choisir tous les moyens nécessaires, sans se demander s'ils sont bons ou mauvais pour les humains.
StoryShot #5 : Nous devons contrôler l'IA superintelligente grâce à des techniques efficaces
Comment pouvons-nous contrôler une IA superintelligente, plus intelligente et plus performante que nous ? Bostrom parle de la problème de contrôle. Le problème est de savoir comment faire en sorte que l'IA reste sous notre contrôle et suive nos valeurs.
Stratégies de contrôle de la superintelligence
Nous devons créer des solutions stratégiques pour éviter les risques associés à la superintelligence. Ces risques sont les suivants
- Développement de méthodes de "boxe" : Restreindre les capacités de l'IA et son accès à l'information
- Développer des méthodes d'"alignement des valeurs" : Garantir l'alignement des valeurs de l'IA sur les valeurs humaines
- Méthodes de "contrôle des capacités" : Surveillance et contrôle des capacités de l'IA
- Le "rabougrissement" : Régulation et restriction de l'influence sur les processus internes importants
- "Tripwires" (fils de déclenchement) : Effectuer des tests de diagnostic sur le système et l'arrêter si une activité dangereuse est détectée.
Par exemple, nous pouvons créer un système dans lequel le créateur récompense ou pénalise l'IA. Pour ce faire, l'IA sera surveillée et évaluée. Si elle se comporte bien, elle recevra une évaluation positive qui aboutira à un résultat qu'elle souhaite. La récompense pourrait être la réalisation d'un objectif instrumental, mais il pourrait être difficile de calibrer le mécanisme de récompense.
Une meilleure solution consisterait à combiner la méthode des incitations avec la sélection des motivations pour donner à l'IA un objectif final plus facile à contrôler. Par exemple, l'IA pourrait être conçue de manière à ce que son objectif ultime soit de ne jamais appuyer sur un bouton rouge particulier à l'intérieur d'un bunker de commandement. Il est possible d'affiner cette configuration en créant un flux de "jetons de récompense cryptographiques" que l'IA juge souhaitables. Ces jetons seraient stockés dans un endroit sûr et distribués à un rythme régulier pour inciter à la coopération.
Toutefois, un tel système d'incitation comporte des risques, comme le fait que l'IA ne fasse pas confiance à l'opérateur humain pour obtenir les récompenses promises.
StoryShot #6 : Nous devrions favoriser un environnement sûr et responsable pour l'IA
C'est comme une course vers la ligne d'arrivée : alors que les pays et les entreprises rivalisent pour développer une IA superintelligente, nous sommes confrontés à un dilemme. Devons-nous donner la priorité à l'innovation et aller de l'avant sans prendre de précautions en matière de sécurité, au risque de subir des conséquences catastrophiques ? Ou devons-nous prendre du recul et veiller à ce que le développement de l'IA se fasse de manière responsable, en conciliant innovation et sécurité ?
Sécurité de l'IA et considérations politiques
Alors que la perspective d'une IA superintelligente devient de plus en plus réelle, les décideurs politiques et les chercheurs doivent s'associer pour élaborer des mesures de sécurité et des réglementations. Il est important de créer des accords internationaux pour régir le développement de l'IA. Nous devons veiller à ce que l'intelligence artificielle reste bénéfique pour l'ensemble de l'humanité.
En favorisant la collaboration entre les développeurs d'IA, les gouvernements et les organisations, nous pouvons créer un environnement sûr et responsable pour l'innovation en matière d'IA.
L'importance de la transparence
La transparence est essentielle pour garantir que l'IA est développée et utilisée de manière responsable et éthique. En utilisant des logiciels libres, en partageant des données et en développant une IA explicable, nous pouvons garantir la transparence de l'IA.
Le manque de transparence dans la recherche et le développement de l'intelligence artificielle peut entraîner des risques potentiels, tels que la partialité, la discrimination et même le risque de préjudice. C'est comme un voile mystérieux qui cache ce qui se passe réellement en coulisses, ce qui peut présenter des risques.
StoryShot #7 : Nous devons nous préparer au monde post-superintelligence et à la vie dans une économie algorithmique
Alors que nous nous rapprochons d'un monde doté d'une IA superintelligente, il est essentiel de se préparer aux changements et aux défis qui nous attendent. Le développement de l'IA pourrait entraîner des déplacements d'emplois et du chômage. L'IA pourrait modifier la nature du travail et les compétences qui seront demandées à l'avenir. Comment pouvons-nous nous assurer que les avantages de l'IA sont répartis équitablement ?
Mais attendez ! N'est-il pas incroyable de penser aux avantages que l'IA superintelligente peut apporter à notre monde ? Pour s'assurer qu'elle profite à tous, nous devons engager un dialogue et une planification réfléchis.
La vie des humains pourrait être différente de tout ce que nous avons connu auparavant. Nos états antérieurs ne nous limiteront pas à être des chasseurs-cueilleurs, des agriculteurs ou des employés de bureau. Les humains pourraient devenir des rentiers, luttant pour subvenir à leurs besoins avec leur revenu marginal. Dans ce scénario, les gens "seraient très pauvres", s'en sortant grâce à leurs économies et à quelques aides de l'État. Ils vivraient dans un monde truffé de technologies époustouflantes. Ils seront entourés non seulement de machines superintelligentes, mais aussi de médicaments anti-âge, de réalité virtuelle et de drogues de plaisir. Mais il y a un hic : Ces merveilles pourraient être trop chères pour que la plupart des gens puissent en profiter. En revanche, les gens pourraient opter pour des médicaments qui ralentissent leur croissance et leur métabolisme, ce qui leur permettrait de joindre les deux bouts.
Imaginez un avenir où notre population augmente et où le revenu moyen diminue encore plus. Les gens pourraient s'adapter au strict minimum nécessaire pour avoir droit à une pension - peut-être en tant que cerveaux à peine conscients dans des bocaux, maintenus en vie par des machines. Ils économiseraient de l'argent et pourraient se permettre de se reproduire en demandant à un technicien robotique de créer un clone d'eux-mêmes. C'est une belle idée, n'est-ce pas ?
Les machines, en revanche, peuvent être des esprits conscients et faire l'objet d'un statut moral, d'où l'importance de prendre en compte leur bien-être dans le cadre de la transition vers une société post-transition.
StoryShot #8 : Sept techniques pour garantir les valeurs humaines dans le développement de l'IA
La qualité des systèmes d'IA dépend des valeurs qui y sont programmées. Pour s'assurer qu'ils s'alignent sur les valeurs humaines, nous devons intégrer l'éthique et l'apprentissage des valeurs dans leur développement. Bostrom explore les défis liés à l'enseignement de nos principes moraux à l'IA. Nous devons veiller à ne pas inculquer inconsidérément des valeurs nuisibles ou biaisées. Comment pouvons-nous développer une IA éthique qui respecte la dignité humaine et promeut le bien commun ?
L'ingénierie des systèmes d'objectifs est une discipline relativement nouvelle, et l'on ne sait pas encore comment transférer les valeurs humaines à un ordinateur numérique. Il existe un certain nombre de possibilités de transfert de valeurs, dont certaines ont peu de chances de réussir, tandis que d'autres peuvent s'avérer bénéfiques et doivent être explorées plus avant.
Il existe sept types de techniques de chargement de la valeur :
- Représentation explicite : Cette méthode peut être efficace pour charger les valeurs de domesticité. Mais il est peu probable qu'elle permette d'intégrer des valeurs plus complexes.
- Sélection évolutive : Des algorithmes de recherche puissants peuvent trouver une conception qui satisfait aux critères de recherche formels, mais pas à nos intentions. Cette solution est moins prometteuse.
- Apprentissage par renforcement : Différentes méthodes peuvent être utilisées pour résoudre les "problèmes d'apprentissage par renforcement". Cependant, elles impliquent généralement la création d'un système qui cherche à maximiser un signal de récompense.
- Accroissement des valeurs : Les valeurs humaines sont largement acquises par l'expérience. Il peut être difficile de reproduire les méthodes complexes par lesquelles les humains acquièrent des valeurs, ce qui peut conduire l'IA à développer des objectifs non intentionnels.
- Échafaudage motivationnel : Il est trop tôt pour déterminer à quel point il serait difficile de motiver un système à créer des représentations de haut niveau lisibles par l'homme. Bien que cela semble prometteur, nous devons être prudents en ce qui concerne le problème du contrôle, jusqu'à ce que nous parvenions à une IA de niveau humain.
- Apprentissage des valeurs : Il s'agit d'une approche potentiellement bénéfique. L'une des difficultés consiste à définir un point de référence qui reflète les informations externes sur les valeurs humaines.
- Modulation de l'émulation : Si l'intelligence de la machine est atteinte par l'émulation, des modifications pratiques de ses motivations peuvent être possibles, par exemple par l'équivalent numérique des drogues. On ne sait pas si cela permettra de charger des valeurs avec suffisamment de précision.
StoryShot #9 : Que faire de l'intelligence artificielle ?
La situation à laquelle nous sommes confrontés en matière de complexité stratégique liée à l'IA est compliquée. Nous sommes entourés d'incertitudes. Même si nous avons identifié certains facteurs importants, nous ne sommes pas tout à fait sûrs de la manière dont ils sont tous liés. Il peut même y avoir d'autres facteurs auxquels nous n'avons pas encore pensé. La situation peut être accablante.
Que pouvons-nous donc faire lorsque nous nous trouvons dans cette situation difficile ? La première chose à faire est de reconnaître qu'il est normal de se sentir incertain et dépassé. Il s'agit d'un problème difficile et il est normal de se sentir un peu perdu. Nous devons donner la priorité aux problèmes qui sont non seulement importants, mais aussi urgents. Cela signifie qu'il faut se concentrer sur les solutions qui sont nécessaires avant que l'explosion du renseignement ne se produise. Mais nous devons également veiller à ne pas travailler sur des problèmes dont la résolution pourrait être préjudiciable. Par exemple, la résolution des problèmes techniques liés à l'IA pourrait accélérer sa progression sans pour autant la rendre sûre pour nous.
Un autre facteur est l'élasticité. Nous voulons nous concentrer sur les problèmes qui sont élastiques par rapport à nos efforts, ce qui signifie qu'ils peuvent être résolus beaucoup plus rapidement ou dans une plus grande mesure avec juste un peu d'effort supplémentaire. Par exemple, encourager plus de gentillesse dans le monde est un problème important et urgent. Il s'agit également d'un problème fortement positif, mais qui n'est pas forcément très élastique.
Pour minimiser les inconvénients potentiels de la révolution de l'intelligence artificielle, le livre propose deux objectifs :
- Analyse stratégique
- Renforcement des capacités
Ces objectifs répondent à toutes nos exigences et présentent l'avantage supplémentaire d'être élastiques. Il existe également plusieurs autres initiatives intéressantes que nous pouvons poursuivre.
L'idée d'une explosion de l'intelligence peut être terrifiante. C'est comme si nous étions de petits enfants jouant avec une bombe bien trop puissante pour nous. Même s'il s'agit d'un problème énorme et effrayant, nous ne devons pas perdre espoir. Nous devons utiliser toutes nos ressources humaines pour trouver une solution.
Résumé et examen final
La superintelligence est le développement d'une intelligence artificielle dépassant les capacités cognitives humaines. Il existe trois voies pour y parvenir :
- Améliorer la cognition humaine
- Créer une IA dotée d'une intelligence comparable à celle de l'homme
- Développer un système d'intelligence collective.
Une IA superintelligente pourrait avoir n'importe quel ensemble de valeurs. Pour éviter tout préjudice, nous devons prendre en compte des objectifs instrumentaux convergents. Nous devons faire preuve de prudence dans le développement de la superintelligence.
Pour préserver nos valeurs, nous devons concevoir des méthodes de contrôle de l'IA superintelligente. Il est essentiel d'intégrer l'éthique et l'apprentissage des valeurs dans les systèmes d'IA. Nous pourrons ainsi garantir leur alignement sur les valeurs humaines.
À l'approche d'un monde post-superintelligence, nous devons nous préparer aux changements et aux défis qui nous attendent. Le développement de l'IA pourrait entraîner des déplacements d'emplois et du chômage. Mais ces sentiments ne doivent pas nous empêcher d'agir. Nous devons être aussi compétents que possible et travailler ensemble pour trouver une solution. Il est important de conserver notre humanité dans tout cela. Nous ne devons pas perdre de vue l'essentiel : réduire les risques existentiels et créer un avenir meilleur pour tous.
Participez à la conversation sur l'avenir de l'intelligence artificielle et sur la manière dont nous pouvons créer un environnement sûr et responsable pour l'innovation. Partagez ce que vous avez appris dans le résumé du livre Superintelligence sur les médias sociaux et n'oubliez pas de nous taguer ! Ensemble, façonnons un avenir meilleur.
Classement
Nous évaluons Superintelligence 3.9/5. Quelle note donneriez-vous au livre de Nick Bostrom sur la base de ce résumé ?
Infographie
Obtenir la version haute qualité de l'infographie Superintelligence sur l'application StoryShots.
PDF, livre audio gratuit et résumé animé du livre
Il s'agit de la partie émergée de l'iceberg. Pour plonger dans les détails et soutenir Nick Bostrom, Commandez-la ici ou obtenir le livre audio gratuitement.
Vous avez aimé ce que vous avez appris ici ? Partagez pour montrer votre intérêt et faites-nous savoir en contactant notre support.
Nouveau sur StoryShots ? Obtenez les versions PDF, audio et animée de ce résumé de Superintelligence et de centaines d'autres best-sellers de non-fiction dans notre base de données. application gratuite de premier rang. Apple, The Guardian, les Nations unies et Google l'ont classée parmi les meilleures applications de lecture et d'apprentissage au monde.
Résumés de livres connexes
- Les superpouvoirs de l'IA par Kai-Fu Lee
- Nexus par Yuval Noah Harari
- Des algorithmes pour vivre par Brian Christian et Tom Griffiths
- La vie 3.0 par Max Tegmark
- Homo Deus par Yuval Noah Harari
- 21 leçons pour le 21ème siècle Yuval Noah Harari
- Construire un second cerveau par Tiago Forte
- Pourquoi les nations échouent par Daron Acemoglu et James A. Robinson
- Comment ne pas se tromper par Jodan Ellenberg
- Elon Musk par Ashlee Vance