Sintesi della recensione di Superintelligenza | Nick Bostrom
Percorsi, pericoli, strategie
Riassunto di 1 frase
Superintelligenza di Nick Bostrom esplora i rischi esistenziali e il potere di trasformazione dell'intelligenza artificiale, chiedendosi: cosa succederà quando le macchine supereranno l'intelligenza umana e come potremo garantire la nostra sopravvivenza in un futuro dominato da entità superintelligenti?
Introduzione
Cosa succede quando l'intelligenza artificiale supera quella umana? Le macchine possono pensare, imparare e risolvere problemi complessi più velocemente e più accuratamente di noi. Questo è il mondo che Nick Bostrom esplora nel suo libro, Superintelligenza. I progressi dell'intelligenza artificiale ci avvicinano alla creazione di esseri superintelligenti.
Le grandi aziende tecnologiche come Microsoft, Google e Facebook sono in corsa per creare un'intelligenza artificiale super potente. Stanno investendo molte risorse nella ricerca e nello sviluppo per realizzarla. Ma c'è un problema: senza le giuste misure e regole di sicurezza, le cose potrebbero andare in tilt. Ecco perché è importante intervenire e assicurarsi che l'IA rimanga sotto controllo.
Immaginate un mondo in cui le macchine non solo costano meno, ma sono anche molto più brave degli uomini a svolgere i loro lavori. In quel mondo, le macchine potrebbero prendere il posto del lavoro umano, lasciando le persone a chiedersi: "E adesso?". È quindi importante trovare soluzioni creative per assicurarsi che tutti si prendano cura di loro.
Il libro mostra cosa succede dopo l'emergere della superintelligenza. Esamina la crescita dell'intelligenza, le forme e i poteri della superintelligenza e le sue scelte strategiche. Dobbiamo prepararci ora per evitare disastri in seguito. Bostrom offre strategie per navigare tra i pericoli e le sfide che presenta.
Superintelligenza esamina il storia dell'intelligenza artificiale e lo sviluppo della crescita tecnologica. Il libro descrive come l'IA stia crescendo più velocemente dei suoi predecessori tecnologici. Esamina inoltre le indagini sulle opinioni degli esperti in merito ai suoi progressi futuri.
Sam Altman, il co-fondatore di OpenAI, chiama Superintelligenza una lettura obbligata per chiunque abbia a cuore il futuro dell'umanità. Lo ha persino incluso nella sua lista dei nove libri che secondo lui tutti dovrebbero leggere.
Questo riassunto si addentra nell'affascinante e talvolta spaventoso mondo della superintelligenza. Offre una panoramica coinvolgente delle idee chiave di Bostrom.
Informazioni su Nick Bostrom
Nick Bostrom è un filosofo e futurista svedese. È noto per il suo lavoro innovativo sull'intelligenza artificiale e il suo impatto sull'umanità. Bostrom è professore all'Università di Oxford, dove ha fondato il Future of Humanity Institute. In particolare, conduce ricerche su come le tecnologie avanzate e l'intelligenza artificiale possano giovare o danneggiare la società.
Oltre a Superintelligenza, Bostrom è autore di altre opere influenti, tra cui Bias antropico: effetti di selezione dell'osservazione nella scienza e nella filosofia e Rischi catastrofici globali. Il suo lavoro ha contribuito al dibattito in corso sul futuro dell'umanità.
StoryShot #1: Non siamo pronti per la superintelligenza
Siamo sul punto di creare qualcosa che va oltre i nostri sogni più sfrenati o i nostri peggiori incubi? La superintelligenza è il concetto di intelligenza artificiale che supera le capacità cognitive umane in ogni aspetto. Esistono tre percorsi potenziali per raggiungere la superintelligenza:
- Migliorare la cognizione umana,
- Creare IA con intelligenza simile a quella umana
- Sviluppare un sistema di intelligenza collettiva
Quale strada prenderemo determinerà le implicazioni e i rischi che dovremo affrontare come società. Se facciamo progressi lungo una strada, come l'intelligenza biologica o organizzativa, accelereremo comunque lo sviluppo dell'intelligenza artificiale. Siamo pronti ad affrontare le sfide che derivano dalla creazione di entità così potenti?
Stiamo esplorando diverse strade per raggiungere la superintelligenza. La strada dell'intelligenza artificiale sembra la più promettente. Ma anche l'emulazione del cervello intero e i potenziamenti cognitivi biologici potrebbero condurci lì. I potenziamenti biologici sono fattibili e potrebbero portare a forme deboli di superintelligenza rispetto all'intelligenza delle macchine, ma i progressi della rete e dell'organizzazione potrebbero potenziare l'intelligenza collettiva.
StoryShot #2: Esistono tre forme di superintelligenza
Che cosa intende esattamente il libro per "superintelligenza"? Esistono tre forme distinte di superintelligenza: velocità, collettiva e di qualità. Esse sono equivalenti in senso pratico.
I sistemi specializzati di elaborazione delle informazioni stanno già facendo miracoli. Ma cosa succederebbe se avessimo a disposizione macchine con un'intelligenza generale tale da sostituire gli esseri umani in ogni campo? Si tratta di una svolta epocale!
Le tre forme di superintelligenza sono:
- Velocità Superintelligenza
Nick Bostrom definisce la superintelligenza della velocità come "Un sistema che può fare tutto ciò che può fare un intelletto umano, ma molto più velocemente".
Se un'emulazione operasse a una velocità pari a 10.000 volte quella tipica di un cervello biologico, potrebbe completare una tesi di dottorato in un pomeriggio. Per evitare lunghe latenze, le menti veloci potrebbero preferire comunicare tra loro in modo più efficiente stando vicine. Potrebbero vivere nella realtà virtuale e operare nell'economia dell'informazione.
La luce è molto più veloce di un aereo a reazione. Un essere digitale con una velocità mentale un milione di volte superiore impiegherebbe lo stesso tempo soggettivo di un essere umano di oggi per girare il mondo. Fare una telefonata a distanza sarebbe altrettanto lungo che andarci "di persona".
Gli agenti con elevate velocità mentali possono scegliere di vivere vicini. In questo modo possono comunicare in modo più efficiente. Ad esempio, i membri di un team di lavoro potrebbero risiedere in computer situati nello stesso edificio per evitare fastidiosi ritardi.
- Superintelligenza collettiva
Bostrom descrive la superintelligenza collettiva come: "Un sistema composto da un gran numero di intelletti più piccoli tale che le prestazioni complessive del sistema in molti domini molto generali superano di gran lunga quelle di qualsiasi sistema cognitivo attuale".
La superintelligenza collettiva è più complessa della superintelligenza di velocità, ma è qualcosa che conosciamo già. L'intelligenza collettiva è un sistema composto da diverse persone o componenti. Lavorano insieme per risolvere problemi intellettuali. È come se i supereroi collaborassero per risolvere le sfide più difficili.
Abbiamo visto l'intelligenza collettiva in azione attraverso i team di lavoro e i gruppi di difesa. È ottima per affrontare problemi che possono essere suddivisi in parti più piccole. Per raggiungere la superintelligenza collettiva, avremmo bisogno di miglioramenti significativi. Deve andare oltre l'intelligenza collettiva e i sistemi cognitivi esistenti in vari settori.
Avere una superintelligenza collettiva non garantisce una società migliore e più saggia. Una forza lavoro altamente coordinata e competente potrebbe comunque sbagliare alcune questioni chiave e subire un collasso.
La superintelligenza collettiva può assumere molte forme. Man mano che integriamo l'intelligenza collettiva, essa può diventare un "intelletto unificato". Bostrom la definisce una "singola grande mente" in contrapposizione a "un semplice assemblaggio di menti umane più piccole che interagiscono liberamente".
- Superintelligenza di qualità
Secondo Bostrom, una superintelligenza di qualità è "un sistema veloce almeno quanto una mente umana e qualitativamente molto più intelligente".
La comprensione della qualità dell'intelligenza è importante per riflettere sulle possibilità e sui limiti dei diversi sistemi intelligenti. Prendiamo ad esempio il pesce zebra. La sua intelligenza è adatta all'ambiente in cui vive, ma fatica a pianificare a lungo termine. Questi limiti riguardano la qualità, non la velocità, o l'intelligenza collettiva tra le menti degli animali non umani.
Il cervello umano è probabilmente inferiore a quello di alcuni grandi animali in termini di potenza di calcolo grezza. Gli adulti umani normali hanno una serie di talenti cognitivi notevoli. Non sono semplicemente una funzione del possesso di una potenza di elaborazione neurale o di un'intelligenza generale. Ci sono capacità cognitive non sfruttate che nessun essere umano possiede. Questo ci porta all'"idea di talenti cognitivi possibili ma non realizzati".. Se un sistema intelligente avesse accesso a queste capacità, potrebbe ottenere un vantaggio significativo.
StoryShot #3: Due fonti di vantaggio per l'intelligenza digitale
Piccoli cambiamenti nel volume e nel cablaggio del cervello tra gli esseri umani e le altre scimmie possono causare giganteschi salti di intelligenza.
È difficile, se non impossibile, comprendere appieno le attitudini della superintelligenza.
Tuttavia, possiamo almeno farci un'idea delle possibilità, esaminando alcuni vantaggi aperti alle menti digitali.
Un vantaggio è rappresentato dall'hardware. Le menti digitali possono essere progettate con risorse e architetture di calcolo nettamente superiori rispetto ai cervelli biologici. I vantaggi hardware sono più facili da apprezzare. Questi includono:
- Velocità degli elementi di calcolo
- Velocità di comunicazione interna
- Numero di elementi di calcolo
- Capacità di stoccaggio
- Affidabilità, durata di vita, sensori, ecc.
Le menti digitali beneficeranno anche di importanti vantaggi a livello di software. Questi includono:
- Editabilità
- Duplicabilità
- Coordinamento degli obiettivi
- Condivisione della memoria
- Nuovi moduli, modalità e algoritmi
L'intelligenza artificiale superintelligente potrebbe arrivare prima di quanto pensiamo, grazie all'eccesso di hardware e software. L'eccesso di hardware si verifica quando la potenza di calcolo è superiore a quella di cui il software di IA ha bisogno in questo momento. L'eccesso di software indica il rapido progresso degli algoritmi di IA. È come se fossimo su una corsia preferenziale per un futuro strabiliante.
Questo improvviso salto nelle capacità dell'intelligenza artificiale potrebbe coglierci di sorpresa, lasciandoci impreparati a gestirne le conseguenze. Come possiamo prepararci a una trasformazione così rapida della tecnologia?
StoryShot #4: La superintelligenza incontrollata comporta rischi significativi per la società
Mentre ci avviciniamo all'IA superintelligente, non dimentichiamo di pensare ai suoi potenziali rischi. È fondamentale assicurarsi che i nostri valori e obiettivi siano in linea con questa IA. Cosa accadrebbe se fraintendesse le nostre istruzioni e facesse qualcosa di dannoso per l'umanità? Dobbiamo lavorare insieme per assicurarci di costruire un futuro sicuro e armonioso con l'IA.
Anche se l'intelligenza artificiale superintelligente promette di realizzare imprese straordinarie, non possiamo ignorare le sfide che porta con sé. Alcuni dei rischi principali sono:
- Il rischio di un'esplosione dell'intelligenza. Questo potrebbe portare a un aumento rapido e incontrollabile delle capacità dell'intelligenza artificiale.
- Il rischio di disallineamento dei valori. Potrebbe indurre l'IA a perseguire obiettivi in contrasto con i valori umani.
- Il rischio di convergenza strumentale. L'IA superintelligente potrebbe convergere su determinati mezzi per raggiungere i propri obiettivi. Potrebbe scegliere qualsiasi mezzo necessario, senza considerare se sia buono o cattivo per gli esseri umani.
StoryShot #5: Dobbiamo controllare l'IA superintelligente con tecniche efficaci
Come possiamo controllare un'IA superintelligente più intelligente e capace di noi? Bostrom parla della problema di controllo. Il problema è capire come garantire che l'IA resti sotto il nostro controllo e segua i nostri valori.
Strategie per controllare la superintelligenza
Dobbiamo creare soluzioni strategiche per evitare i rischi associati alla superintelligenza. Questi includono:
- Sviluppo di metodi di "boxe": Limitare le capacità dell'IA e l'accesso alle informazioni
- Sviluppare metodi di "allineamento dei valori": Garantire l'allineamento dei valori dell'IA con quelli umani
- Metodi di "controllo delle capacità": Monitoraggio e controllo delle capacità dell'IA
- "Stunting": Regolazione e limitazione dell'influenza su importanti processi interni.
- "Fili d'inciampo": Esecuzione di test diagnostici sul sistema e spegnimento del sistema in caso di rilevamento di attività pericolose.
Ad esempio, possiamo creare una configurazione in cui il creatore premia o penalizza l'IA. A tal fine, l'IA sarà monitorata e valutata. Se si comporta bene, riceverà una valutazione positiva che porterà a un risultato desiderato. La ricompensa potrebbe essere il raggiungimento di qualche obiettivo strumentale, ma potrebbe essere difficile calibrare il meccanismo di ricompensa.
Un'alternativa migliore sarebbe quella di combinare il metodo degli incentivi con la selezione delle motivazioni per dare all'IA un obiettivo finale più facile da controllare. Ad esempio, l'IA potrebbe essere progettata per avere come obiettivo finale che un particolare pulsante rosso all'interno di un bunker di comando non venga mai premuto. È possibile perfezionare questa impostazione creando un flusso di "gettoni di ricompensa crittografici" che l'IA ritiene desiderabili. Questi gettoni verrebbero conservati in un luogo sicuro e distribuiti a un ritmo costante per incentivare la cooperazione.
Tuttavia, un simile schema di incentivi comporta dei rischi, come quello che l'IA non si fidi dell'operatore umano nel consegnare le ricompense promesse.
StoryShot #6: Dobbiamo promuovere un ambiente AI sicuro e responsabile
È come una corsa al traguardo: mentre paesi e aziende competono per sviluppare IA superintelligenti, ci troviamo di fronte a un dilemma. Dobbiamo dare priorità all'innovazione e accelerare senza precauzioni di sicurezza, rischiando conseguenze catastrofiche? Oppure dovremmo fare un passo indietro e garantire uno sviluppo responsabile dell'IA che bilanci l'innovazione con la sicurezza?
Considerazioni sulla sicurezza e sulle politiche dell'IA
Poiché la prospettiva di un'IA superintelligente diventa sempre più reale, i politici e i ricercatori devono collaborare per sviluppare misure di sicurezza e regolamenti. È importante creare accordi internazionali per governare lo sviluppo dell'IA. Dobbiamo fare in modo che l'intelligenza artificiale rimanga vantaggiosa per tutta l'umanità.
Promuovendo la collaborazione tra sviluppatori di IA, governi e organizzazioni, possiamo creare un ambiente sicuro e responsabile per l'innovazione dell'IA.
L'importanza della trasparenza
La trasparenza è essenziale per garantire che l'IA sia sviluppata e utilizzata in modo responsabile ed etico. Utilizzando software open-source, condividendo i dati e sviluppando un'IA spiegabile, possiamo garantire la trasparenza dell'IA.
La mancanza di trasparenza nella ricerca e nello sviluppo dell'intelligenza artificiale può portare a potenziali rischi, come pregiudizi, discriminazioni e persino danni. È come un velo misterioso che nasconde ciò che accade realmente dietro le quinte e che potrebbe comportare dei rischi.
StoryShot #7: Dobbiamo prepararci per il mondo post-superintelligenza e la vita in un'economia algoritmica
Mentre ci avviciniamo a un mondo con IA superintelligente, è fondamentale prepararsi ai cambiamenti e alle sfide che ci attendono. Lo sviluppo dell'IA potrebbe portare alla perdita di posti di lavoro e alla disoccupazione. L'IA potrebbe cambiare la natura del lavoro e le competenze che saranno richieste in futuro. Come possiamo garantire che i benefici dell'IA siano distribuiti in modo equo?
Ma aspettate! Non è incredibile pensare ai benefici che l'IA superintelligente può portare al nostro mondo? Per assicurarci che funzioni a vantaggio di tutti, dobbiamo impegnarci in un dialogo e in una pianificazione ponderati.
La vita degli esseri umani potrebbe essere diversa da quella che abbiamo vissuto in passato. I nostri stati passati non ci limiteranno, come cacciatori-raccoglitori, agricoltori o impiegati. Gli esseri umani potrebbero diventare dei rentiers, che lottano per mantenersi con il loro reddito marginale. In questo scenario, le persone "sarebbero molto povere", e riuscirebbero a cavarsela con i loro risparmi e con qualche aiuto statale. Vivrebbero in un mondo pieno di tecnologie strabilianti. Non solo macchine superintelligenti li circonderanno, ma anche medicine anti-invecchiamento, realtà virtuale e droghe del piacere. Ma c'è un problema: Queste meraviglie potrebbero essere troppo costose per essere godute dalla maggior parte delle persone. In alternativa, le persone potrebbero optare per farmaci che bloccano la crescita e il metabolismo, consentendo loro di sbarcare il lunario.
Immaginate un futuro in cui la popolazione cresce e il reddito medio si riduce ulteriormente. Le persone potrebbero adattarsi al minimo indispensabile per avere diritto alla pensione, magari come cervelli appena coscienti in vasi, tenuti in vita da macchine. Risparmierebbero denaro e potrebbero permettersi di riprodursi facendo creare a un tecnico robot un clone di loro stessi. È un'idea interessante, non è vero?
Le macchine, d'altra parte, possono essere menti coscienti e soggette a uno status morale, il che rende importante considerare il loro benessere nella transizione verso una società post-transizione.
StoryShot #8: Sette tecniche per garantire i valori umani nello sviluppo dell'IA
I sistemi di intelligenza artificiale sono validi quanto i valori che vi sono programmati. Per assicurarci che siano in linea con i valori umani, dobbiamo incorporare l'etica e l'apprendimento dei valori nel loro sviluppo. Bostrom esplora le sfide dell'insegnamento alle IA dei nostri principi morali. Dobbiamo fare attenzione a non instillare incautamente valori dannosi o distorti. Come possiamo sviluppare un'IA etica che rispetti la dignità umana e promuova il bene comune?
L'ingegneria dei sistemi di obiettivi è una disciplina relativamente nuova e non si sa ancora come trasferire i valori umani a un computer digitale. Alcune di esse non avranno probabilmente successo, mentre altre potrebbero rivelarsi utili e richiedere ulteriori approfondimenti.
Esistono sette tipi di tecniche di caricamento del valore:
- Rappresentazione esplicita: Questo metodo può essere efficace per caricare i valori della domesticità. Ma è improbabile che riesca a incorporare valori più complessi.
- Selezione evolutiva: Potenti algoritmi di ricerca possono trovare un progetto che soddisfa i criteri di ricerca formali, ma non le nostre intenzioni. Questa soluzione è meno promettente.
- Apprendimento per rinforzo: Per risolvere i "problemi di apprendimento per rinforzo" si può ricorrere a una serie di metodi diversi. In genere, però, si tratta di creare un sistema che cerca di massimizzare un segnale di ricompensa.
- Accrescimento dei valori: I valori umani sono in gran parte acquisiti attraverso l'esperienza. Potrebbe essere difficile replicare le complesse modalità di acquisizione dei valori da parte degli esseri umani, il che porterebbe l'IA a sviluppare obiettivi non voluti.
- Impalcatura motivazionale: È troppo presto per stabilire quanto sia impegnativo motivare un sistema a creare rappresentazioni di alto livello leggibili dall'uomo. Anche se può sembrare promettente, dobbiamo essere cauti riguardo al problema del controllo, fino a quando non avremo raggiunto un'intelligenza artificiale di livello umano.
- Apprendimento del valore: Si tratta di un approccio potenzialmente vantaggioso. Una sfida consiste nel definire un punto di riferimento che rifletta le informazioni esterne sui valori umani.
- Modulazione dell'emulazione: Se l'intelligenza della macchina viene raggiunta attraverso l'emulazione, potrebbero essere possibili modifiche pratiche alle sue motivazioni, ad esempio attraverso l'equivalente digitale delle droghe. Non si sa se questo permetterà di caricare i valori con sufficiente precisione.
StoryShot #9: Cosa fare con l'intelligenza artificiale?
La situazione che stiamo affrontando con la complessità strategica legata all'IA è complicata. Siamo circondati dall'incertezza. Anche se abbiamo identificato alcuni fattori importanti, non siamo del tutto sicuri di come siano tutti collegati. Potrebbero esserci altri fattori a cui non abbiamo ancora pensato. Può essere opprimente.
Cosa possiamo fare quando ci troviamo in questa situazione? Il primo passo è riconoscere che è normale sentirsi insicuri e sopraffatti. Si tratta di un problema difficile ed è normale sentirsi un po' smarriti. Dobbiamo dare priorità ai problemi che non sono solo importanti, ma anche urgenti. Ciò significa concentrarsi sulle soluzioni necessarie prima che si verifichi l'esplosione dell'intelligenza. Ma dobbiamo anche fare attenzione a non lavorare su problemi che potrebbero essere dannosi se risolti. Ad esempio, risolvere i problemi tecnici legati all'IA potrebbe accelerarne il progresso senza renderla sicura per noi.
Un altro fattore è l'elasticità. Vogliamo concentrarci su problemi che siano elastici rispetto ai nostri sforzi, ovvero che possano essere risolti molto più velocemente o in misura maggiore con un piccolo sforzo in più. Ad esempio, incoraggiare una maggiore gentilezza nel mondo è un problema importante e urgente. È anche fortemente positivo, ma potrebbe non essere molto elastico.
Per minimizzare i potenziali danni della rivoluzione dell'intelligenza artificiale, il libro propone due obiettivi:
- Analisi strategica
- Sviluppo delle capacità
Questi obiettivi soddisfano tutti i nostri requisiti e hanno il vantaggio di essere elastici. Ci sono anche molte altre iniziative valide che possiamo perseguire.
L'idea di un'esplosione dell'intelligenza può essere terrificante. È come se fossimo bambini piccoli che giocano con una bomba troppo potente per essere gestita. Anche se si tratta di un problema grande e spaventoso, non possiamo perdere la speranza. Dobbiamo usare tutte le nostre risorse umane per trovare una soluzione.
Riassunto finale e revisione
La superintelligenza è lo sviluppo di un'intelligenza artificiale che supera le capacità cognitive umane. Ci sono tre strade per raggiungerla:
- Migliorare la cognizione umana
- Creare IA con intelligenza simile a quella umana
- Sviluppare un sistema di intelligenza collettiva.
L'IA superintelligente potrebbe avere qualsiasi insieme di valori. Per evitare danni, dobbiamo considerare obiettivi strumentali convergenti. Dobbiamo procedere con cautela nello sviluppo della superintelligenza.
Per mantenere i nostri valori, dobbiamo escogitare metodi per controllare le IA superintelligenti. Incorporare l'etica e l'apprendimento dei valori nei sistemi di IA è fondamentale. In questo modo possiamo garantire il loro allineamento con i valori umani.
Mentre ci avviciniamo a un mondo post-superintelligenza, dobbiamo prepararci ai cambiamenti e alle sfide che ci attendono. Lo sviluppo dell'IA potrebbe portare alla perdita di posti di lavoro e alla disoccupazione. Ma non possiamo permettere che questi sentimenti ci impediscano di fare qualcosa. Dobbiamo essere il più competenti possibile e lavorare insieme per trovare una soluzione. È importante mantenere la nostra umanità in tutto questo. Non possiamo perdere di vista ciò che è veramente importante: ridurre il rischio esistenziale e creare un futuro migliore per tutti.
Unitevi alla conversazione sul futuro dell'intelligenza artificiale e su come creare un ambiente sicuro e responsabile per l'innovazione. Condividete sui social media ciò che avete imparato dal riassunto del libro Superintelligence e non dimenticate di taggarci! Diamo insieme forma a un futuro migliore.
Valutazione
Valutiamo Superintelligenza 3.9/5. Come valuterebbe il libro di Nick Bostrom in base a questo riassunto?
Infografica
Ottenere la versione in alta qualità dell'infografica Superintelligence sull'applicazione StoryShots.
PDF, audiolibro gratuito e riassunto animato del libro
Questa era la punta dell'iceberg. Per entrare nei dettagli e sostenere Nick Bostrom, ordinalo qui o ottenere l'audiolibro gratuitamente.
Vi è piaciuto quello che avete imparato qui? Condividete per dimostrare che vi interessa e fatecelo sapere contattando il nostro supporto.
Nuovo su StoryShots? Ottenete le versioni in PDF, audiolibro e animazione di questo riassunto di Superintelligence e di centinaia di altri libri di saggistica bestseller nel nostro sito app gratuita di alto livello. È stata segnalata da Apple, The Guardian, The UN e Google come una delle migliori app di lettura e apprendimento al mondo.
Riassunti di libri correlati
- Superpoteri dell'IA da Kai-Fu Lee
- Nesso da Yuval Noah Harari
- Algoritmi per vivere di Brian Christian e Tom Griffiths
- Vita 3.0 da Max Tegmark
- Homo Deus da Yuval Noah Harari
- 21 lezioni per il 21° secolo Yuval Noah Harari
- Costruire un secondo cervello di Tiago Forte
- Perché le nazioni falliscono di Daron Acemoglu e James A. Robinson
- Come non sbagliare di Jodan Ellenberg
- Elon Musk da Ashlee Vance