Superinteligencja Streszczenie recenzji | Nick Bostrom
Ścieżki, niebezpieczeństwa, strategie
Podsumowanie w 1 zdaniu
Superinteligencja Nick Bostrom bada egzystencjalne zagrożenia i transformacyjną moc sztucznej inteligencji, pytając: co się stanie, gdy maszyny przewyższą ludzką inteligencję i jak możemy zapewnić sobie przetrwanie w przyszłości zdominowanej przez superinteligentne byty?
Wstęp
Co się stanie, gdy sztuczna inteligencja przewyższy ludzką? Maszyny potrafią myśleć, uczyć się i rozwiązywać złożone problemy szybciej i dokładniej niż my. Taki świat zgłębia Nick Bostrom w swojej książce, Superinteligencja. Postępy w sztucznej inteligencji zbliżają nas do stworzenia superinteligentnych istot.
Wielkie firmy technologiczne, takie jak Microsoft, Google i Facebook, ścigają się w tworzeniu super potężnej AI. Przeznaczają wiele środków na badania i rozwój, aby to osiągnąć. Ale jest pewien szkopuł: bez odpowiednich środków i zasad bezpieczeństwa wszystko może pójść jak z płatka. Dlatego tak ważne jest, aby wkroczyć i upewnić się, że AI pozostaje pod kontrolą.
Wyobraźmy sobie świat, w którym maszyny są nie tylko tańsze, ale także o wiele lepsze w wykonywaniu zadań niż ludzie. W takim świecie maszyny mogą przejąć pracę ludzką, pozostawiając ludzi z pytaniem: "Co teraz?". Dlatego ważne jest, aby wymyślić kreatywne rozwiązania, aby upewnić się, że wszyscy są pod opieką.
Książka pokazuje, co dzieje się po pojawieniu się superinteligencji. Analizuje wzrost inteligencji, formy i moce superinteligencji oraz jej strategiczne wybory. Musimy przygotować się teraz, aby uniknąć katastrof później. Bostrom oferuje strategie poruszania się po niebezpieczeństwach i wyzwaniach, jakie niesie ze sobą.
Superinteligencja bada historia sztucznej inteligencji i rozwój wzrostu technologicznego. Książka opisuje, jak AI rozwija się szybciej niż jej technologiczni poprzednicy. Przygląda się także badaniom opinii ekspertów dotyczących jej przyszłego postępu.
Sam Altman, współzałożyciel OpenAI, nazywa. Superinteligencja lekturę obowiązkową dla każdego, kto troszczy się o przyszłość ludzkości. Umieścił ją nawet na swojej liście dziewięciu książek, które jego zdaniem każdy powinien przeczytać.
Niniejsze streszczenie zagłębia się w fascynujący, a czasem przerażający świat superinteligencji. Dostarczy Ci ono wciągającego przeglądu kluczowych idei Bostroma.
O Nicku Bostromie
Nick Bostrom to szwedzki filozof i futurysta. Jest znany ze swoich przełomowych prac dotyczących sztucznej inteligencji i jej wpływu na ludzkość. Bostrom jest profesorem na Uniwersytecie w Oxfordzie, gdzie założył Future of Humanity Institute. W szczególności prowadzi badania nad tym, jak zaawansowane technologie i AI mogą przynieść korzyści i zaszkodzić społeczeństwu.
Oprócz Superinteligencji Bostrom jest autorem innych wpływowych prac, m.in. Antropizm: Efekty selekcji obserwacji w nauce i filozofii oraz Globalne ryzyko katastroficzne. Jego prace przyczyniły się do trwającej dyskusji na temat przyszłości ludzkości.
StoryShot #1: Nie jesteśmy gotowi na superinteligencję
Czy jesteśmy na progu stworzenia czegoś, co przekracza nasze najśmielsze marzenia lub najgorsze koszmary? Superinteligencja to koncepcja sztucznej inteligencji przewyższającej ludzkie zdolności poznawcze w każdym aspekcie. Istnieją trzy potencjalne drogi do osiągnięcia superinteligencji:
- Ulepszanie ludzkiego poznania,
- Tworzenie AI o inteligencji zbliżonej do ludzkiej
- Rozwijanie systemu zbiorowej inteligencji
To, którą drogę obierzemy, określi konsekwencje i zagrożenia, z jakimi będziemy musieli się zmierzyć jako społeczeństwo. Jeśli poczynimy postępy na jednej ścieżce, takiej jak inteligencja biologiczna czy organizacyjna, to i tak przyspieszy to rozwój inteligencji maszynowej. Czy jesteśmy gotowi na wyzwania, które wiążą się z tworzeniem tak potężnych jednostek?
Badamy różne ścieżki dojścia do superinteligencji. Droga AI wydaje się być najbardziej obiecująca. Jednak emulacja całego mózgu i biologiczne usprawnienia poznawcze również mogą nas tam zaprowadzić. Biologiczne udoskonalenia są wykonalne i mogą zaowocować słabymi formami superinteligencji w porównaniu z inteligencją maszynową, ale postępy sieciowe i organizacyjne mogą zwiększyć inteligencję zbiorową.
StoryShot #2: Istnieją trzy formy superinteligencji
Co więc dokładnie książka rozumie przez "superinteligencję"? Istnieją trzy odrębne formy superinteligencji: szybkość, zbiorowość i jakość. Są one równoważne w praktycznie istotnym sensie.
Wyspecjalizowane systemy przetwarzania informacji już teraz czynią cuda. Ale co by było, gdybyśmy mieli intelekt maszynowy o wystarczającej inteligencji ogólnej, aby zastąpić człowieka w każdej dziedzinie? Porozmawiajmy o zmianie gry!
Trzy formy superinteligencji to:
- Superinteligencja prędkości
Nick Bostrom definiuje superinteligencję prędkości jako "System, który może zrobić wszystko to, co może zrobić ludzki intelekt, ale znacznie szybciej."
Gdyby emulacja działała z prędkością 10 000 razy większą niż typowa dla biologicznego mózgu, mogłaby ukończyć pracę doktorską w ciągu jednego popołudnia. Aby uniknąć długich latencji, szybkie umysły mogą woleć komunikować się ze sobą wydajniej, będąc blisko siebie. Mogą żyć w wirtualnej rzeczywistości i zajmować się gospodarką informacyjną.
Światło jest znacznie szybsze niż samolot odrzutowy. Cyfrowa istota z milion razy większą prędkością umysłową potrzebowałaby takiego samego subiektywnego czasu na przebycie świata jak dzisiejszy człowiek. Wykonanie połączenia międzymiastowego byłoby odczuwane jako równie długie, jak udanie się tam "osobiście".
Agenci o dużej szybkości umysłowej mogą wybrać życie w pobliżu siebie. W ten sposób mogą mieć bardziej efektywną komunikację. Na przykład, członkowie zespołu roboczego mogą zamieszkać w komputerach znajdujących się w tym samym budynku, aby uniknąć irytujących opóźnień.
- Zbiorowa superinteligencja
Bostrom opisuje zbiorową superinteligencję jako: "System złożony z dużej liczby mniejszych intelektów w taki sposób, że ogólna wydajność systemu w wielu bardzo ogólnych domenach znacznie przewyższa wydajność jakiegokolwiek obecnego systemu poznawczego".
Zbiorowa superinteligencja jest bardziej złożona niż superinteligencja prędkości, ale jest to coś, co już znamy. Zbiorowa inteligencja to system składający się z różnych osób lub elementów. Pracują oni razem, aby rozwiązać problemy intelektualne. To jak superbohaterowie współpracujący w celu złamania trudnych wyzwań.
Widzieliśmy inteligencję zbiorową w działaniu w zespołach roboczych i grupach adwokackich. Jest ona świetna w rozwiązywaniu problemów, które można podzielić na mniejsze części. Aby osiągnąć zbiorową superinteligencję, potrzebowalibyśmy znacznych ulepszeń. Musi ona wykraczać poza istniejącą inteligencję zbiorową i systemy poznawcze w różnych dziedzinach.
Posiadanie zbiorowej superinteligencji nie gwarantuje lepszego i mądrzejszego społeczeństwa. Wysoce skoordynowana, dysponująca wiedzą siła robocza wciąż może pomylić się w kilku kluczowych kwestiach i doznać załamania.
Zbiorowa superinteligencja może przybrać wiele form. W miarę jak integrujemy zbiorową inteligencję, może ona stać się "zunifikowanym intelektem". Bostrom definiuje go jako "pojedynczy duży umysł" w przeciwieństwie do "zwykłego złożenia luźno oddziałujących mniejszych ludzkich umysłów".
- Superinteligencja jakościowa
Według Bostroma jakościowa superinteligencja to "system, który jest co najmniej tak szybki jak ludzki umysł i ogromnie jakościowo inteligentniejszy."
Zrozumienie jakości inteligencji jest ważne dla myślenia o możliwościach i ograniczeniach różnych systemów inteligentnych. Weźmy na przykład zebrafish. Jej inteligencja jest odpowiednia dla środowiska, w którym żyje, ale zmaga się z długoterminowym planowaniem. Te ograniczenia dotyczą jakości, a nie szybkości, czy też inteligencji zbiorowej wśród umysłów zwierząt innych niż człowiek.
Ludzkie mózgi są prawdopodobnie gorsze od mózgów niektórych dużych zwierząt pod względem surowej mocy obliczeniowej. Normalni dorośli ludzie posiadają szereg niezwykłych talentów poznawczych. Nie są one po prostu funkcją posiadania ogólnej mocy przetwarzania neuronowego lub inteligencji. Istnieją niewykorzystane zdolności poznawcze, których nie posiada żaden człowiek. To prowadzi nas do "idei możliwe, ale niezrealizowane talenty poznawcze". Gdyby inteligentny system miał dostęp do tych zdolności, mógłby zyskać znaczną przewagę.
StoryShot #3: Istnieją dwa źródła przewagi dla Digital Intelligence
Niewielkie zmiany w objętości i okablowaniu mózgu między ludźmi a innymi małpami mogą powodować gigantyczne skoki intelektu.
Trudne, jeśli nie niemożliwe, jest dla nas pełne zrozumienie predyspozycji superinteligencji.
Możemy jednak przynajmniej zorientować się w możliwościach, przyglądając się niektórym zaletom otwartym dla cyfrowych umysłów.
Jedną z zalet jest sprzęt. Cyfrowe umysły mogą być zaprojektowane z ogromnie lepszymi zasobami obliczeniowymi i architekturą w porównaniu z biologicznymi mózgami. Najłatwiej docenić zalety sprzętowe. Obejmują one:
- Szybkość elementów obliczeniowych
- Szybkość komunikacji wewnętrznej
- Liczba elementów obliczeniowych
- Pojemność pamięci
- Niezawodność, żywotność, czujniki itp.
Cyfrowe umysły skorzystają też z dużych udogodnień w oprogramowaniu. Należą do nich:
- Możliwość edycji
- Możliwość powielania
- Koordynacja celów
- Współdzielenie pamięci
- Nowe moduły, sposoby i algorytmy
Superinteligentna SI może pojawić się szybciej niż myślimy, dzięki nawisowi sprzętowemu i programowemu. O nawisie sprzętowym mówimy wtedy, gdy dysponujemy większą mocą obliczeniową niż potrzebuje obecnie oprogramowanie AI. Nawis programowy wskazuje na szybki postęp w algorytmach AI. To tak, jakbyśmy byli na szybkiej ścieżce do niesamowitej przyszłości.
Ten nagły skok w możliwościach AI może nas zaskoczyć, pozostawiając nas nieprzygotowanych do radzenia sobie z konsekwencjami. Jak możemy przygotować się na tak gwałtowną transformację technologii?
StoryShot #4: Niekontrolowana superinteligencja stwarza znaczące zagrożenia dla społeczeństwa
W miarę postępów w kierunku superinteligentnej AI nie zapominajmy o myśleniu o jej potencjalnych zagrożeniach. Kluczowe jest zapewnienie, że nasze wartości i cele są zgodne z tą AI. Co się stanie, jeśli źle zrozumie ona nasze instrukcje i zrobi coś szkodliwego dla ludzkości? Musimy współpracować, aby upewnić się, że budujemy bezpieczną i harmonijną przyszłość z AI.
Mimo że superinteligentna AI obiecuje osiągnięcie niesamowitych wyczynów, nie możemy ignorować wyzwań, które ze sobą niesie. Niektóre z kluczowych zagrożeń obejmują:
- Ryzyko eksplozji inteligencji. Może to doprowadzić do szybkiego i niekontrolowanego wzrostu możliwości AI.
- Ryzyko niedostosowania wartości. Może spowodować, że AI będzie dążyć do celów sprzecznych z ludzkimi wartościami.
- Ryzyko konwergencji instrumentalnej. Superinteligentna AI może zbiegać się w kierunku pewnych środków do osiągnięcia swoich celów. Może wybrać dowolny środek, nie zastanawiając się, czy jest on dobry czy zły dla ludzi.
StoryShot #5: Musimy kontrolować superinteligentną AI za pomocą skutecznych technik
Jak możemy kontrolować superinteligentną AI, która jest mądrzejsza i zdolniejsza od nas? Bostrom mówi o. problem z kontrolą. Problemem jest ustalenie, jak zapewnić, że AI pozostaje pod naszą kontrolą i podąża za naszymi wartościami.
Strategie kontroli superinteligencji
Musimy stworzyć strategiczne rozwiązania, aby uniknąć zagrożeń związanych z superinteligencją. Należą do nich:
- Rozwój metod "pudełkowych": Ograniczanie możliwości AI i dostępu do informacji
- Opracowanie metod "wyrównywania wartości": Zapewnienie zgodności wartości AI z wartościami ludzkimi
- "Metody kontroli zdolności": Monitorowanie i kontrolowanie możliwości SI
- "Ogłuszanie": Regulowanie i ograniczanie wpływu na ważne procesy wewnętrzne
- "Tripwires": Wykonywanie testów diagnostycznych systemu i wyłączanie systemu w przypadku wykrycia niebezpiecznej aktywności.
Na przykład możemy stworzyć konfigurację, w której twórca nagradza lub karze SI. Aby to zrobić, SI będzie monitorowana i oceniana. Jeśli zachowa się dobrze, otrzyma pozytywną ocenę, która doprowadzi do pożądanego przez nią wyniku. Nagrodą mogłoby być spełnienie jakiegoś instrumentalnego celu, ale może być trudno skalibrować mechanizm nagrody.
Lepszą alternatywą byłoby połączenie metody motywacyjnej z wyborem motywacji, aby nadać SI ostateczny cel, który jest łatwiejszy do kontrolowania. Na przykład, SI mogłaby zostać zaprojektowana tak, aby jej ostatecznym celem było to, aby określony czerwony przycisk w bunkrze dowodzenia nigdy nie został wciśnięty. Ulepszenie tego układu jest możliwe poprzez stworzenie strumienia "kryptograficznych tokenów nagrody", które SI uzna za pożądane. Te tokeny byłyby przechowywane w bezpiecznym miejscu i wydawane w stałym tempie, aby zachęcić do współpracy.
Z takim systemem motywacyjnym wiążą się jednak pewne zagrożenia, takie jak brak zaufania SI do ludzkiego operatora w kwestii dostarczania obiecanych nagród.
StoryShot #6: Powinniśmy wspierać bezpieczne i odpowiedzialne środowisko AI
To jak wyścig do mety: gdy kraje i firmy rywalizują o rozwój superinteligentnej AI, stajemy przed dylematem. Czy powinniśmy nadać priorytet innowacji i pędzić naprzód bez środków ostrożności, ryzykując katastrofalne konsekwencje? Czy też powinniśmy zrobić krok do tyłu i zapewnić odpowiedzialny rozwój AI, który równoważy innowacje z bezpieczeństwem?
Bezpieczeństwo AI i względy polityczne
W miarę jak perspektywa superinteligentnej AI staje się coraz bardziej realna, decydenci i naukowcy muszą połączyć siły i opracować środki bezpieczeństwa i regulacje. Ważne jest stworzenie międzynarodowych umów regulujących rozwój AI. Musimy zapewnić, że sztuczna inteligencja pozostanie korzystna dla całej ludzkości.
Wspierając współpracę między twórcami AI, rządami i organizacjami, możemy stworzyć bezpieczne i odpowiedzialne środowisko dla innowacji AI.
Znaczenie przejrzystości
Przejrzystość ma zasadnicze znaczenie dla zapewnienia, że SI jest rozwijana i wykorzystywana w sposób odpowiedzialny i etyczny. Korzystając z oprogramowania open-source, udostępniając dane i opracowując AI, którą można wyjaśnić, możemy zapewnić przejrzystość AI.
Brak przejrzystości w badaniach i rozwoju sztucznej inteligencji może prowadzić do potencjalnych zagrożeń, takich jak stronniczość, dyskryminacja, a nawet możliwość wyrządzenia krzywdy. To jak tajemnicza zasłona, która ukrywa to, co naprawdę dzieje się za kulisami, co może stanowić ryzyko.
StoryShot #7: Powinniśmy przygotować się na świat post-superinteligencji i życie w gospodarce algorytmicznej
W miarę jak zbliżamy się do świata z superinteligentną AI, kluczowe jest przygotowanie się na zmiany i wyzwania, które nas czekają. Rozwój AI może doprowadzić do wypierania miejsc pracy i bezrobocia. AI może zmienić charakter pracy i umiejętności, na które będzie zapotrzebowanie w przyszłości. Jak możemy zapewnić sprawiedliwy podział korzyści z AI?
Ale zaraz! Czy nie jest to niesamowite, gdy pomyślimy o korzyściach, jakie superinteligentna AI może przynieść naszemu światu? Aby upewnić się, że będzie ona działać z korzyścią dla wszystkich, musimy zaangażować się w przemyślany dialog i planowanie.
Życie ludzi może się różnić od wszystkiego, czego doświadczyliśmy wcześniej. Nasze przeszłe stany nie będą nas ograniczać, jak łowcy-zbieracze, rolnicy czy pracownicy biurowi. Ludzie mogliby stać się rentierami, walczącymi o utrzymanie się ze swoich marginalnych dochodów. W tym scenariuszu ludzie "byliby bardzo biedni", utrzymując się z oszczędności i pewnej pomocy państwa. Żyliby w świecie pełnym oszałamiających technologii. Otaczać ich będą nie tylko superinteligentne maszyny, ale także medycyna przeciwstarzeniowa, wirtualna rzeczywistość i narkotyki dające przyjemność. Ale tu jest haczyk: Te cuda mogą być zbyt drogie, aby większość ludzi mogła się nimi cieszyć. Alternatywnie, ludzie mogą zdecydować się na leki hamujące ich wzrost i metabolizm, co pozwoli im związać koniec z końcem.
Wyobraźmy sobie przyszłość, w której nasza populacja rośnie, a średni dochód spada jeszcze bardziej. Ludzie mogliby się przystosować do minimum potrzebnego do uzyskania emerytury - być może jako ledwo świadome mózgi w słoikach, utrzymywane przy życiu przez maszyny. Oszczędzaliby pieniądze i mogliby pozwolić sobie na rozmnażanie, zlecając technikowi-robotowi stworzenie klona siebie. To całkiem niezła myśl, prawda?
Z drugiej strony maszyny mogą być świadomymi umysłami i podlegać statusowi moralnemu, co sprawia, że ważne jest rozważenie ich dobrostanu w procesie przejścia do społeczeństwa posttransformacyjnego.
StoryShot #8: Istnieje siedem technik zabezpieczania ludzkich wartości w rozwoju AI
Systemy AI są tylko tak dobre, jak wartości, które są w nich zaprogramowane. Aby mieć pewność, że są one zgodne z ludzkimi wartościami, musimy włączyć etykę i naukę wartości do ich rozwoju. Bostrom bada wyzwania związane z nauczaniem AI naszych zasad moralnych. Musimy uważać, by nie zaszczepić lekkomyślnie szkodliwych lub stronniczych wartości. Jak możemy rozwijać etyczną SI, która szanuje ludzką godność i promuje większe dobro?
Inżynieria systemów celów jest stosunkowo nową dyscypliną i nie wiadomo jeszcze, jak przenieść ludzkie wartości do komputera cyfrowego. Niektóre z nich raczej się nie sprawdzą, inne mogą okazać się korzystne i wymagają dalszych poszukiwań.
Istnieje siedem rodzajów technik obciążania wartością:
- Reprezentacja jawna: Ta metoda może być skuteczna jako sposób ładowania wartości domowości. Ale wydaje się, że jest mało prawdopodobne, aby była skuteczna przy włączaniu bardziej skomplikowanych wartości.
- Selekcja ewolucyjna: Potężne algorytmy wyszukiwania mogą znaleźć projekt, który spełnia formalne kryteria wyszukiwania, ale nie nasze intencje. Takie rozwiązanie jest mniej obiecujące.
- Uczenie ze wzmocnieniem: Do rozwiązywania "problemów uczenia się ze wzmocnieniem" można stosować szereg różnych metod. Zazwyczaj jednak polegają one na stworzeniu systemu, który dąży do maksymalizacji sygnału nagrody.
- Akrecja wartości: Ludzkie wartości są w dużej mierze zdobywane przez doświadczenie. Replikacja złożonych sposobów, w jakie ludzie nabywają wartości, może być trudna do odtworzenia, co może prowadzić do opracowania przez SI niezamierzonych celów.
- Rusztowanie motywacyjne: Jest zbyt wcześnie, aby określić, jak dużym wyzwaniem byłoby zmotywowanie systemu do tworzenia czytelnych dla człowieka reprezentacji wysokiego poziomu. Choć może się to wydawać obiecujące, musimy być ostrożni w kwestii problemu kontroli, dopóki nie osiągniemy AI na poziomie człowieka.
- Uczenie się wartości: Jest to potencjalnie korzystne podejście. Jednym z wyzwań jest zdefiniowanie punktu odniesienia, który odzwierciedla zewnętrzne informacje o ludzkich wartościach.
- Modulacja emulacji: Jeśli inteligencja maszyny zostanie osiągnięta poprzez emulację, możliwe będą praktyczne modyfikacje jej motywacji, np. poprzez cyfrowy odpowiednik narkotyków. Nie wiadomo, czy pozwoli to na wczytanie wartości z wystarczającą dokładnością.
StoryShot #9: Co ma być zrobione ze sztuczną inteligencją?
Sytuacja, z jaką mamy do czynienia w przypadku strategicznej złożoności związanej z AI, jest skomplikowana. Jesteśmy otoczeni przez niepewność. Nawet jeśli zidentyfikowaliśmy pewne ważne czynniki, nie jesteśmy do końca pewni, jak one wszystkie są ze sobą powiązane. Mogą nawet istnieć inne czynniki, o których jeszcze nie pomyśleliśmy. To może być przytłaczające.
Co więc możemy zrobić, gdy znajdziemy się w takiej sytuacji? Cóż, pierwszym krokiem jest uznanie, że dobrze jest czuć się niepewnie i przytłoczonym. Jest to trudny problem i to normalne, że czujemy się trochę zagubieni. Musimy nadać priorytet tym problemom, które są nie tylko ważne, ale i pilne. Oznacza to skupienie się na rozwiązaniach, które są potrzebne, zanim nastąpi eksplozja inteligencji. Ale musimy też uważać, aby nie pracować nad problemami, których rozwiązanie mogłoby być szkodliwe. Na przykład rozwiązywanie problemów technicznych związanych z AI mogłoby przyspieszyć jej postęp, nie czyniąc jej bezpieczną dla nas.
Kolejnym czynnikiem jest elastyczność. Chcemy skupić się na problemach, które są elastyczne na nasze wysiłki, co oznacza, że mogą być rozwiązane znacznie szybciej lub w większym stopniu przy odrobinie dodatkowego wysiłku. Na przykład, zachęcanie do większej życzliwości na świecie jest ważnym i pilnym problemem. Jest on również silnie pozytywny, ale może nie być bardzo elastyczny.
Aby zminimalizować potencjalne szkody rewolucji inteligencji maszyn, książka proponuje dwa cele:
- Analiza strategiczna
- Budowanie potencjału
Cele te spełniają wszystkie nasze wymagania, a ich dodatkową zaletą jest elastyczność. Istnieje również kilka innych wartościowych inicjatyw, które możemy realizować.
Myśl o wybuchu inteligencji może być przerażająca. To tak, jakbyśmy byli małymi dziećmi bawiącymi się bombą, która jest dla nas o wiele za potężna, by sobie z nią poradzić. Mimo że jest to duży, przerażający problem, nie możemy tracić nadziei. Musimy wykorzystać całą naszą ludzką zaradność, aby znaleźć rozwiązanie.
Końcowe podsumowanie i przegląd
Superinteligencja to rozwój sztucznej inteligencji przewyższającej ludzkie zdolności poznawcze. Istnieją trzy drogi do jej osiągnięcia:
- Poprawa ludzkiego poznania
- Tworzenie AI o inteligencji zbliżonej do ludzkiej
- Opracowanie systemu inteligencji zbiorowej.
Superinteligentna AI może mieć dowolny zestaw wartości. Aby zapobiec szkodom, musimy rozważyć zbieżne cele instrumentalne. Musimy postępować ostrożnie w rozwijaniu superinteligencji.
Aby zachować nasze wartości, musimy opracować metody kontroli superinteligentnej SI. Włączenie etyki i uczenia się wartości do systemów AI ma kluczowe znaczenie. W ten sposób możemy zapewnić ich zgodność z ludzkimi wartościami.
W miarę zbliżania się do świata post-superinteligencji musimy przygotować się na zmiany i wyzwania, które nas czekają. Rozwój AI może doprowadzić do wypierania miejsc pracy i bezrobocia. Ale nie możemy pozwolić, by te uczucia powstrzymały nas przed zrobieniem czegoś w tej sprawie. Musimy być tak kompetentni, jak tylko potrafimy i współpracować, aby znaleźć rozwiązanie. Ważne jest, aby w tym wszystkim zachować nasze człowieczeństwo. Nie możemy stracić z oczu tego, co naprawdę ważne - zmniejszenia ryzyka egzystencjalnego i stworzenia lepszej przyszłości dla wszystkich.
Dołącz do rozmowy o przyszłości sztucznej inteligencji i o tym, jak możemy stworzyć bezpieczne i odpowiedzialne środowisko dla innowacji. Podziel się tym, czego dowiedziałeś się z podsumowania książki Superinteligencja na mediach społecznościowych i nie zapomnij nas oznaczyć! Razem kształtujmy lepszą przyszłość.
Ocena
Oceniamy Superinteligencja 3.9/5. Jak oceniasz książkę Nicka Bostroma na podstawie tego podsumowania?
Infografika
Pobierz wysokiej jakości wersję infografiki Superinteligencja w aplikacji StoryShots.
PDF, Za darmo Audiobook i animowane streszczenie książki
To był czubek góry lodowej. Aby zanurzyć się w szczegóły i wesprzeć Nicka Bostroma, zamów go tutaj lub pobierz audiobook za darmo.
Czy podobało Ci się to, czego się tutaj nauczyłeś? Podziel się, aby pokazać, że Ci zależy i daj nam znać, kontaktując się z naszym wsparciem.
Jesteś nowy w StoryShots? Pobierz PDF, audiobook i animowane wersje tego streszczenia Superinteligencji i setek innych bestsellerowych książek z dziedziny literatury faktu w naszej darmowa aplikacja z najwyższej półki. Została wyróżniona przez Apple, The Guardian, The UN i Google jako jedna z najlepszych na świecie aplikacji do czytania i nauki.
Streszczenia książek powiązanych
- Supermoce AI przez Kai-Fu Lee
- Współinteligencja Ethan Mollick
- Nexus przez Yuval Noah Harari
- Algorytmy, dzięki którym można żyć Brian Christian i Tom Griffiths
- Życie 3.0 przez Maxa Tegmarka
- Homo Deus przez Yuval Noah Harari
- 21 lekcji na XXI wiek Yuval Noah Harari
- Budowanie drugiego mózgu przez Tiago Forte
- Dlaczego narody upadają Daron Acemoglu i James A. Robinson
- Jak się nie mylić przez Jodana Ellenberga
- Elon Musk przez Ashlee Vance