Revisão resumida da Superinteligência | Nick Bostrom
Caminhos, Perigos, Estratégias
Resumo de 1 frase
Superinteligência de Nick Bostrom, explora os riscos existenciais e o poder transformador da inteligência artificial, perguntando: o que acontecerá quando as máquinas ultrapassarem a inteligência humana e como poderemos garantir nossa sobrevivência em um futuro dominado por entidades superinteligentes?
Introdução
O que acontece quando a inteligência artificial supera a inteligência humana? As máquinas podem pensar, aprender e resolver problemas complexos mais rapidamente e com mais precisão do que nós podemos. Este é o mundo que Nick Bostrom explora em seu livro, Superinteligência. Os avanços na inteligência artificial estão nos aproximando da criação de seres superinteligentes.
Grandes empresas de tecnologia como Microsoft, Google e Facebook estão todas correndo para criar uma inteligência artificial super poderosa. Elas estão despejando muitos recursos em pesquisa e desenvolvimento para fazer isso acontecer. Mas aqui está o senão: sem as medidas de segurança e regras corretas, as coisas podem ficar malucas. É por isso que é importante intervir e garantir que a IA permaneça sob controle.
Imagine um mundo onde as máquinas não são apenas mais baratas, mas também muito melhores para fazer trabalhos do que os humanos. Nesse mundo, as máquinas poderiam tomar conta do trabalho humano, deixando as pessoas se perguntando: "E agora?". Por isso, é importante encontrar soluções criativas para garantir que todos sejam atendidos.
O livro mostra o que acontece após o surgimento da superinteligência. Ele examina o crescimento da inteligência, as formas e poderes da superinteligência, e suas escolhas estratégicas. Temos que nos preparar agora para evitar desastres mais tarde. A Bostrom oferece estratégias para navegar pelos perigos e desafios que apresenta.
Superinteligência examina o história da inteligência artificial e o desenvolvimento do crescimento tecnológico. O livro descreve como a IA está crescendo mais rapidamente do que seus predecessores tecnológicos. Ele também analisa pesquisas de opiniões de especialistas com relação a seu progresso futuro.
Sam Altman, o co-fundador da OpenAI, chama Superinteligência uma leitura obrigatória para qualquer pessoa que se preocupe com o futuro da humanidade. Ele até o incluiu em sua lista dos nove livros que ele acha que todos deveriam ler.
Este resumo mergulhará no fascinante e às vezes assustador mundo da superinteligência. Ele fornece uma visão geral envolvente das principais idéias da Bostrom.
Sobre Nick Bostrom
Nick Bostrom é um filósofo e futurista sueco. Ele é conhecido por seu trabalho pioneiro em inteligência artificial e seu impacto sobre a humanidade. Bostrom é professor na Universidade de Oxford, onde fundou o Instituto do Futuro da Humanidade. Em particular, ele conduz pesquisas sobre como tecnologias avançadas e IA podem beneficiar e prejudicar a sociedade.
Além da Superinteligência, Bostrom é autor de outros trabalhos influentes, incluindo Viés Antrópico: Efeitos da Seleção de Observação na Ciência e na Filosofia e Riscos Catastróficos Globais. Seu trabalho tem contribuído para a discussão em curso sobre o futuro da humanidade.
StoryShot #1: Não Estamos Prontos para a Super-Inteligência
Estamos no limite de criar algo além de nossos sonhos mais loucos ou nossos piores pesadelos? A superinteligência é o conceito de inteligência artificial que supera as capacidades cognitivas humanas em todos os aspectos. Há três caminhos potenciais para alcançar a superinteligência:
- Melhorando a cognição humana,
- Criando IA com inteligência semelhante à humana
- Desenvolvimento de um sistema de inteligência coletiva
Que caminho tomar determinará as implicações e os riscos que enfrentamos como sociedade. Se progredirmos em um caminho, como a inteligência biológica ou organizacional, isso ainda acelerará o desenvolvimento da inteligência de máquina. Estamos prontos para os desafios que vêm com a criação de entidades tão poderosas?
Estamos explorando diferentes caminhos para alcançar a superinteligência. A rota da IA parece ser a mais promissora. Embora a emulação de todo o cérebro e as melhorias cognitivas biológicas também possam nos levar até lá. Melhorias biológicas são viáveis e podem resultar em formas fracas de superinteligência em comparação com a inteligência de máquina, mas avanços organizacionais e de rede podem impulsionar a inteligência coletiva.
StoryShot #2: Há três formas de superinteligência
Então o que exatamente o livro quer dizer com "superinteligência"? Existem três formas distintas de superinteligência: velocidade, coletivo e qualidade. Elas são equivalentes em um sentido praticamente relevante.
Os sistemas especializados de processamento de informações já estão fazendo maravilhas. Mas e se tivéssemos intelectos de máquinas com inteligência geral suficiente para substituir os humanos em todos os campos? Fale sobre um trocador de jogo!
As três formas de superinteligência são:
- Superinteligência de velocidade
Nick Bostrom define superinteligência de velocidade como "Um sistema que pode fazer tudo o que um intelecto humano pode fazer, mas muito mais rápido".
Se uma emulação operasse a uma velocidade 10.000 vezes maior do que a típica de um cérebro biológico, ela poderia completar uma tese de doutorado em uma tarde. Para evitar longas latências, mentes rápidas poderiam preferir se comunicar mais eficientemente umas com as outras, estando próximas umas das outras. Elas podem viver na realidade virtual e lidar com a economia da informação.
A luz é muito mais rápida do que um avião a jato. Um ser digital com uma velocidade mental mil vezes maior levaria o mesmo tempo subjetivo para viajar pelo mundo que um humano de hoje. Fazer uma chamada de longa distância seria tão longo quanto ir para lá "pessoalmente".
Os agentes com alta velocidade mental podem optar por morar perto uns dos outros. Assim, eles podem ter uma comunicação mais eficiente. Por exemplo, membros de uma equipe de trabalho poderiam residir em computadores localizados no mesmo prédio para evitar atrasos incômodos.
- Superinteligência coletiva
Bostrom descreve a superinteligência coletiva como: "Um sistema composto de um grande número de intelectos menores, de modo que o desempenho geral do sistema em muitos domínios muito gerais supera amplamente o de qualquer sistema cognitivo atual".
A superinteligência coletiva é mais complexa do que a superinteligência de velocidade, mas é algo que já estamos familiarizados com ela. A inteligência coletiva é um sistema composto de diferentes pessoas ou componentes. Eles estão trabalhando juntos para resolver problemas intelectuais. É como os super-heróis colaborando para quebrar desafios difíceis.
Temos visto a inteligência coletiva em ação através de equipes de trabalho e grupos de defesa. É ótimo para enfrentar problemas que podem ser decompostos em pedaços menores. Para alcançar a superinteligência coletiva, precisaríamos de melhorias significativas. Ela tem que ir além da inteligência coletiva e dos sistemas cognitivos existentes em várias áreas.
Ter superinteligência coletiva não garante uma sociedade melhor e mais sábia. Uma força de trabalho altamente coordenada e conhecedora ainda pode errar algumas questões-chave e sofrer um colapso.
A superinteligência coletiva pode tomar muitas formas. À medida que integramos a inteligência coletiva, ela pode se tornar um "intelecto unificado". Bostrom o define como "uma única mente grande" em oposição a "um mero conjunto de mentes humanas menores que interagem livremente".
- Superinteligência de Qualidade
De acordo com Bostrom, a superinteligência de qualidade é "um sistema que é pelo menos tão rápido quanto uma mente humana e muito mais inteligente do ponto de vista qualitativo".
Compreender a qualidade da inteligência é importante para pensar sobre as possibilidades e limitações de diferentes sistemas inteligentes. Tomemos o zebrafish como exemplo. Sua inteligência é adequada para seu ambiente, mas luta com um planejamento a longo prazo. Estas limitações estão na qualidade, não na velocidade, ou na inteligência coletiva entre mentes animais não humanas.
Os cérebros humanos são provavelmente inferiores aos de alguns grandes animais em termos de poder computacional bruto. Os adultos humanos normais têm uma gama de notáveis talentos cognitivos. Eles não são simplesmente uma função de possuir poder geral de processamento neural ou inteligência. Existem habilidades cognitivas inexploradas que nenhum ser humano possui. Isso nos leva à "idéia de possíveis mas não realizados talentos cognitivos".. Se um sistema inteligente tivesse acesso a essas habilidades, poderia obter uma vantagem significativa.
StoryShot #3: Há duas fontes de vantagem para a inteligência digital
Pequenas mudanças no volume cerebral e na fiação entre humanos e outros símios podem causar saltos gigantescos no intelecto.
É difícil, se não impossível, para nós compreender plenamente as aptidões da superinteligência.
No entanto, podemos ao menos ter uma idéia das possibilidades, observando algumas vantagens abertas às mentes digitais.
Uma vantagem é o hardware. As mentes digitais podem ser projetadas com recursos computacionais e arquitetura vastamente superiores em comparação com cérebros biológicos. As vantagens do hardware são mais fáceis de serem apreciadas. Estas incluem:
- Velocidade dos elementos computacionais
- Velocidade de comunicação interna
- Número de elementos computacionais
- Capacidade de armazenamento
- Confiabilidade, tempo de vida útil, sensores, etc.
As mentes digitais também se beneficiarão de grandes vantagens em software. Estas incluem:
- Editabilidade
- Duplicabilidade
- Coordenação de objetivos
- Compartilhamento de memória
- Novos módulos, modalidades e algoritmos
A IA superinteligente pode chegar mais cedo do que pensamos, graças ao balanço de hardware e software. O balanço de hardware é quando temos mais poder de computação do que o software de IA precisa neste momento. A saliência do software indica um rápido progresso nos algoritmos de IA. É como estar em uma trilha rápida para um futuro de arrebatamento da mente.
Este salto repentino nas capacidades de IA pode nos pegar desprevenidos, deixando-nos despreparados para lidar com as conseqüências. Como podemos nos preparar para uma transformação tão rápida na tecnologia?
StoryShot #4: Superinteligência descontrolada representa riscos significativos para a sociedade
À medida que progredimos em direção à IA superinteligente, não nos esqueçamos de pensar em seus riscos potenciais. É vital garantir que nossos valores e objetivos se alinhem com esta IA. O que acontece se ela interpretar mal nossas instruções e fizer algo prejudicial à humanidade? Devemos trabalhar juntos para garantir a construção de um futuro seguro e harmonioso com a IA.
Mesmo que a IA superinteligente prometa alcançar façanhas surpreendentes, não podemos ignorar os desafios que ela traz consigo. Alguns dos principais riscos incluem:
- O risco de uma explosão de inteligência. Isto poderia levar a um rápido e incontrolável aumento da capacidade de inteligência artificial.
- O risco de desalinhamento de valores. Pode levar a IA a perseguir objetivos que estão em desacordo com os valores humanos.
- O risco de convergência instrumental. A IA superinteligente pode convergir em certos meios para atingir seus objetivos. Ela pode escolher qualquer meio necessário, sem considerar se é bom ou ruim para os humanos.
StoryShot #5: Precisamos controlar a IA superinteligente através de técnicas eficazes
Como podemos controlar uma IA superinteligente que é mais inteligente e mais capaz do que nós? Bostrom fala sobre a problema de controle. O problema é descobrir como garantir que a IA permaneça sob nosso controle e siga nossos valores.
Estratégias para controlar a superinteligência
Devemos criar soluções estratégicas para evitar os riscos associados à superinteligência. Estes incluem:
- Desenvolvimento de métodos de "boxe": Restrição das capacidades da IA e do acesso à informação
- Desenvolver métodos de "alinhamento de valores": Assegurando que os valores de IA se alinhem com os valores humanos
- Métodos de "controle de capacidade": Monitoramento e controle das capacidades da IA
- "Atordoamento": Regulando e restringindo a influência em processos internos importantes
- "Tripwires": Realização de testes de diagnóstico no sistema e desligamento do sistema caso seja detectada atividade perigosa.
Por exemplo, podemos criar uma configuração onde o criador recompensa ou penaliza a IA. Para fazer isso, a IA será monitorada e avaliada. Se ela se comportar bem, ela receberá uma avaliação positiva que levará a um resultado que ela deseja. A recompensa poderia ser o cumprimento de algum objetivo instrumental, mas poderia ser difícil calibrar o mecanismo de recompensa.
Uma alternativa melhor seria combinar o método de incentivo com a seleção por motivação para dar à IA uma meta final mais fácil de controlar. Por exemplo, a IA poderia ser projetada para ter como objetivo final que um determinado botão vermelho dentro de um bunker de comando nunca seja pressionado. Refinamentos a esta configuração são possíveis através da criação de um fluxo de "fichas criptográficas de recompensa" que a IA considera desejável. Estes tokens seriam armazenados em um local seguro e distribuídos a um ritmo constante para incentivar a cooperação.
Entretanto, há riscos envolvidos em tal esquema de incentivo, como o fato de a IA não confiar no operador humano para entregar as recompensas prometidas.
StoryShot #6: Devemos promover um ambiente seguro e responsável de IA
É como uma corrida até a linha de chegada: como países e empresas competem para desenvolver IA superinteligente, estamos diante de um dilema. Devemos priorizar a inovação e a velocidade à frente sem precauções de segurança e arriscar conseqüências catastróficas? Ou devemos dar um passo atrás e garantir um desenvolvimento responsável de IA que equilibre inovação e segurança?
Considerações sobre segurança e política de inteligência artificial
medida que a perspectiva de uma IA superinteligente se torna mais real, os formuladores de políticas e pesquisadores devem se unir e desenvolver medidas e regulamentos de segurança. É importante criar acordos internacionais para governar o desenvolvimento da IA. Temos que garantir que a inteligência artificial permaneça benéfica para toda a humanidade.
Ao promover a colaboração entre os desenvolvedores de IA, governos e organizações, podemos criar um ambiente seguro e responsável para a inovação em IA.
A importância da transparência
A transparência é essencial para garantir que a IA seja desenvolvida e utilizada de forma responsável e ética. Ao usar software de código aberto, o compartilhamento de dados e o desenvolvimento de IA explicável, podemos assegurar que a IA seja transparente.
A falta de transparência na pesquisa e desenvolvimento de inteligência artificial pode levar a riscos potenciais, como viés, discriminação e até mesmo o potencial de danos. É como um véu misterioso que esconde o que realmente está acontecendo nos bastidores, o que pode representar riscos.
StoryShot #7: Devemos nos preparar para o mundo da pós-espionagem e a vida em uma economia algorítmica
medida que nos aproximamos de um mundo com inteligência artificial superinteligente, é crucial nos prepararmos para as mudanças e desafios que estão por vir. O desenvolvimento da IA pode levar ao deslocamento de empregos e ao desemprego. A IA poderia mudar a natureza do trabalho e as habilidades que serão exigidas no futuro. Como podemos garantir que os benefícios da gripe aviária sejam distribuídos de forma justa?
Mas espere! Não é incrível pensar nos benefícios que a inteligência artificial superinteligente pode trazer ao nosso mundo? Para garantir que funcione em benefício de todos, precisamos nos engajar em um diálogo e planejamento cuidadoso.
A vida dos seres humanos pode ser diferente de qualquer coisa que já tenhamos experimentado antes. Nossos estados passados não nos limitarão, como caçadores-colectores, agricultores ou trabalhadores de escritório. Os humanos poderiam se tornar rentistas, lutando para se sustentar em sua renda marginal. Neste cenário, as pessoas "seriam muito pobres", conseguindo sobreviver com suas economias e algum apoio estatal. Eles viveriam em um mundo cheio de tecnologias que estonteam a mente. Não apenas máquinas superinteligentes as cercarão, mas também medicina antienvelhecimento, realidade virtual e drogas de prazer. Mas aqui está o senão: Estas maravilhas podem ser muito caras para que a maioria das pessoas as desfrute. Alternativamente, as pessoas poderiam optar por drogas para dificultar seu crescimento e metabolismo, permitindo-lhes fazer face às despesas.
Imagine um futuro onde nossa população cresça e a renda média caia ainda mais. As pessoas poderiam se adaptar ao mínimo necessário para se qualificar para uma pensão - talvez como cérebros mal conscientes em frascos, mantidos vivos por máquinas. Elas economizariam dinheiro e se dariam ao luxo de se reproduzir, tendo um técnico robô para criar um clone de si mesmas. É um pensamento e tanto, não é mesmo?
As máquinas, por outro lado, podem ser mentes conscientes e sujeitas ao status moral, o que torna importante considerar seu bem-estar na transição para uma sociedade pós-transição.
StoryShot #8: Existem sete técnicas para assegurar os valores humanos no desenvolvimento da IA
Os sistemas de IA são tão bons quanto os valores que são programados neles. Para garantir o alinhamento com os valores humanos, precisamos incorporar a ética e a aprendizagem de valores em seu desenvolvimento. A Bostrom explora os desafios de ensinar nossos princípios morais à IA. Devemos ter cuidado para não instilar de forma imprudente valores prejudiciais ou tendenciosos. Como podemos desenvolver uma IA ética que respeite a dignidade humana e promova o bem maior?
A engenharia de sistemas Goal é uma disciplina relativamente nova e ainda não se sabe como transferir valores humanos para um computador digital. Alguns deles dificilmente serão bem sucedidos, enquanto outros podem ser benéficos e exigir mais exploração.
Existem sete tipos de técnicas de carga de valor:
- Representação explícita: Este método pode ser eficaz como uma forma de carregar valores de domesticidade. Mas parece pouco provável que tenha sucesso na incorporação de valores mais intrincados.
- Seleção evolutiva: Poderosos algoritmos de busca podem encontrar um projeto que satisfaz os critérios formais de busca, mas não nossas intenções. Isto é menos promissor.
- Reforço da aprendizagem: Uma gama de métodos diferentes pode ser usada para resolver "problemas de reforço da aprendizagem". No entanto, eles normalmente envolvem a criação de um sistema que procura maximizar um sinal de recompensa.
- Acreção de valor: Os valores humanos são adquiridos em grande parte através da experiência. Pode ser difícil replicar as formas complexas pelas quais os seres humanos adquirem valores, levando a IA a desenvolver objetivos não intencionais.
- Andaimes motivacionais: É muito cedo para determinar quão desafiador seria motivar um sistema para criar representações de alto nível e legíveis para o ser humano. Embora possa parecer promissor, precisamos ser cautelosos sobre o problema de controle, até atingirmos o nível humano de IA.
- Valorize o aprendizado: Esta é uma abordagem potencialmente benéfica. Um desafio é definir um ponto de referência que reflita informações externas sobre os valores humanos.
- Modulação de emulação: Se a inteligência da máquina for obtida através da emulação, modificações práticas em suas motivações podem ser possíveis, como por exemplo, através do equivalente digital de drogas. Não se sabe se isto permitirá que os valores sejam carregados com precisão suficiente.
StoryShot #9: O que deve ser feito com Inteligência Artificial?
A situação que estamos enfrentando com a complexidade estratégica relacionada à IA é complicada. Estamos rodeados de incertezas. Apesar de termos identificado alguns fatores importantes, não temos certeza absoluta de como todos eles estão conectados. Pode até haver outros fatores que ainda nem sequer pensamos. Pode ser avassalador.
Então, o que podemos fazer quando nos encontramos nesta situação difícil? Bem, o primeiro passo é reconhecer que não há problema em nos sentirmos inseguros e sobrecarregados. Este é um problema difícil, e é normal sentir-se um pouco perdido. Precisamos priorizar aqueles problemas que não só são importantes, mas também urgentes. Isto significa focar nas soluções que são necessárias antes que a explosão da inteligência ocorra. Mas também precisamos ser cuidadosos para não trabalhar em problemas que poderiam ser prejudiciais se resolvidos. Por exemplo, resolver problemas técnicos relacionados à IA poderia acelerar seu avanço sem que isso nos tornasse seguros.
Outro fator é a elasticidade. Queremos nos concentrar em problemas que são elásticos aos nossos esforços, o que significa que eles podem ser resolvidos muito mais rapidamente ou em maior extensão com apenas um pouco mais de esforço. Por exemplo, incentivar mais bondade no mundo é um problema importante e urgente. É também robustamente positivo, mas pode não ser altamente elástico.
Para minimizar os danos potenciais da revolução da inteligência da máquina, o livro propõe dois objetivos:
- Análise estratégica
- Capacitação
Estes objetivos satisfazem todas as nossas exigências e têm o benefício adicional de serem elásticos. Há também várias outras iniciativas que podemos buscar.
A idéia de uma explosão de inteligência pode ser aterrorizante. É como se fôssemos crianças pequenas brincando com uma bomba que é poderosa demais para nós lidarmos. Mesmo que este seja um problema grande e assustador, não podemos perder a esperança. Temos que usar todos os nossos recursos humanos para encontrar uma solução.
Resumo e revisão final
A superinteligência é o desenvolvimento da inteligência artificial que supera as capacidades cognitivas humanas. Há três caminhos para alcançá-la:
- Melhorando a cognição humana
- Criando IA com inteligência semelhante à humana
- Desenvolver um sistema de inteligência coletiva.
A IA superinteligente poderia ter qualquer conjunto de valores. Para evitar danos, devemos considerar objetivos instrumentais convergentes. Temos que proceder com cautela no desenvolvimento da super-inteligência.
Para manter nossos valores, devemos elaborar métodos para controlar a IA superinteligente. A incorporação da ética e da aprendizagem de valores nos sistemas de IA é fundamental. Desta forma, podemos assegurar seu alinhamento com os valores humanos.
medida que nos aproximamos de um mundo pós-superinteligência, devemos nos preparar para as mudanças e desafios que se avizinham. O desenvolvimento da IA pode levar ao deslocamento de empregos e ao desemprego. Mas não podemos deixar que esses sentimentos nos impeçam de fazer algo a respeito. Precisamos ser tão competentes quanto possível e trabalhar juntos para encontrar uma solução. É importante manter nossa humanidade ao longo de tudo isso. Não podemos perder de vista o que é realmente importante - reduzir os riscos existenciais e criar um futuro melhor para todos.
Participe da conversa sobre o futuro da inteligência artificial e como podemos criar um ambiente seguro e responsável para a inovação. Compartilhe o que você aprendeu com o resumo do livro Superintelligence em mídia social e não se esqueça de nos marcar! Vamos juntos moldar um futuro melhor.
Classificação
Nós classificamos Superinteligência 3.9/5. Como você classificaria o livro de Nick Bostrom com base nesse resumo?
Infográfico
Obtenha a versão de alta qualidade da Superinteligência infográfica no aplicativo StoryShots.
PDF, Audiolivro Gratuito e Resumo do Livro Animado
Esta foi a ponta do iceberg. Para mergulhar nos detalhes e apoiar Nick Bostrom, encomende-o aqui ou obter o audiolivro de graça.
Você gostou do que aprendeu aqui? Compartilhe para mostrar que você se importa e nos avise entrando em contato com nosso suporte.
Novo em StoryShots? Obtenha o PDF, audiolivro e versões animadas deste resumo da Superinteligência e centenas de outros livros de não-ficção mais vendidos em nosso aplicativo gratuito de alto escalão. Tem sido apresentado pela Apple, The Guardian, The UN, e Google como um dos melhores aplicativos de leitura e aprendizagem do mundo.
Resumos de livros relacionados
- Superpoderes da IA por Kai-Fu Lee
- Co-Inteligência por Ethan Mollick
- Nexus por Yuval Noah Harari
- Algoritmos para viver por Brian Christian e Tom Griffiths
- Vida 3.0 por Max Tegmark
- Homo Deus por Yuval Noah Harari
- 21 Lições para o Século 21 Yuval Noah Harari
- Construindo um segundo cérebro por Tiago Forte
- Por que as nações falham por Daron Acemoglu e James A. Robinson
- Como Não Estar Errado por Jodan Ellenberg
- Elon Musk por Ashlee Vance