كتاب "الذكاء الخارق" لنيك بوستروم ملخص كتاب "الذكاء الخارق" لكتاب "ستوري شوتس
  • الحفظ
| | |

مراجعة ملخص الذكاء الخارق | نيك بوستروم

المسارات والمخاطر والاستراتيجيات

1-ملخص الجملة

الذكاء الخارق للكاتب نيك بوستروم يستكشف المخاطر الوجودية والقوة التحويلية للذكاء الاصطناعي، متسائلاً: ماذا يحدث عندما تتفوق الآلات على الذكاء البشري، وكيف يمكننا ضمان بقائنا في مستقبل تهيمن عليه كيانات فائقة الذكاء؟

مقدمة

What happens when artificial intelligence surpasses human intelligence? Machines can think, learn, and solve complex problems faster and more accurately than we can. This is the world that Nick Bostrom explores in his book, الذكاء الخارق. Advances in artificial intelligence are bringing us closer to creating superintelligent beings. 

Big tech companies like Microsoft, Google, and Facebook are all racing to create a super powerful AI. They’re pouring a lot of resources into research and development to make it happen. But here’s the catch: without the right safety measures and rules in place, things might go haywire. That’s why it’s important to step in and make sure AI stays under control. 

Imagine a world where machines are not only cheaper but also way better at doing jobs than humans. In that world, machines might take over human labor, leaving people wondering, “What now?” So it’s important to come up with creative solutions to make sure everyone’s taken care of.

The book shows what happens after superintelligence emerges. It examines the growth of intelligence, the forms and powers of superintelligence, and its strategic choices. We have to prepare now to avoid disasters later. Bostrom offers strategies to navigate the dangers and challenges it presents. 

الذكاء الخارق examines the history of artificial intelligence and the development of technological growth. The book describes how AI is growing faster than its technological predecessors. It also looks at surveys of expert opinions regarding its future progress.

Sam Altman, the co-founder of OpenAI, calls الذكاء الخارق a must-read for anyone who cares about the future of humanity. He even included it on his list of the nine books he thinks everyone should read.

This summary will delve into the fascinating and sometimes frightening world of superintelligence. It provides you with an engaging overview of Bostrom’s key ideas.

About Nick Bostrom

Nick Bostrom is a Swedish philosopher and futurist. He is known for his groundbreaking work in artificial intelligence and its impact on humanity. Bostrom is a professor at the University of Oxford, where he founded the Future of Humanity Institute. In particular, he conducts research in how advanced technologies and AI can benefit and harm society.

In addition to Superintelligence, Bostrom has authored other influential works, including Anthropic Bias: Observation Selection Effects in Science and Philosophy و Global Catastrophic Risks. His work has contributed to the ongoing discussion of humanity’s future. 

StoryShot #1: We Are Not Ready for Superintelligence

Are we on the cusp of creating something beyond our wildest dreams or our worst nightmares? Superintelligence is the concept of artificial intelligence surpassing human cognitive abilities in every aspect. There are three potential paths to achieving superintelligence:

  1. Improving human cognition,
  2. Creating AI with human-like intelligence
  3. Developing a collective intelligence system

Which path we take will determine the implications and risks we face as a society. If we make progress along one path, such as biological or organizational intelligence, it will still speed up the development of machine intelligence. Are we ready for the challenges that come with creating such powerful entities?

We are exploring different paths to reach superintelligence. The AI route seems like the most promising one. While whole-brain emulation and biological cognitive enhancements might also lead us there. Biological enhancements are feasible and may result in weak forms of superintelligence compared with machine intelligence, but network and organizational advances may boost collective intelligence.

StoryShot #2: There Are Three Forms of Superintelligence 

So what exactly does the book mean by “superintelligence”? There are three distinct forms of superintelligence: speed, collective, and quality. They are equivalent in a practically relevant sense. 

Specialized information processing systems are already doing wonders. But what if we had machine intellects with enough general intelligence to replace humans in every field? Talk about a game-changer!  

The three forms of superintelligence are:

  1. Speed Superintelligence

Nick Bostrom defines speed superintelligence as “A system that can do all that a human intellect can do, but much faster.”

If an emulation operated at a speed of 10,000 times what is typical of a biological brain, it could complete a PhD thesis in an afternoon. To avoid long latencies, fast minds might prefer to communicate with each other more efficiently by being close to each other. They may live in virtual reality and deal in the information economy.

Light is much faster than a jet plane. A digital being with a million times mental speedup would take the same subjective time to travel the world as a human today. Making a long-distance call would feel as long as going there “in person.”

Agents with high mental speedups may choose to live near each other. So they can have more efficient communication. For example, members of a work team could reside in computers located in the same building to avoid annoying delays. 

  1. Collective superintelligence

Bostrom describes collective superintelligence as: “A system composed of a large number of smaller intellects such that the system’s overall performance across many very general domains vastly outstrips that of any current cognitive system.”

Collective superintelligence is more complex than speed superintelligence, but it is something we are already familiar with. Collective intelligence is a system made up of different people or components. They are working together to solve intellectual problems. It’s like superheroes collaborating to crack tough challenges.

We have seen collective intelligence in action through work teams and advocacy groups. It is great at tackling problems that can be broken down into smaller pieces. To reach collective superintelligence, we’d need significant improvement. It has to go beyond existing collective intelligence and cognitive systems across various areas. 

Having collective superintelligence doesn’t guarantee a better and wiser society. A highly coordinated, knowledgeable workforce could still get some key issues wrong and suffer a collapse.

Collective superintelligence can take many forms. As we integrate collective intelligence, it may become a “unified intellect”. Bostrom defines it a “single large mind” as opposed to “a mere assemblage of loosely interacting smaller human minds.”

  1. Quality Superintelligence

According to Bostrom, quality superintelligence is “a system that is at least as fast as a human mind and vastly qualitatively smarter.”

Understanding intelligence quality is important for thinking about the possibilities and limitations of different intelligent systems. Take zebrafish as an example. Its intelligence is suitable for its environment, but it struggles with long-term planning. These limitations are in quality, not speed, or collective intelligence among nonhuman animal minds. 

Human brains are likely inferior to those of some large animals in terms of raw computational power. Normal human adults have a range of remarkable cognitive talents. They are not simply a function of possessing general neural processing power or intelligence. There are untapped cognitive abilities that no human has. It brings us to the “idea of "المواهب المعرفية الممكنة ولكن غير المحققة". إذا تمكن النظام الذكي من الوصول إلى هذه القدرات، فقد يحصل على ميزة كبيرة. 

StoryShot #3: There are Two Sources of Advantage for Digital Intelligence

يمكن للتغيرات الطفيفة في حجم الدماغ والأسلاك بين البشر والقردة الأخرى أن تسبب قفزات هائلة في الذكاء. 

من الصعب، إن لم يكن من المستحيل، أن نفهم قدرات الذكاء الفائق بشكل كامل. 

ومع ذلك، يمكننا على الأقل الحصول على فكرة عن الاحتمالات من خلال النظر في بعض المزايا المتاحة للعقول الرقمية. 

ميزة واحدة هي الأجهزة. يمكن تصميم العقول الرقمية بموارد حاسوبية وهندسة معمارية متفوقة إلى حد كبير مقارنة بالأدمغة البيولوجية. من الأسهل تقدير مزايا الأجهزة. وتشمل هذه:

  • سرعة العناصر الحسابية
  • سرعة الاتصال الداخلي
  • عدد العناصر الحسابية
  • سعة التخزين
  • الموثوقية، والعمر، وأجهزة الاستشعار، وما إلى ذلك. 

سوف تستفيد العقول الرقمية أيضًا من المزايا الرئيسية في البرمجيات. وتشمل هذه:

  • إمكانية التحرير
  • الازدواجية
  • تنسيق الأهداف
  • مشاركة الذاكرة
  • وحدات وطرق وخوارزميات جديدة

قد يصل الذكاء الاصطناعي الفائق في وقت أقرب مما نعتقد، وذلك بفضل تراكم الأجهزة والبرامج. يحدث تراكم الأجهزة عندما يكون لدينا طاقة حاسوبية أكبر مما تحتاجه برامج الذكاء الاصطناعي في الوقت الحالي. يشير تراكم البرنامج إلى تقدم سريع في خوارزميات الذكاء الاصطناعي. يبدو الأمر وكأنك تسير على طريق سريع نحو مستقبل مذهل. 

هذه القفزة المفاجئة في قدرات الذكاء الاصطناعي يمكن أن تفاجئنا، وتتركنا غير مستعدين للتعامل مع العواقب. كيف يمكننا الاستعداد لمثل هذا التحول السريع في التكنولوجيا؟

StoryShot #4: Uncontrolled Superintelligence Poses Significant Risks to Society

بينما نتقدم نحو الذكاء الاصطناعي الفائق، دعونا لا ننسى التفكير في مخاطره المحتملة. ومن الضروري التأكد من أن قيمنا وأهدافنا تتوافق مع هذا الذكاء الاصطناعي. ماذا يحدث إذا أساء فهم تعليماتنا وفعل شيئًا ضارًا بالإنسانية؟ يجب أن نعمل معًا للتأكد من أننا نبني مستقبلًا آمنًا ومتناغمًا باستخدام الذكاء الاصطناعي. 

على الرغم من أن الذكاء الاصطناعي الفائق يعد بتحقيق إنجازات مذهلة، إلا أنه لا يمكننا تجاهل التحديات التي يجلبها. تشمل بعض المخاطر الرئيسية ما يلي:

  • خطر حدوث انفجار استخباراتي. وقد يؤدي هذا إلى زيادة سريعة ولا يمكن السيطرة عليها في قدرات الذكاء الاصطناعي.
  • خطر اختلال القيمة. وقد يدفع الذكاء الاصطناعي إلى تحقيق أهداف تتعارض مع القيم الإنسانية.
  • خطر التقارب الفعال. الذكاء الاصطناعي الفائق الذكاء قد يتقارب على وسائل معينة لتحقيق أهدافه. وقد يختار أي وسيلة ضرورية، دون النظر فيما إذا كانت جيدة أو سيئة للإنسان. 

StoryShot #5: نحتاج إلى التحكم في الذكاء الاصطناعي الفائق الذكاء من خلال تقنيات فعالة

كيف يمكننا التحكم في ذكاء اصطناعي فائق الذكاء أكثر ذكاءً وقدرة منا؟ يتحدث بوستروم عن مشكلة التحكم. تكمن المشكلة في معرفة كيفية ضمان بقاء الذكاء الاصطناعي تحت سيطرتنا واتباع قيمنا.

استراتيجيات التحكم في الذكاء الخارق

يجب علينا إيجاد حلول استراتيجية لتجنب المخاطر المرتبطة بالذكاء الفائق. ويشمل ذلك:

  • تطوير أساليب "الملاكمة": تقييد قدرات الذكاء الاصطناعي والوصول إلى المعلومات
  • تطوير أساليب "مواءمة القيم": ضمان توافق قيم الذكاء الاصطناعي مع القيم الإنسانية
  • أساليب "التحكم في القدرات": مراقبة قدرات الذكاء الاصطناعي والتحكم فيها 
  • "التقزم": تنظيم وتقييد التأثير على العمليات الداخلية الهامة وتقييدها
  • "أسلاك التعثر": إجراء اختبارات تشخيصية على النظام وإيقاف تشغيل النظام في حال اكتشاف نشاط خطير.

على سبيل المثال، يمكننا إنشاء إعداد يكافئ فيه المنشئ الذكاء الاصطناعي أو يعاقبه. للقيام بذلك، ستتم مراقبة الذكاء الاصطناعي وتقييمه. إذا تصرف بشكل جيد، سيحصل على تقييم إيجابي من شأنه أن يؤدي إلى نتيجة يرغب فيها. يمكن أن تكون المكافأة هي تحقيق بعض الأهداف المفيدة، ولكن قد يكون من الصعب معايرة آلية المكافأة. 

البديل الأفضل هو الجمع بين طريقة الحوافز واختيار الدافع لإعطاء الذكاء الاصطناعي هدفًا نهائيًا يسهل التحكم فيه. على سبيل المثال، يمكن تصميم الذكاء الاصطناعي بحيث يكون هدفه النهائي هو عدم الضغط على زر أحمر معين داخل مخبأ القيادة. يمكن إجراء تحسينات على هذا الإعداد من خلال إنشاء دفق من "رموز المكافآت المشفرة" التي يجدها الذكاء الاصطناعي مرغوبة. يمكن تخزين هذه الرموز في مكان آمن وتوزيعها بمعدل ثابت لتحفيز التعاون. 

ومع ذلك، هناك مخاطر ينطوي عليها مثل هذا المخطط التحفيزي، مثل عدم ثقة الذكاء الاصطناعي في المشغل البشري لتقديم المكافآت الموعودة. 

StoryShot #6: يجب أن نعزز بيئة آمنة ومسؤولة للذكاء الاصطناعي 

الأمر أشبه بسباق إلى خط النهاية: بينما تتنافس الدول والشركات على تطوير ذكاء اصطناعي فائق الذكاء، نواجه معضلة. هل يجب أن نعطي الأولوية للابتكار ونسرع في المضي قدماً دون اتخاذ احتياطات السلامة والمخاطرة بعواقب كارثية؟ أم يجب أن نتراجع خطوة إلى الوراء ونضمن تطوير ذكاء اصطناعي مسؤول يوازن بين الابتكار والسلامة؟

اعتبارات السلامة والسياسات الخاصة بالذكاء الاصطناعي

مع تزايد احتمالية أن يصبح الذكاء الاصطناعي فائق الذكاء أكثر واقعية، يجب على صانعي السياسات والباحثين أن يتعاونوا معًا ويضعوا تدابير ولوائح للسلامة. من المهم وضع اتفاقيات دولية لتنظيم تطوير الذكاء الاصطناعي. علينا أن نضمن أن يظل الذكاء الاصطناعي مفيداً للبشرية جمعاء. 

من خلال تعزيز التعاون بين مطوري الذكاء الاصطناعي والحكومات والمنظمات، يمكننا خلق بيئة آمنة ومسؤولة للابتكار في مجال الذكاء الاصطناعي.

أهمية الشفافية

الشفافية ضرورية لضمان تطوير الذكاء الاصطناعي واستخدامه بطريقة مسؤولة وأخلاقية. وباستخدام البرمجيات مفتوحة المصدر، ومشاركة البيانات، وتطوير ذكاء اصطناعي قابل للتفسير، يمكننا ضمان شفافية الذكاء الاصطناعي. 

يمكن أن يؤدي الافتقار إلى الشفافية في أبحاث الذكاء الاصطناعي وتطويره إلى مخاطر محتملة، مثل التحيز والتمييز، وحتى احتمال حدوث ضرر. إنه أشبه بالحجاب الغامض الذي يخفي ما يحدث بالفعل وراء الكواليس، مما قد يشكل مخاطر.

ستوري شوت #7: يجب أن نستعد لعالم ما بعد الذكاء الفائق والحياة في الاقتصاد الخوارزمي

مع اقترابنا أكثر فأكثر من عالم يتسم بالذكاء الاصطناعي الفائق، من الضروري الاستعداد للتغييرات والتحديات التي تنتظرنا. قد يؤدي تطور الذكاء الاصطناعي إلى إزاحة الوظائف والبطالة. يمكن أن يغير الذكاء الاصطناعي طبيعة العمل والمهارات التي ستكون مطلوبة في المستقبل. كيف يمكننا ضمان توزيع فوائد الذكاء الاصطناعي بشكل عادل؟ 

لكن انتظر! أليس من المدهش التفكير في الفوائد التي يمكن أن يجلبها الذكاء الاصطناعي الفائق الذكاء إلى عالمنا؟ وللتأكد من أن ذلك سيعود بالنفع على الجميع، نحتاج إلى الانخراط في حوار وتخطيط مدروسين.

قد تختلف حياة البشر عن أي شيء اختبرناه من قبل. لن تقيدنا حالاتنا السابقة مثل الصيادين-جامعي الثمار أو المزارعين أو العاملين في المكاتب. يمكن أن يصبح البشر ريعيين، يكافحون من أجل إعالة أنفسهم بدخلهم الهامشي. في هذا السيناريو، "سيكون الناس فقراء جداً"، وسيعتمدون على مدخراتهم وبعض الدعم من الدولة. سيعيشون في عالم مليء بالتقنيات المذهلة. لن تحيط بهم الآلات فائقة الذكاء فحسب، بل ستحيط بهم أيضاً الأدوية المضادة للشيخوخة، والواقع الافتراضي، وعقاقير المتعة. ولكن ها هي المشكلة: قد تكون هذه الأعاجيب باهظة الثمن بالنسبة لمعظم الناس للاستمتاع بها. وبدلاً من ذلك، يمكن للناس أن يختاروا العقاقير التي تعيق نموهم وعملية التمثيل الغذائي، مما يسمح لهم بتغطية نفقاتهم. 

تخيل مستقبلاً يتزايد فيه عدد سكاننا وينخفض متوسط الدخل أكثر من ذلك. قد يتكيف الناس مع الحد الأدنى اللازم للتأهل للحصول على معاش تقاعدي - ربما كأدمغة بالكاد واعية في أوعية تُحفظ على قيد الحياة بواسطة الآلات. قد يدخرون المال ويتحملون تكاليف التكاثر من خلال الاستعانة بفني روبوتات لخلق نسخة من أنفسهم. إنها فكرة رائعة، أليس كذلك؟

من ناحية أخرى، قد تكون الآلات عقولًا واعية وخاضعة للوضع الأخلاقي، مما يجعل من المهم النظر في رفاهيتها في الانتقال إلى مجتمع ما بعد الانتقال.

StoryShot #8: هناك سبع تقنيات لتأمين القيم الإنسانية في تطوير الذكاء الاصطناعي

أنظمة الذكاء الاصطناعي جيدة بقدر جودة القيم المبرمجة فيها. وللتأكد من توافقها مع القيم الإنسانية، نحتاج إلى دمج الأخلاقيات وتعلم القيم في تطويرها. يستكشف بوستروم تحديات تعليم الذكاء الاصطناعي مبادئنا الأخلاقية. يجب أن نكون حريصين على عدم غرس قيم ضارة أو متحيزة بشكل متهور. كيف يمكننا تطوير ذكاء اصطناعي أخلاقي يحترم الكرامة الإنسانية ويعزز الصالح العام؟

هندسة نظم الأهداف هو تخصص جديد نسبيًا، ولا يُعرف حتى الآن كيفية نقل القيم الإنسانية إلى حاسوب رقمي. من غير المرجح أن يكون بعضها ناجحاً، في حين أن البعض الآخر قد يكون مفيداً ويتطلب المزيد من الاستكشاف.

توجد سبعة أنواع من تقنيات تحميل القيمة:

  1. التمثيل الصريح: قد تكون هذه الطريقة فعالة كطريقة لتحميل القيم المحلية. ولكن يبدو من غير المرجح أن تكون ناجحة في دمج قيم أكثر تعقيداً.
  2. الاختيار التطوري: قد تعثر خوارزميات البحث القوية على تصميم يفي بمعايير البحث الرسمية، ولكن ليس بنوايانا. هذا أقل وعداً. 
  3. التعلّم المعزز: يمكن استخدام مجموعة من الطرق المختلفة لحل "مشاكل التعلم المعزز". ومع ذلك، فإنها تتضمن عادةً إنشاء نظام يسعى إلى تعظيم إشارة المكافأة. 
  4. تراكم القيم: يتم اكتساب القيم البشرية إلى حد كبير من خلال الخبرة. قد يكون من الصعب تكرار الطرق المعقدة التي يكتسب بها البشر القيم، مما يؤدي إلى تطوير الذكاء الاصطناعي لأهداف غير مقصودة. 
  5. السقالات التحفيزية: من السابق لأوانه تحديد مدى صعوبة تحفيز نظام لإنشاء تمثيلات عالية المستوى يمكن للبشر قراءتها. وعلى الرغم من أن الأمر قد يبدو واعداً، إلا أننا بحاجة إلى توخي الحذر بشأن مشكلة التحكم، إلى أن نصل إلى مستوى الذكاء الاصطناعي البشري.
  6. التعلّم بالقيمة: هذا نهج مفيد محتمل. ويتمثل أحد التحديات في تحديد نقطة مرجعية تعكس معلومات خارجية عن القيم الإنسانية.
  7. تعديل المحاكاة: إذا تم التوصل إلى ذكاء الآلة عن طريق المحاكاة، فقد يكون من الممكن إجراء تعديلات عملية على دوافعها، مثلًا من خلال المعادل الرقمي للمخدرات. من غير المعروف ما إذا كان هذا سيمكن من تحميل القيم بدقة كافية. 

StoryShot #9: ما الذي يجب فعله بالذكاء الاصطناعي؟

الوضع الذي نواجهه مع التعقيد الاستراتيجي المتعلق بالذكاء الاصطناعي معقد. فنحن محاطون بحالة من عدم اليقين. وعلى الرغم من أننا حددنا بعض العوامل المهمة، إلا أننا لسنا متأكدين تمامًا من كيفية ارتباطها جميعًا. وقد تكون هناك عوامل أخرى لم نفكر فيها بعد. قد يكون الأمر مربكاً.

إذن ماذا يمكننا أن نفعل عندما نجد أنفسنا في هذا المأزق؟ حسنًا، الخطوة الأولى هي أن نعترف بأنه لا بأس أن نشعر بعدم اليقين والارتباك. فهذه مشكلة صعبة، ومن الطبيعي أن نشعر بقليل من الضياع. نحن بحاجة إلى تحديد أولويات تلك المشاكل التي لا تعتبر مهمة فحسب، بل ملحة أيضًا. وهذا يعني التركيز على الحلول المطلوبة قبل حدوث الانفجار الاستخباراتي. ولكن علينا أيضًا أن نحرص على عدم العمل على المشاكل التي يمكن أن تكون ضارة إذا تم حلها. على سبيل المثال، يمكن أن يؤدي حل المشاكل التقنية المتعلقة بالذكاء الاصطناعي إلى تسريع تقدمه دون أن نجعله آمنًا لنا.

العامل الآخر هو المرونة. فنحن نريد أن نركز على المشاكل التي تتسم بالمرونة تجاه جهودنا، بمعنى أنه يمكن حلها بشكل أسرع أو إلى حد كبير بجهد إضافي بسيط. على سبيل المثال، يعد تشجيع المزيد من اللطف في العالم مشكلة مهمة وملحة. كما أنها إيجابية بقوة، لكنها قد لا تكون مرنة للغاية.

ولتقليل الأضرار المحتملة لثورة الذكاء الآلي، يقترح الكتاب هدفين:  

  1. التحليل الاستراتيجي 
  2. بناء القدرات

تفي هذه الأهداف بجميع متطلباتنا ولها ميزة إضافية تتمثل في كونها مرنة. كما أن هناك العديد من المبادرات الأخرى الجديرة بالاهتمام التي يمكن أن نتبعها. 

قد تكون فكرة انفجار الذكاء مرعبة. يبدو الأمر كما لو أننا أطفال صغار نلعب بقنبلة أقوى من أن نتعامل معها. على الرغم من أن هذه مشكلة كبيرة ومخيفة، لا يمكننا أن نفقد الأمل. علينا أن نستخدم كل ما لدينا من حيلة بشرية لإيجاد حل.

الملخص النهائي والمراجعة

الذكاء الخارق هو تطوير ذكاء اصطناعي يفوق القدرات المعرفية البشرية. وهناك ثلاثة مسارات لتحقيق ذلك:

  1. تحسين الإدراك البشري
  2. Creating AI with human-like intelligence
  3. تطوير نظام ذكاء جماعي.

يمكن أن يكون للذكاء الاصطناعي الفائق الذكاء أي مجموعة من القيم. لتجنب الضرر، يجب أن نأخذ بعين الاعتبار الأهداف الفعالة المتقاربة. علينا المضي قدمًا بحذر في تطوير الذكاء الفائق.

للحفاظ على قيمنا، يجب علينا ابتكار طرق للتحكم في الذكاء الاصطناعي الفائق الذكاء. إن دمج الأخلاقيات وتعلم القيم في أنظمة الذكاء الاصطناعي أمر بالغ الأهمية. وبهذه الطريقة يمكننا ضمان توافقها مع القيم الإنسانية.

مع اقترابنا من عالم ما بعد الذكاء الاصطناعي، يجب أن نستعد للتغييرات والتحديات التي تنتظرنا. قد يؤدي تطور الذكاء الاصطناعي إلى إزاحة الوظائف والبطالة. ولكن لا يمكننا أن ندع هذه المشاعر تمنعنا من فعل شيء حيال ذلك. علينا أن نتحلى بأكبر قدر ممكن من الكفاءة وأن نعمل معاً لإيجاد حل. من المهم أن نحافظ على إنسانيتنا خلال كل هذا. لا يمكننا أن نغفل عما هو مهم حقًا - الحد من المخاطر الوجودية وخلق مستقبل أفضل للجميع.

انضم إلى المحادثة حول مستقبل الذكاء الاصطناعي وكيف يمكننا خلق بيئة آمنة ومسؤولة للابتكار. شارك ما تعلمته من ملخص كتاب Superintelligence على وسائل التواصل الاجتماعي ولا تنسى الإشارة إلينا! لنصنع مستقبلاً أفضل معاً.

التقييم

نحن نقيم الذكاء الخارق 3.9/5. كيف تقيم كتاب نيك بوستروم بناءً على هذا الملخص؟

انقر لتقييم هذا الكتاب!
[المجموع: 10 المتوسط: 3.9]

إنفوجرافيك

احصل على نسخة عالية الجودة من مخطط المعلومات Superintelligence على تطبيق ستوري شوتس

  • الحفظ

PDF, Free Audiobook and Animated Book Summary

وكان هذا غيض من فيض. للتعمق في التفاصيل ودعم نيك بوستروم، اطلبها هنا أو احصل على الكتاب الصوتي مجاناً.

هل أعجبك ما تعلمته هنا؟ شارك لإظهار اهتمامك وإعلامنا من خلال التواصل مع فريق الدعم.

هل أنت جديد في StoryShots؟ احصل على نسخة PDF، والكتاب الصوتي، والإصدارات المتحركة من هذا الملخص لكتاب Superintelligence ومئات من الكتب غير الخيالية الأكثر مبيعًا في موقعنا. تطبيق مجاني من الدرجة الأولى. وقد اختارته كل من Apple وThe Guardian وThe UN وGoogle كأحد أفضل تطبيقات القراءة والتعلم في العالم.

ملخصات الكتب ذات الصلة

مراجعة الذكاء الخارق PDF ملخص اقتباسات نيك بوستروم
  • الحفظ
  • الحفظ

منشورات مشابهة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

هذا الموقع يستخدم خدمة أكيسميت للتقليل من البريد المزعجة. اعرف المزيد عن كيفية التعامل مع بيانات التعليقات الخاصة بك processed.