جلد کتاب عصر هوش مصنوعی

کتاب عصر هوش مصنوعی

کتابی در مورد آینده انسان

نویسنده:
هنری کیسینجر، اریک اشمیت و دانیل‌هاتنلوچر
(Henry Kissinger, Eric Schmidt & Daniel Huttenlocher)
1 نفر در حال مطالعه این کتاب است.

کتاب عصر هوش مصنوعی (2021) به بررسی تکامل هوش مصنوعی، چگونگی ادغام آن در تمام جنبه‌های زندگی و پرسش‌هایی عمیق پیرامون رابطه هوش مصنوعی با اخلاق، امنیت، اقتصاد و تجربیات انسانی می‌پردازد.

هنری کیسینجر (۱۹۲۳–۲۰۲۳) وزیر امور خارجه و مشاور امنیت ملی ایالات متحده بود. در سال 1973 به خاطر آتش بس جنگ ویتنام و عقب نشینی آمریکا، جایزه صلح نوبل را دریافت کرد. او کتاب‌های متعددی در زمینه دیپلماسی و روابط بین‌الملل از جمله کتاب پرفروش سال‌های کاخ سفید و تحلیل تاریخی نظم جهانی را نوشته است.

اریک اشمیت بین سال‌های 2001 تا 2011 به‌عنوان مدیر عامل گوگل فعالیت می‌کرد. او به‌عنوان رئیس اجرایی، به حرکت گوگل به سمت هوش مصنوعی کمک کرد. او نویسنده یکی از کتاب‌های پرفروش نیویورک تایمز به نام چگونه گوگل کار می‌کند است. اشمیت موسس بنیاد خصوصی فناوری و امنیت پروژه مطالعات رقابتی ویژه است.

دانیل‌هاتنلوچر متخصص علوم کامپیوتر و هوش مصنوعی است. او به تأسیس Cornell Tech کمک کرده و اولین رئیس و معاون آموزشی آن بوده است.

خلاصه کتاب عصر هوش مصنوعی

حاوی 5 ایده کلیدی
The Age of AI
And Our Human Future
ایده‌های کلیدی کتاب
مقدمه

مقدمه‌ای بر کتاب عصر هوش مصنوعی

دنیایی جدید را کشف کنید

نفوذ هوش مصنوعی یا همان AI بسیار فراتر از کاربردهای نظری است. این فناوری اکنون بخشی مهم از تمدن جهانی به حساب می‌آید که به سرعت در حال تکامل است و همه چیز را از هنرهای خلاق گرفته تا سیستم‌های تسلیحاتی پیشرفته، متحول می‌کند. سرعت توسعه هوش مصنوعی و ادغام آن با زندگی روزمره سوالات مهمی ‌را در مورد استفاده اخلاقی از آن ایجاد می‌کند.

چگونگی حکومت بر جامعه، در عصر هوش مصنوعی یک چالش بزرگ در زمان ما است.
در این کتاب، منشا هوش مصنوعی را بررسی می‌کنیم، قابلیت‌های فعلی آن را ارزیابی می‌کنیم و در مورد مسیر آینده آن حرف می‌زنیم. مهمتر از این‌ها، به پرسش‌های مهم و پیچیده‌ای عصر هوش مصنوعی، می‌پردازیم.

ایده کلیدی 1

1از تورینگ تا امروز

هوش مصنوعی به سرعت از یک مفهوم نظری به فناوری‌های پیشرفته مانند یادگیری ماشینی تبدیل شده و همچنان ما را شگفت زده می‌کند.

آلن تورینگ، دانشمند و فیلسوف قرن بیستم بود. او آزمایشی را برای تعیین اینکه آیا یک ماشین می‌تواند هوشی در سطح انسان از خود نشان دهند یا خیر، پیشنهاد کرد.

ایده او این بود که به جای تست‌های ریاضی، به ماشین یک چالش خلاقانه بدهد.

تورینگ آزمونی را طراحی کرد که در آن یک انسان با یک کامپیوتر و یک انسان دیگر نامه نگاری می‌کند، بدون اینکه بداند کدام ماشین و کدام انسان است. سپس آزمایش کننده توانایی ماشین را برای دادن پاسخ‌هایی شبیه به پاسخ‌های انسان، قدرت استدلال و هوش هیجانی ارزیابی می‌کند.

این رویکرد بر آزمودن کامپیوتر در مهارت‌هایی مثل روان بودن زبان، حل مسئله و سازگاری با اطلاعات جدید تاکید داشت و تنها داشتن مهارت ریاضی کافی نبود. آزمون تورینگ امروزه هم کاربرد دارد و معیاری کاربردی برای سنجش پیشرفت هوش مصنوعی است.

محققان دریافتند که با کدنویسی و دستورهای ریاضی به تنهایی نمی‌شود هوشی مشابه هوش انسان ساخت. بنابراین از شبکه‌ عصبی (یعنی شبکه‌های از گره‌ها که برای یادگیری ماشینی استفاده می‌شود) به منظور فعال کردن هوش مصنوعی برای یادگیری اطلاعات مبهم و ناقص (درست مانند مغز ما) استفاده می‌کنند.

برای مثال اگر نمونه‌های کافی از ساختارهای مولکولی و اثربخشی آنتی‌بیوتیک‌ها را به یک هوش مصنوعی بدهید، داروهای جدید قدرتمندی را پیش‌بینی می‌کند که به ذهن ما نمی‌رسد.

رمان‌های کلاسیک و مقالات خبری را به او بدهید، او داستان‌هایی جدید و جذاب تحویلتان می‌دهد.

علاوه بر برنامه‌هایی که برای انجام دقیق یک وظیفه روشن طراحی شدند، سیستمی‌ برای یادگیری بر اساس داده‌های جدید هم به وجود آمده است.

در زمینه زیست شناسی، سیستم پیش بینی پروتئین تاشو AlphaFold این موضوع را به خوبی نشان می‌دهد. با آموزش داده‌های مربوط بهDNA با دقت بسیار بالاتر از علم موجود، زیست‌شناسان توانستند درک بسیار بهتری از سیستم‌های زیستی پیدا کنند.

برای انجام این کار، دانشمندان از بانک داده عظیمی ‌استفاده کردند که شامل بیش از 170000 ساختار پروتئینی سه‌بعدی است. آن‌ها همچنین از داده‌هایی مانند UniProt استفاده کردند که شامل میلیون‌ها توالی پروتئینی است. با ترکیب این دو مجموعه، AlphaFold یاد گرفت که پروتئین‌هایی که به درستی تا شده باید چه شکلی باشند و پروتئین‌های معیوب را شناسایی کرد. پس از پردازش کافی، این سیستم نتایج بی‌سابقه‌ای را برای پیش‌بینی تاخوردگی پروتئین ایجاد کرد که به درک بهتر بیماری‌ها و تداخل‌های دارویی کمک می‌کند.

در کنار مزایای زیادی که هوش مصنوعی برای ما دارد باید توجه خود را به محدودیت‌های آن نیز جلب کنیم. بخش از این محدودیت‌ها سوگیری اشتباهات غیرقابل پیش‌بینی هستند.
برای مثال اگر داده‌هایی که به ماشین داده می‌شود ناقص باشد یا نظارت انسانی به درستی انجام نگیرد خروجی سیستم به شدت مختل خواهد شد. یکی از مثال‌ها ربات گفتگوی مایکروسافت بود که تفکراتی نژادپرستانه و جنسیت زده را از خود نشان داد.

مدل‌هایی مثل chatgbt که به بزرگ زبان مشهور هستند، روی حجم عظیمی ‌از داده‌های متنی کار می‌کنند تا با کارکرد زبان و نوشتار آشنا شوند.

یک الگوی ساده برای این سیستم‌ها این است که کلمه بعدی را در یک جمله پیش بینی کند و متنی روان و شبیه به گفتگوی انسانی بسازند. هدف این سیستم‌ها دنبال کردن روان متن، به گونه‌ای است که شبیه به یک گفتگوی انسانی به نظر برسد نه الزاما روشی برای کشف حقیقت یا استدلال با بالاترین دقت ممکن.

به همین دلیل بدون نظارت انسانی آن‌ها ممکن است متنی باورپذیر و به ظاهر قابل اطمینان اما در واقع من درآوردی و غیر اخلاقی تولید کند. درست مانند آنچه در مورد هوش مصنوعی tay رخ داد.

در زمینه هوش مصنوعی مسئولیت پذیری ما اهمیت زیادی دارد. مهم است که ما قابل اعتماد بودن، اخلاقی بودن و در نظر گرفتن منافع جمعی را در هوش مصنوعی لحاظ کنیم.
با نظارت دقیق دولتی و تعیین استانداردها به همراه گواهینامه‌های حرفه‌ای، می‌شود رشد فناوری را به مسیر درست هدایت کرد.

در این صورت هوش مصنوعی می‌تواند به دستیاری توانا برای وکلا یا مشاوری خلاق برای هنرمندان تبدیل شود تا بتوانیم با خلق آثاری شگفت انگیز زیبایی فرهنگ متنوع انسانی را منعکس کنیم و احتمالاتی هیجان انگیز را با این فناوری نوین پیوند بزنیم.

ایده کلیدی 2

2شبکه‌های جهانی

پلتفرم‌های دیجیتال کنون بخش جدایی‌ ناپذیری از زندگی مدرن ما هستند. این پلتفرم‌ها برای بهینه سازی تجربه کاربری میلیاردها انسان از هوش مصنوعی استفاده می‌کنند.

برای مثال شبکه‌های اجتماعی فروشگاه‌های آنلاین و حتی موتورهای جستجو از الگوریتم‌های خاصی برای شخصی‌سازی اطلاعات و نمایش تبلیغات بهره می‌برند.

این امر مکانات زیادی را در اختیار ما می‌گذارد اما سوالات پیچیده‌ای را هم در مورد میزان مسئولیت پذیری ما طرح می‌کند.

برای نمونه اگر مدیریت محتوا در دست هوش مصنوعی باشد ممکن است به طور ناخواسته شکاف‌های اجتماعی و باورهای نژادپرستانه را ترویج کند یا جلوی گفتگوها و مناظره‌های حیاتی برای تداوم دموکراسی را بگیرد.

یک نمونه مهم فیسبوک است. الگوریتم‌های فیسبوک برای نشان دادن محتوای مورد پسند کاربر و همچنین یافتن دوستانی که مورد علاقه او باشند خیلی خوب کار می‌کنند. اما همین الگوریتم‌ها به انتشار سریع اطلاعات نادرست در انتخابات اخیر کمک کردند.

این در حالیست که تلاش برای پالایش جریان‌های خبری، ما را با خطر بالقوه سانسور مواجه خواهد کرد. همچنین روش‌های پیشنهادی برای مبارزه با محتواهای مسموم و حساب‌های جعلی باعث شده که جلوی انتشار دیدگاه‌هایی بحث برانگیز اما بسیار حیاتی هم گرفته شود.

این الگوریتم‌های محافظتی به وضوح جای خالی هوش مصنوعی را در تجزیه و تحلیل محتوا نشان می‌دهند.

برای مثال ممکن است ماشین در تشخیص طنز یا اعتراض سیاسی از گفتگوهای خرابکارانه نفرت پراکنی‌های غرض ورزانه ناتوان باشد. به بیان دیگر سانسور مطالب مشکل ساز باعث می‌شود که ما نتوانیم در معرض ایده‌های سالم اما بحث برانگیز قرار بگیریم.

از بین بردن این صداهای مخالف باعث کاهش انعطاف پذیری اجتماعی نیز خواهد شد. پس مهم است که تصمیم بگیریم که می‌خواهیم جامعه خود را بر اساس چه اصول اخلاقی و فکری‌ پیش ببریم. همچنین باید بدانیم که هوش مصنوعی در این نظارت اجتماعی تا چه اندازه موثر است.

اگر برای شکل دهی محتواها به هوش‌های مصنوعی بسیار پیچیده و در نتیجه کمتر شفاف تکیه کنیم ممکن است نتوانیم پیامدهای سیاسی و اجتماعی این انتخاب را در زمان مناسب تشخیص دهیم. به خصوص که در برخی کشورها سرعت پیشرفت هوش مصنوعی بسیار بالاست. در نتیجه این سیستم‌ها با مفروضات خاصی که از فرهنگ کشور سازنده می‌آیند ترکیب می‌شوند و ملاحظات اجتماعی و فرهنگی کاربران در کشورهای دیگر را به طور کامل نادیده می‌گیرند.

البته تنها بازیگر این بازی دولت‌ها نیستند. همانطور که در مثال شرکت فیس‌بوک دیدیم، شرکت‌ها می‌توانند برای حفظ مزیت رقابتی خود از این فناوری‌های نوین بهره بگیرند. اگر قبول کنیم که دانش قدرت است باید از خود سوال کنیم که چه کسانی کنترل جریان دانش را در دست دارند.

البته بحث در مورد اختلاف عقاید و انتشار اطلاعات نادرست در کنار درک سطحی از حقایق، قدمتی تاریخی دارد. اما ابعاد جهانی پیچیدگی‌های فناوری‌های مدرن باعث شده که این پرسش‌ها شکلی تازه به خود بگیرند.

اگر می‌خواهیم دنیایی بسازیم که از این فناوری‌های نوین به بهترین شکل استفاده می‌کند لازم است به پیامدهای استفاده از هوش مصنوعی هم فکر کنیم.

ایده کلیدی 3

3امنیت و دفاع

تا اینجا گفتیم که هوش مصنوعی می‌تواند در علم و فناوری به انسان کمک کند. اما در کنار آینده روشن هوش مصنوعی، یک روی تاریک هم وجود دارد.

تاثیر هوش مصنوعی در فناوری‌های نظامی ‌را می‌شود با توسعه سلاح هسته‌ای در دهه ۱۹۴۰ مقایسه کرد.

هدف‌گیری دقیق موشکی، حمله گله‌ای پهپادی و سپرهای ضد موشکی ما را با تهدیدات نظامی‌ جدید مواجه خواهد کرد.

در فناوری هسته‌ای با قرار دادن خط قرمز در مقابل محدوده بدون بازگشت، توانستیم کشورها را از حمله هسته‌ای باز داریم. اما چنین خط قرمزی برای کاربردهای نظامی ‌هوش مصنوعی قابل تعریف نیست. به خصوص که فناوری هوش مصنوعی می‌تواند کاربردهایی غیرقابل پیش‌بینی داشته باشد.

بیایید به یک مثال نگاه کنیم. ابزارهای سایبری خودکار هوش مصنوعی می‌توانند به طور مستقل، شبکه‌های مجازی را برای یافتن نقاط آسیب پذیر جستجو کنند.

آن‌ها همچنین می‌توانند با تغییر کدهایشان، خود را با مقابله‌های احتمالی تطبیق دهند. در نتیجه سیستم‌های بازدارنده سنتی توان مقابله با هوش مصنوعی را ندارند. اگر بدافزار مبتنی بر هوش مصنوعی بتواند نقص‌های سیستم را شناسایی و خود را پنهان کند، امکان واکنش به موقع از میان خواهد رفت.

در دوران جنگ سرد برای جلوگیری از بحران‌های هسته‌ای به سیگنال‌های واضح توجه می‌شد. اما پویایی و پیچیدگی هوش مصنوعی گفت و گو برای صلح جهانی را دشوار خواهد کرد.

همینطور هوش مصنوعی ممکن است در یک عملیات نظامی‌ به فرماندهان مشاوره‌هایی غیر اخلاقی یا خطرناک بدهد.

در حال حاضر نرم‌افزارهای تشخیص چهره با تغییر زاویه نور کارایی خود را ز دست می‌دهند. آیا اخلاقیست که به تشخیص هوش مصنوعی اعتماد کرده و به یک فرد حمله‌ای مرگبار کنیم؟ مسئولیت اشتباه‌های احتمالی با چه کسی خواهد بود؟

امروزه در نیروهای مسلح سازمان‌هایی مثل موسسه تحقیقات رادیو بیولوژیک وجود دارد تا به ارتش در مورد حوادث ناشی از تشعشعات هسته‌ای مشاوره دهد. اما ارتش آمریکا سازمانی مشابه برای خطرات احتمالی هوش مصنوعی ندارد. به زبان ساده، بزرگترین قدرت نظامی ‌جهان هم در برابر سو استفاده از هوش مصنوعی در میدان نبرد به شدت آسیب پذیر است.

می‌توانیم نتیجه بگیریم که برنامه‌ریزی دفاعی باید خطرات احتمالی این فناوری جدید را در نظر بگیرد. برای این منظور هم لازم است آینده هوش مصنوعی را در نظر بگیریم و هم از نحوه کارکرد آن اطلاع پیدا کنیم. ما هنوز فرصت داریم برای تعیین چارچوب‌های اخلاقی و اتحادهای دفاعی بین‌المللی وارد عمل شویم.

همانطور که امروز جهان به این نتیجه رسیده که دیپلماسی نسبت به درگیری نظامی ‌اولویت دارد، از طریق بحث‌های دانشگاهی مذاکرات سیاسی، فضایی برای رشد امن و آینده نگرانه هوش مصنوعی فراهم کنیم. در غیر این صورت هوش مصنوعی به تهدیدی جدی در مقابل ثبات و امنیت جهانی تبدیل خواهد شد.

ایده کلیدی 4

4هوش مصنوعی و هویت انسانی

امروز هوش مصنوعی ظرفیت‌هایی دارد که زمانی از ویژگی‌های منحصر به فرد انسان تلقی می‌شد. پیشرفت این فناوری سوالاتی فلسفی در مورد رابطه فناوری با هویت انسانی را پیش می‌کشد.

هوش مصنوعی امروز می‌تواند موسیقی، شعر و آثار خلاقانه هنری دیگری را خلق کند. اما زمانی که هوش مصنوعی وارد قلمرو ذهنی انسان شود، این پرسش مطرح خواهد شد که تا چه اندازه می‌توانیم بر هوش مصنوعی تکیه کنیم.

برای کودکانی که با هوش مصنوعی بزرگ می‌شوند ممکن است گرفتن مشاوره شخصی از ماشین بسیار طبیعی و حتی رضایت بخش به نظر بیاید.

اما طبیعی است که هوش‌های مصنوعی با سوگیری‌های داخلی همراه هستند. در نتیجه ممکن است رای نسل‌های آینده درک دیدگاه‌های جایگزین غیر ممکن شود. همچنین محرک‌های ناخوشایندی که با باورهای ما در تضاد هستند اما همین محرک‌ها باعث می‌شوند که شخصیتی روشنفکر و انعطاف پذیر پیدا کنیم.

از سوی دیگر به این دلیل که خلاقیت مصنوعی می‌تواند جایگزین نقش‌های انسانی شود، این احتمال وجود دارد که برخی از ما مجبور شویم شغل خود را تغییر دهیم. برای همین لازم است روشن کنیم که چه زمان نیاز داریم یک انسان کنترل کارها را به دست بگیرد.

از این مهمتر، یکی از کاربردهای هنر این است که تجربه‌های انسانی را به ما منتقل کند. چه معنایی می‌دهد که ما این تجربه‌ها را از سیستم‌هایی که خودشان انسان نیستند دریافت کنیم؟

یک الگوریتم را تصور کنید که موظف است احساسات افراد را تشخیص دهد. این سیستم حالات چهره و تن صدای افراد را تحلیل می‌کند و با بررسی جمله بندی‌های فرد، به حالات درونی او پی می‌برد. چون این سیستم‌ها برای پیشگیری از آسیب‌های احتمالی ناشی از مشکلات پنهان کارایی دارند. برای مثال با بالا رفتن تعداد خودکشی‌ها از روی یک پل در کره جنوبی، یک سیستم پیشگیری از خودکشی با استفاده از هوش مصنوعی به کار گرفته شد. کار این سیستم این است که با تحلیل فیلم‌های دوربین مداربسته مجهز به یادگیری عمیق، افراد در خطر را شناسایی کرده و برای مداخله با اورژانس تماس بگیرد.

خطر اصلی زمانی رخ می‌دهد که این سیستم خیلی خوب کار کند. در واقع استفاده از هوش مصنوعی باعث شد که میزان خودکشی‌ها در این پل ۷۵ درصد کاهش پیدا کند. خطر اینجاست که ما به عوامل بنیادین که منجر به چنین نرخ بالای خودکشی شده‌اند توجهی نکنیم و تنها از کاهش میزان خودکشی‌های موفق خوشنود گردیم.

نتیجه آنکه مانند تمام فناوری‌های نوین دیگر، اگر هوش مصنوعی هوشیارانه به کار گرفته شود قادر خواهیم بود ظرفیت‌های بی‌نظیری را کشف و به فعالیت برسانیم. اگر هوش مصنوعی با در نظر گرفتن اخلاق رشد کند قادر خواهیم بود منافع هوش مصنوعی را از مضراتش بیشتر کنیم. درست است که در این مسیر خطرات زیادی وجود دارد اما این فناوری نوین می‌تواند فرصت‌های جدیدی را در اختیار بشریت بگذارد.

ایده کلیدی 5

5هوش مصنوعی و آینده

زمانی که دستگاه چاپ اختراع شد میزان دسترسی افراد به اطلاعات به طرزی باورنکردنی افزایش یافت.

اختراع اینترنت باعث شد که به اطلاعات در سطحی جهانی دسترسی پیدا کنیم و از اخبار یافته‌های جدید علمی ‌در کسری از ثانیه با خبر شویم.

درست مانند ماشین چاپ و اینترنت، هوش مصنوعی یک بار دیگر می‌تواند دسترسی و درک ما از اطلاعات را متحول کند. طبیعی است که هوش مصنوعی نوید انقلاب‌هایی عظیم از پزشکی گرفته تا هنر را به ما بدهد. اما مثل هر انقلاب دیگری تغییرات می‌توانند آسیب زا نیز باشند. در حال حاضر می‌بینیم که شکایت‌های زیادی از هوش مصنوعی وجود دارد و افراد معمولا به شکلی غیر مسئولانه از این فناوری ستفاده می‌کند. برای رفع این مشکلات به راهنماهای اخلاقی و پیشگیرانه نیاز داریم تا مطمئن شویم هوش مصنوعی بیش از آنکه آسیب زا باشد برای ما مفید است.

جوامعی که می‌خواهند به طور گسترده هوش مصنوعی را به کار بگیرند باید مشخص کنند که چه زمانی کنترل چه بخش‌هایی به هوش مصنوعی سپرده خواهد شد.

برای مثال نظارت بر محیط زیست می‌تواند به طور کامل در اختیار الگوریتم‌هایی قرار بگیرد که توانایی تشخیص عواملی را دارند که هرگز توسط حواس محدود انسان قابل تشخیص نیستند.

اما در زمینه‌های دیگر مثل اجرای قانون به نظارت انسان نیاز داریم تا مطمئن شویم که حقوق اساسی افراد به دلیل سوگیری‌های داخلی ماشین‌ها پایمال نمی‌شود.

در سال ۲۰۲۰ پلیس دیتروید از سیستم‌های تشخیص چهره برای شناسایی مظنونان جنایی استفاده کرد. با این وجود بررسی‌ها نشان داد که این نرم‌افزار در مورد چهره سیاه پوستان و آسیایی‌ها ۹۶ درصد خطا دارد. ریشه این خطا در داده‌های آموزشی ابتدایی بود. این ماشین توسط چهره‌های سفید تعلیم دیده بود.

به دنبال انتقادهای عمومی ‌و شکایت‌های حقوقی و به استناد به نقض حقوق مدنی توسط ربات‌ها پلیس دیتروید استفاده از این سیستم را کنار گذاشت.

هنوز هم تصور زندگی مدرن بدون دستیارهای دیجیتال و راهنماهای هوش مصنوعی دشوار است. این سیستم‌ها امروز بخشی از طرز فکر ما شده‌اند. اما اگر قرار باشد هوش مصنوعی دسترسی ما به اطلاعات را بر مبنای آنچه برایش تعریف کرده‌ایم محدود کند ممکن است آزادی و به دنبال آن دموکراسی آسیب ببیند.

البته نمی‌شود با این استدلال هوش مصنوعی را زیر سوال برد. هیچ فناوری‌ای وجود ندارد که جنبه‌های مختلف تمدن را تغییر نداده باشد. هدف اصلی این است که جای درست هوش مصنوعی را در زندگی خود پیدا کنیم اما بتوانیم مضرات آن را به حداقل برسانیم.

با در نظر گرفتن اصول اخلاقی درست هوش مصنوعی حتی می‌تواند باعث تقویت انسانیت و آزادی شود.

خلاصه نهایی

پیام کلیدی کتاب

هوش مصنوعی به سرعت دارد تغییر می‌کند و هر روز ظرفیت‌های جدید خود را به ما نشان می‌دهد. با این حال اگر توسعه هوش مصنوعی بدون دستورالعمل‌های اخلاقی پیش برود با خطراتی جدی مواجه خواهیم شد.

امروز که هوش مصنوعی قادر به کارهایی است که زمانی از ویژگی‌های متمایز انسان به حساب می‌آمد، سوالات فلسفی عمیقی در رابطه فناوری با هویت انسانی مطرح می‌گردد.

با ترکیب این فناوری جدید با خرد انسانی، تعیین دقیق خطوط قرمز، اولویت دادن توانمندسازی بر بیکار افراد، امید داریم که هوش مصنوعی به جای یک تهدید رعب انگیز، زندگی انسان‌ها را بهبود بخشد.

نظرات و دیدگاه‌های شما
بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

کتاب‌های مشابه
اثر نسیم نیکلاس طالب
اثر ویتنی گودمن
اثر دیوید فوربس
اثر کنت کوکیر، ویکتور مایر-شونبرگر و فرانسیس دو وریکورت
لوگوی اکوتوپیا کامل