کتاب عصر هوش مصنوعی (2021) به بررسی تکامل هوش مصنوعی، چگونگی ادغام آن در تمام جنبههای زندگی و پرسشهایی عمیق پیرامون رابطه هوش مصنوعی با اخلاق، امنیت، اقتصاد و تجربیات انسانی میپردازد.
هنری کیسینجر (۱۹۲۳–۲۰۲۳) وزیر امور خارجه و مشاور امنیت ملی ایالات متحده بود. در سال 1973 به خاطر آتش بس جنگ ویتنام و عقب نشینی آمریکا، جایزه صلح نوبل را دریافت کرد. او کتابهای متعددی در زمینه دیپلماسی و روابط بینالملل از جمله کتاب پرفروش سالهای کاخ سفید و تحلیل تاریخی نظم جهانی را نوشته است.
اریک اشمیت بین سالهای 2001 تا 2011 بهعنوان مدیر عامل گوگل فعالیت میکرد. او بهعنوان رئیس اجرایی، به حرکت گوگل به سمت هوش مصنوعی کمک کرد. او نویسنده یکی از کتابهای پرفروش نیویورک تایمز به نام چگونه گوگل کار میکند است. اشمیت موسس بنیاد خصوصی فناوری و امنیت پروژه مطالعات رقابتی ویژه است.
دانیلهاتنلوچر متخصص علوم کامپیوتر و هوش مصنوعی است. او به تأسیس Cornell Tech کمک کرده و اولین رئیس و معاون آموزشی آن بوده است.
دنیایی جدید را کشف کنید
نفوذ هوش مصنوعی یا همان AI بسیار فراتر از کاربردهای نظری است. این فناوری اکنون بخشی مهم از تمدن جهانی به حساب میآید که به سرعت در حال تکامل است و همه چیز را از هنرهای خلاق گرفته تا سیستمهای تسلیحاتی پیشرفته، متحول میکند. سرعت توسعه هوش مصنوعی و ادغام آن با زندگی روزمره سوالات مهمی را در مورد استفاده اخلاقی از آن ایجاد میکند.
چگونگی حکومت بر جامعه، در عصر هوش مصنوعی یک چالش بزرگ در زمان ما است.
در این کتاب، منشا هوش مصنوعی را بررسی میکنیم، قابلیتهای فعلی آن را ارزیابی میکنیم و در مورد مسیر آینده آن حرف میزنیم. مهمتر از اینها، به پرسشهای مهم و پیچیدهای عصر هوش مصنوعی، میپردازیم.
هوش مصنوعی به سرعت از یک مفهوم نظری به فناوریهای پیشرفته مانند یادگیری ماشینی تبدیل شده و همچنان ما را شگفت زده میکند.
آلن تورینگ، دانشمند و فیلسوف قرن بیستم بود. او آزمایشی را برای تعیین اینکه آیا یک ماشین میتواند هوشی در سطح انسان از خود نشان دهند یا خیر، پیشنهاد کرد.
ایده او این بود که به جای تستهای ریاضی، به ماشین یک چالش خلاقانه بدهد.
تورینگ آزمونی را طراحی کرد که در آن یک انسان با یک کامپیوتر و یک انسان دیگر نامه نگاری میکند، بدون اینکه بداند کدام ماشین و کدام انسان است. سپس آزمایش کننده توانایی ماشین را برای دادن پاسخهایی شبیه به پاسخهای انسان، قدرت استدلال و هوش هیجانی ارزیابی میکند.
این رویکرد بر آزمودن کامپیوتر در مهارتهایی مثل روان بودن زبان، حل مسئله و سازگاری با اطلاعات جدید تاکید داشت و تنها داشتن مهارت ریاضی کافی نبود. آزمون تورینگ امروزه هم کاربرد دارد و معیاری کاربردی برای سنجش پیشرفت هوش مصنوعی است.
محققان دریافتند که با کدنویسی و دستورهای ریاضی به تنهایی نمیشود هوشی مشابه هوش انسان ساخت. بنابراین از شبکه عصبی (یعنی شبکههای از گرهها که برای یادگیری ماشینی استفاده میشود) به منظور فعال کردن هوش مصنوعی برای یادگیری اطلاعات مبهم و ناقص (درست مانند مغز ما) استفاده میکنند.
برای مثال اگر نمونههای کافی از ساختارهای مولکولی و اثربخشی آنتیبیوتیکها را به یک هوش مصنوعی بدهید، داروهای جدید قدرتمندی را پیشبینی میکند که به ذهن ما نمیرسد.
رمانهای کلاسیک و مقالات خبری را به او بدهید، او داستانهایی جدید و جذاب تحویلتان میدهد.
علاوه بر برنامههایی که برای انجام دقیق یک وظیفه روشن طراحی شدند، سیستمی برای یادگیری بر اساس دادههای جدید هم به وجود آمده است.
در زمینه زیست شناسی، سیستم پیش بینی پروتئین تاشو AlphaFold این موضوع را به خوبی نشان میدهد. با آموزش دادههای مربوط بهDNA با دقت بسیار بالاتر از علم موجود، زیستشناسان توانستند درک بسیار بهتری از سیستمهای زیستی پیدا کنند.
برای انجام این کار، دانشمندان از بانک داده عظیمی استفاده کردند که شامل بیش از 170000 ساختار پروتئینی سهبعدی است. آنها همچنین از دادههایی مانند UniProt استفاده کردند که شامل میلیونها توالی پروتئینی است. با ترکیب این دو مجموعه، AlphaFold یاد گرفت که پروتئینهایی که به درستی تا شده باید چه شکلی باشند و پروتئینهای معیوب را شناسایی کرد. پس از پردازش کافی، این سیستم نتایج بیسابقهای را برای پیشبینی تاخوردگی پروتئین ایجاد کرد که به درک بهتر بیماریها و تداخلهای دارویی کمک میکند.
در کنار مزایای زیادی که هوش مصنوعی برای ما دارد باید توجه خود را به محدودیتهای آن نیز جلب کنیم. بخش از این محدودیتها سوگیری اشتباهات غیرقابل پیشبینی هستند.
برای مثال اگر دادههایی که به ماشین داده میشود ناقص باشد یا نظارت انسانی به درستی انجام نگیرد خروجی سیستم به شدت مختل خواهد شد. یکی از مثالها ربات گفتگوی مایکروسافت بود که تفکراتی نژادپرستانه و جنسیت زده را از خود نشان داد.
مدلهایی مثل chatgbt که به بزرگ زبان مشهور هستند، روی حجم عظیمی از دادههای متنی کار میکنند تا با کارکرد زبان و نوشتار آشنا شوند.
یک الگوی ساده برای این سیستمها این است که کلمه بعدی را در یک جمله پیش بینی کند و متنی روان و شبیه به گفتگوی انسانی بسازند. هدف این سیستمها دنبال کردن روان متن، به گونهای است که شبیه به یک گفتگوی انسانی به نظر برسد نه الزاما روشی برای کشف حقیقت یا استدلال با بالاترین دقت ممکن.
به همین دلیل بدون نظارت انسانی آنها ممکن است متنی باورپذیر و به ظاهر قابل اطمینان اما در واقع من درآوردی و غیر اخلاقی تولید کند. درست مانند آنچه در مورد هوش مصنوعی tay رخ داد.
در زمینه هوش مصنوعی مسئولیت پذیری ما اهمیت زیادی دارد. مهم است که ما قابل اعتماد بودن، اخلاقی بودن و در نظر گرفتن منافع جمعی را در هوش مصنوعی لحاظ کنیم.
با نظارت دقیق دولتی و تعیین استانداردها به همراه گواهینامههای حرفهای، میشود رشد فناوری را به مسیر درست هدایت کرد.
در این صورت هوش مصنوعی میتواند به دستیاری توانا برای وکلا یا مشاوری خلاق برای هنرمندان تبدیل شود تا بتوانیم با خلق آثاری شگفت انگیز زیبایی فرهنگ متنوع انسانی را منعکس کنیم و احتمالاتی هیجان انگیز را با این فناوری نوین پیوند بزنیم.
پلتفرمهای دیجیتال کنون بخش جدایی ناپذیری از زندگی مدرن ما هستند. این پلتفرمها برای بهینه سازی تجربه کاربری میلیاردها انسان از هوش مصنوعی استفاده میکنند.
برای مثال شبکههای اجتماعی فروشگاههای آنلاین و حتی موتورهای جستجو از الگوریتمهای خاصی برای شخصیسازی اطلاعات و نمایش تبلیغات بهره میبرند.
این امر مکانات زیادی را در اختیار ما میگذارد اما سوالات پیچیدهای را هم در مورد میزان مسئولیت پذیری ما طرح میکند.
برای نمونه اگر مدیریت محتوا در دست هوش مصنوعی باشد ممکن است به طور ناخواسته شکافهای اجتماعی و باورهای نژادپرستانه را ترویج کند یا جلوی گفتگوها و مناظرههای حیاتی برای تداوم دموکراسی را بگیرد.
یک نمونه مهم فیسبوک است. الگوریتمهای فیسبوک برای نشان دادن محتوای مورد پسند کاربر و همچنین یافتن دوستانی که مورد علاقه او باشند خیلی خوب کار میکنند. اما همین الگوریتمها به انتشار سریع اطلاعات نادرست در انتخابات اخیر کمک کردند.
این در حالیست که تلاش برای پالایش جریانهای خبری، ما را با خطر بالقوه سانسور مواجه خواهد کرد. همچنین روشهای پیشنهادی برای مبارزه با محتواهای مسموم و حسابهای جعلی باعث شده که جلوی انتشار دیدگاههایی بحث برانگیز اما بسیار حیاتی هم گرفته شود.
این الگوریتمهای محافظتی به وضوح جای خالی هوش مصنوعی را در تجزیه و تحلیل محتوا نشان میدهند.
برای مثال ممکن است ماشین در تشخیص طنز یا اعتراض سیاسی از گفتگوهای خرابکارانه نفرت پراکنیهای غرض ورزانه ناتوان باشد. به بیان دیگر سانسور مطالب مشکل ساز باعث میشود که ما نتوانیم در معرض ایدههای سالم اما بحث برانگیز قرار بگیریم.
از بین بردن این صداهای مخالف باعث کاهش انعطاف پذیری اجتماعی نیز خواهد شد. پس مهم است که تصمیم بگیریم که میخواهیم جامعه خود را بر اساس چه اصول اخلاقی و فکری پیش ببریم. همچنین باید بدانیم که هوش مصنوعی در این نظارت اجتماعی تا چه اندازه موثر است.
اگر برای شکل دهی محتواها به هوشهای مصنوعی بسیار پیچیده و در نتیجه کمتر شفاف تکیه کنیم ممکن است نتوانیم پیامدهای سیاسی و اجتماعی این انتخاب را در زمان مناسب تشخیص دهیم. به خصوص که در برخی کشورها سرعت پیشرفت هوش مصنوعی بسیار بالاست. در نتیجه این سیستمها با مفروضات خاصی که از فرهنگ کشور سازنده میآیند ترکیب میشوند و ملاحظات اجتماعی و فرهنگی کاربران در کشورهای دیگر را به طور کامل نادیده میگیرند.
البته تنها بازیگر این بازی دولتها نیستند. همانطور که در مثال شرکت فیسبوک دیدیم، شرکتها میتوانند برای حفظ مزیت رقابتی خود از این فناوریهای نوین بهره بگیرند. اگر قبول کنیم که دانش قدرت است باید از خود سوال کنیم که چه کسانی کنترل جریان دانش را در دست دارند.
البته بحث در مورد اختلاف عقاید و انتشار اطلاعات نادرست در کنار درک سطحی از حقایق، قدمتی تاریخی دارد. اما ابعاد جهانی پیچیدگیهای فناوریهای مدرن باعث شده که این پرسشها شکلی تازه به خود بگیرند.
اگر میخواهیم دنیایی بسازیم که از این فناوریهای نوین به بهترین شکل استفاده میکند لازم است به پیامدهای استفاده از هوش مصنوعی هم فکر کنیم.
تا اینجا گفتیم که هوش مصنوعی میتواند در علم و فناوری به انسان کمک کند. اما در کنار آینده روشن هوش مصنوعی، یک روی تاریک هم وجود دارد.
تاثیر هوش مصنوعی در فناوریهای نظامی را میشود با توسعه سلاح هستهای در دهه ۱۹۴۰ مقایسه کرد.
هدفگیری دقیق موشکی، حمله گلهای پهپادی و سپرهای ضد موشکی ما را با تهدیدات نظامی جدید مواجه خواهد کرد.
در فناوری هستهای با قرار دادن خط قرمز در مقابل محدوده بدون بازگشت، توانستیم کشورها را از حمله هستهای باز داریم. اما چنین خط قرمزی برای کاربردهای نظامی هوش مصنوعی قابل تعریف نیست. به خصوص که فناوری هوش مصنوعی میتواند کاربردهایی غیرقابل پیشبینی داشته باشد.
بیایید به یک مثال نگاه کنیم. ابزارهای سایبری خودکار هوش مصنوعی میتوانند به طور مستقل، شبکههای مجازی را برای یافتن نقاط آسیب پذیر جستجو کنند.
آنها همچنین میتوانند با تغییر کدهایشان، خود را با مقابلههای احتمالی تطبیق دهند. در نتیجه سیستمهای بازدارنده سنتی توان مقابله با هوش مصنوعی را ندارند. اگر بدافزار مبتنی بر هوش مصنوعی بتواند نقصهای سیستم را شناسایی و خود را پنهان کند، امکان واکنش به موقع از میان خواهد رفت.
در دوران جنگ سرد برای جلوگیری از بحرانهای هستهای به سیگنالهای واضح توجه میشد. اما پویایی و پیچیدگی هوش مصنوعی گفت و گو برای صلح جهانی را دشوار خواهد کرد.
همینطور هوش مصنوعی ممکن است در یک عملیات نظامی به فرماندهان مشاورههایی غیر اخلاقی یا خطرناک بدهد.
در حال حاضر نرمافزارهای تشخیص چهره با تغییر زاویه نور کارایی خود را ز دست میدهند. آیا اخلاقیست که به تشخیص هوش مصنوعی اعتماد کرده و به یک فرد حملهای مرگبار کنیم؟ مسئولیت اشتباههای احتمالی با چه کسی خواهد بود؟
امروزه در نیروهای مسلح سازمانهایی مثل موسسه تحقیقات رادیو بیولوژیک وجود دارد تا به ارتش در مورد حوادث ناشی از تشعشعات هستهای مشاوره دهد. اما ارتش آمریکا سازمانی مشابه برای خطرات احتمالی هوش مصنوعی ندارد. به زبان ساده، بزرگترین قدرت نظامی جهان هم در برابر سو استفاده از هوش مصنوعی در میدان نبرد به شدت آسیب پذیر است.
میتوانیم نتیجه بگیریم که برنامهریزی دفاعی باید خطرات احتمالی این فناوری جدید را در نظر بگیرد. برای این منظور هم لازم است آینده هوش مصنوعی را در نظر بگیریم و هم از نحوه کارکرد آن اطلاع پیدا کنیم. ما هنوز فرصت داریم برای تعیین چارچوبهای اخلاقی و اتحادهای دفاعی بینالمللی وارد عمل شویم.
همانطور که امروز جهان به این نتیجه رسیده که دیپلماسی نسبت به درگیری نظامی اولویت دارد، از طریق بحثهای دانشگاهی مذاکرات سیاسی، فضایی برای رشد امن و آینده نگرانه هوش مصنوعی فراهم کنیم. در غیر این صورت هوش مصنوعی به تهدیدی جدی در مقابل ثبات و امنیت جهانی تبدیل خواهد شد.
امروز هوش مصنوعی ظرفیتهایی دارد که زمانی از ویژگیهای منحصر به فرد انسان تلقی میشد. پیشرفت این فناوری سوالاتی فلسفی در مورد رابطه فناوری با هویت انسانی را پیش میکشد.
هوش مصنوعی امروز میتواند موسیقی، شعر و آثار خلاقانه هنری دیگری را خلق کند. اما زمانی که هوش مصنوعی وارد قلمرو ذهنی انسان شود، این پرسش مطرح خواهد شد که تا چه اندازه میتوانیم بر هوش مصنوعی تکیه کنیم.
برای کودکانی که با هوش مصنوعی بزرگ میشوند ممکن است گرفتن مشاوره شخصی از ماشین بسیار طبیعی و حتی رضایت بخش به نظر بیاید.
اما طبیعی است که هوشهای مصنوعی با سوگیریهای داخلی همراه هستند. در نتیجه ممکن است رای نسلهای آینده درک دیدگاههای جایگزین غیر ممکن شود. همچنین محرکهای ناخوشایندی که با باورهای ما در تضاد هستند اما همین محرکها باعث میشوند که شخصیتی روشنفکر و انعطاف پذیر پیدا کنیم.
از سوی دیگر به این دلیل که خلاقیت مصنوعی میتواند جایگزین نقشهای انسانی شود، این احتمال وجود دارد که برخی از ما مجبور شویم شغل خود را تغییر دهیم. برای همین لازم است روشن کنیم که چه زمان نیاز داریم یک انسان کنترل کارها را به دست بگیرد.
از این مهمتر، یکی از کاربردهای هنر این است که تجربههای انسانی را به ما منتقل کند. چه معنایی میدهد که ما این تجربهها را از سیستمهایی که خودشان انسان نیستند دریافت کنیم؟
یک الگوریتم را تصور کنید که موظف است احساسات افراد را تشخیص دهد. این سیستم حالات چهره و تن صدای افراد را تحلیل میکند و با بررسی جمله بندیهای فرد، به حالات درونی او پی میبرد. چون این سیستمها برای پیشگیری از آسیبهای احتمالی ناشی از مشکلات پنهان کارایی دارند. برای مثال با بالا رفتن تعداد خودکشیها از روی یک پل در کره جنوبی، یک سیستم پیشگیری از خودکشی با استفاده از هوش مصنوعی به کار گرفته شد. کار این سیستم این است که با تحلیل فیلمهای دوربین مداربسته مجهز به یادگیری عمیق، افراد در خطر را شناسایی کرده و برای مداخله با اورژانس تماس بگیرد.
خطر اصلی زمانی رخ میدهد که این سیستم خیلی خوب کار کند. در واقع استفاده از هوش مصنوعی باعث شد که میزان خودکشیها در این پل ۷۵ درصد کاهش پیدا کند. خطر اینجاست که ما به عوامل بنیادین که منجر به چنین نرخ بالای خودکشی شدهاند توجهی نکنیم و تنها از کاهش میزان خودکشیهای موفق خوشنود گردیم.
نتیجه آنکه مانند تمام فناوریهای نوین دیگر، اگر هوش مصنوعی هوشیارانه به کار گرفته شود قادر خواهیم بود ظرفیتهای بینظیری را کشف و به فعالیت برسانیم. اگر هوش مصنوعی با در نظر گرفتن اخلاق رشد کند قادر خواهیم بود منافع هوش مصنوعی را از مضراتش بیشتر کنیم. درست است که در این مسیر خطرات زیادی وجود دارد اما این فناوری نوین میتواند فرصتهای جدیدی را در اختیار بشریت بگذارد.
زمانی که دستگاه چاپ اختراع شد میزان دسترسی افراد به اطلاعات به طرزی باورنکردنی افزایش یافت.
اختراع اینترنت باعث شد که به اطلاعات در سطحی جهانی دسترسی پیدا کنیم و از اخبار یافتههای جدید علمی در کسری از ثانیه با خبر شویم.
درست مانند ماشین چاپ و اینترنت، هوش مصنوعی یک بار دیگر میتواند دسترسی و درک ما از اطلاعات را متحول کند. طبیعی است که هوش مصنوعی نوید انقلابهایی عظیم از پزشکی گرفته تا هنر را به ما بدهد. اما مثل هر انقلاب دیگری تغییرات میتوانند آسیب زا نیز باشند. در حال حاضر میبینیم که شکایتهای زیادی از هوش مصنوعی وجود دارد و افراد معمولا به شکلی غیر مسئولانه از این فناوری ستفاده میکند. برای رفع این مشکلات به راهنماهای اخلاقی و پیشگیرانه نیاز داریم تا مطمئن شویم هوش مصنوعی بیش از آنکه آسیب زا باشد برای ما مفید است.
جوامعی که میخواهند به طور گسترده هوش مصنوعی را به کار بگیرند باید مشخص کنند که چه زمانی کنترل چه بخشهایی به هوش مصنوعی سپرده خواهد شد.
برای مثال نظارت بر محیط زیست میتواند به طور کامل در اختیار الگوریتمهایی قرار بگیرد که توانایی تشخیص عواملی را دارند که هرگز توسط حواس محدود انسان قابل تشخیص نیستند.
اما در زمینههای دیگر مثل اجرای قانون به نظارت انسان نیاز داریم تا مطمئن شویم که حقوق اساسی افراد به دلیل سوگیریهای داخلی ماشینها پایمال نمیشود.
در سال ۲۰۲۰ پلیس دیتروید از سیستمهای تشخیص چهره برای شناسایی مظنونان جنایی استفاده کرد. با این وجود بررسیها نشان داد که این نرمافزار در مورد چهره سیاه پوستان و آسیاییها ۹۶ درصد خطا دارد. ریشه این خطا در دادههای آموزشی ابتدایی بود. این ماشین توسط چهرههای سفید تعلیم دیده بود.
به دنبال انتقادهای عمومی و شکایتهای حقوقی و به استناد به نقض حقوق مدنی توسط رباتها پلیس دیتروید استفاده از این سیستم را کنار گذاشت.
هنوز هم تصور زندگی مدرن بدون دستیارهای دیجیتال و راهنماهای هوش مصنوعی دشوار است. این سیستمها امروز بخشی از طرز فکر ما شدهاند. اما اگر قرار باشد هوش مصنوعی دسترسی ما به اطلاعات را بر مبنای آنچه برایش تعریف کردهایم محدود کند ممکن است آزادی و به دنبال آن دموکراسی آسیب ببیند.
البته نمیشود با این استدلال هوش مصنوعی را زیر سوال برد. هیچ فناوریای وجود ندارد که جنبههای مختلف تمدن را تغییر نداده باشد. هدف اصلی این است که جای درست هوش مصنوعی را در زندگی خود پیدا کنیم اما بتوانیم مضرات آن را به حداقل برسانیم.
با در نظر گرفتن اصول اخلاقی درست هوش مصنوعی حتی میتواند باعث تقویت انسانیت و آزادی شود.
هوش مصنوعی به سرعت دارد تغییر میکند و هر روز ظرفیتهای جدید خود را به ما نشان میدهد. با این حال اگر توسعه هوش مصنوعی بدون دستورالعملهای اخلاقی پیش برود با خطراتی جدی مواجه خواهیم شد.
امروز که هوش مصنوعی قادر به کارهایی است که زمانی از ویژگیهای متمایز انسان به حساب میآمد، سوالات فلسفی عمیقی در رابطه فناوری با هویت انسانی مطرح میگردد.
با ترکیب این فناوری جدید با خرد انسانی، تعیین دقیق خطوط قرمز، اولویت دادن توانمندسازی بر بیکار افراد، امید داریم که هوش مصنوعی به جای یک تهدید رعب انگیز، زندگی انسانها را بهبود بخشد.