هوش مصنوعی (بهانگلیسی:Artificial intelligence) (مخففانگلیسی:AI)هوشی است که توسطماشینها ظهور پیدا میکند، در مقابلهوش طبیعی[الف] که توسطجانوران شاملانسانها نمایش مییابد. اما پیش از هرچیز باید این موضوع را دانست که کلمههوش، نشان دهنده امکاناستدلال است و اینکه آیا هوش مصنوعی میتواند به تواناییاستدلال دست یابد یا خیر، خود موضوع اختلاف محققان است.
کتابهای AI پیشرو، این شاخه را به عنوان شاخهمطالعه بر روی «عوامل هوشمند» تعریف میکنند: هر سامانهای که محیط خود را درک کرده و کنشهایی را انجام میدهد که شانسش را در دستیابی به اهدافش بیشینه میسازد.[ب] برخی از منابع شناخته شده از اصطلاح «هوش مصنوعی» جهت توصیف ماشینی استفاده میکنند که عملکردهای «شناختی» را از رویذهن انسانها تقلید میکنند، همچون «یادگیری» و «حل مسئله»، با این حال این تعریف توسط محققان اصلی در زمینه AI رد شده است.[پ][۲][۳]
هوش مصنوعی در سال ۱۹۵۶ میلادی تبدیل به شاخهایآکادمیک شد و در سالهای پس از آن چندین موج خوشبینی را تجربه کرده و مجدد دچار امواج ناامیدی و کمبود بودجه شده (که به آن «زمستان AI» میگویند)، سپس فناوریهای جدیدی در پی آن آمده و موفقیت و بودجههای تحقیقاتی این حوزه مجدداً احیا گشتهاند. تحقیقات AI رهیافتهای متفاوتی را از زمان تأسیسش امتحان کرده و آنها را کنار گذاشته است، رهیافتهایی چون: شبیهسازی مغز،مدلسازی حل مسئله توسط مغز انسان،منطق صوری، بانکهای اطلاعاتی بزرگ دانش و تقلید رفتار جانوران. در اولین دهههای قرن ۲۱ میلادی،یادگیری ماشینی که شدیداً از آمار ریاضیاتی بهره میبرد در این حوزه غلبه داشت و این فناوری اثبات کرد که به شدت موفق است و به حل چندین مسئله چالشبرانگیز درصنعت و فضایآکادمیک کمک نمود.[۷][۸]
شاخههای مختلف تحقیقات هوش مصنوعی حول اهداف بهخصوصی متمرکز بوده و از ابزارآلات خاصی استفاده میکنند. اهداف سنتی تحقیقات AI شامل این موارد اند:استدلال،نمایش دانش،برنامهریزی،یادگیری،پردازش زبان طبیعی،ادراک و توانایی درجابجایی و دستکاری اشیاء.[ت]هوش جامع (توانایی حل مسائل دلخواه) در میان اهداف بلند مدت این حوزه است. جهت حل چنین مسائلی، محققان AI فنون حل مسئله وسیع و یکپارچهای را شامل این موارد به کار بستهاند: جستوجو وبهینهسازی ریاضیاتی، منطق صوری، شبکههای عصبی مصنوعی و روشهای مبنی برآمار،احتمالات واقتصاد. AI همچنین با حوزههایی چونعلوم کامپیوتر،روانشناسی،زبانشناسی،فلسفه و بسیاری از حوزههای دیگر مرتبط است.[۹]
این شاخه بر این فرض بنا شده است که هوش انسانی «را میتوان به دقت توصیف نمود، به طوری که میتوان آن را توسط یک ماشینشبیهسازی نمود».[ث] این فرض بحثهای فلسفی را پیرامون ذهن و اخلاقیات خلق موجودات هوشمند برانگیخته است، موجوداتی که دارای هوش شبیه-انسان اند. این مسائل توسطافسانهها،داستانهای تخیلی وفلسفه اززمانهای باستان مورد کاوش واقع شدهاند. ادبیاتعلمی-تخیلی وآیندهپژوهی نیز پیشنهاد میدهند که AI با پتانسیل و قدرت عظیمی که دارد، ممکن است منجر به ایجادریسک وجودی برای بشریت گردد.[۱۱]
مسئله کلی شبیهسازی (یا ایجاد) هوش به زیرمسئلههایی تقسیم شده است. این زیرمسئلهها شامل ویژگیها یا قابلیتهای خاصی هستند که پژوهشگران انتظار دارند یک سیستم هوشمند از خود نشان دهد. ویژگیهای توصیف شده در زیر بیشترین توجه را به خود جلب کرده و دامنه پژوهشهای هوش مصنوعی را پوشش میدهند.[ت]
پژوهشگران اولیه الگوریتمهایی را توسعه دادند که از استدلال گام به گامی که انسانها هنگام حل معماها یا انجاماستنتاجهای منطقی به کار میبرند، تقلید میکرد.[۱۲] در اواخر دهه ۱۹۸۰ و ۱۹۹۰، روشهایی برای مواجهه با اطلاعاتنامطمئن یا ناقص با استفاده از مفاهیماحتمالات واقتصاد توسعه یافت.[۱۳]
بسیاری از این الگوریتمها برای حل مسائل بزرگ استدلالی ناکافی هستند زیرا با یک «انفجار ترکیبی» مواجه میشوند: با بزرگتر شدن مسائل، سرعت آنها به صورت نمایی کاهش مییابد.[۱۴] حتی انسانها نیز به ندرت از استنتاج گام به گامی که پژوهشهای اولیه هوش مصنوعی میتوانستند مدلسازی کنند، استفاده میکنند. آنها بیشتر مسائل خود را با استفاده از قضاوتهای سریع و شهودی حل میکنند.[۱۵] استدلال دقیق و کارآمد یک مسئله حلنشده باقی مانده است.
یک هستانشناسی دانش را به عنوان مجموعهای از مفاهیم در یک دامنه و روابط بین آن مفاهیم بازنمایی میکند.
بازنمایی دانش ومهندسی دانش[۱۶] به برنامههای هوش مصنوعی اجازه میدهند تا به طور هوشمندانه به سؤالات پاسخ دهند و در مورد حقایق دنیای واقعی استنتاج کنند. بازنماییهای دانش رسمی در نمایهسازی و بازیابی مبتنی بر محتوا،[۱۷] تفسیر صحنه،[۱۸] پشتیبانی تصمیمگیری بالینی،[۱۹] کشف دانش (استخراج «استنتاجهای جالب» و قابل اقدام ازپایگاههای داده بزرگ)،[۲۰] و سایر حوزهها استفاده میشوند.[۲۱]
یکپایگاه دانش مجموعهای از دانش است که به شکلی قابل استفاده برای یک برنامه بازنمایی شده است. یکهستی شناسی مجموعهای از اشیاء، روابط، مفاهیم و ویژگیهایی است که توسط یک دامنه خاص از دانش استفاده میشود.[۲۲] پایگاههای دانش نیاز به بازنمایی مواردی مانند اشیاء، ویژگیها، دستهها و روابط بین اشیاء دارند؛[۲۳] موقعیتها، رویدادها، وضعیتها و زمان؛[۲۴] علل و معلولها؛[۲۵] دانش در مورد دانش (آنچه ما در مورد آنچه دیگران میدانند، میدانیم)؛[۲۶] استدلال پیشفرض (چیزهایی که انسانها فرض میکنند درست هستند تا زمانی که خلاف آن به آنها گفته شود و حتی با تغییر حقایق دیگر نیز درست باقی میمانند)؛[۲۷] و بسیاری از جنبهها و دامنههای دیگر دانش.
از جمله دشوارترین مسائل در بازنمایی دانش، گستردگی دانش عقل سلیم (مجموعه حقایق اتمی که یک فرد معمولی میداند بسیار گسترده است)؛[۲۸] و شکل زیر-نمادین بیشتر دانش عقل سلیم (بسیاری از آنچه مردم میدانند به صورت «حقایق» یا «گزارههایی» که بتوانند به صورت کلامی بیان کنند، بازنمایی نمیشود) است.[۱۵] همچنین دشواری فراگیری دانش، یعنی مسئله به دست آوردن دانش برای کاربردهای هوش مصنوعی، وجود دارد.[ج]
یک «عامل» (agent) هر چیزی است که در جهان ادراک کرده و اقداماتی را انجام میدهد. یک عامل منطقی اهداف یا ترجیحاتی دارد و برای تحقق آنها اقدام میکند.[چ][۳۱] دربرنامهریزی خودکار، عامل یک هدف مشخص دارد.[۳۲] درتصمیمگیری خودکار، عامل ترجیحاتی دارد—موقعیتهایی وجود دارند که ترجیح میدهد در آنها باشد و موقعیتهایی که سعی میکند از آنها اجتناب کند. عامل تصمیمگیرنده به هر موقعیت یک عدد (که «مطلوبیت» نامیده میشود) اختصاص میدهد که میزان ترجیح عامل را برای آن موقعیت اندازهگیری میکند. برای هر اقدام ممکن، میتواند «مطلوبیت انتظاری» را محاسبه کند: یعنیمطلوبیت تمام نتایج ممکن از آن اقدام، که با احتمال وقوع آن نتیجه وزندهی شده است. سپس میتواند اقدامی را انتخاب کند که بیشترین مطلوبیت انتظاری را داشته باشد.[۳۳]
در برنامهریزی کلاسیک، عامل دقیقاً میداند که تأثیر هر اقدام چه خواهد بود.[۳۴] اما در بیشتر مسائل دنیای واقعی، عامل ممکن است در مورد موقعیتی که در آن قرار دارد مطمئن نباشد (موقعیت «ناشناخته» یا «غیرقابل مشاهده» است) و ممکن است به طور قطع نداند که پس از هر اقدام ممکن چه اتفاقی خواهد افتاد (موقعیت «قطعی» نیست). عامل باید با یک حدس احتمالی اقدامی را انتخاب کند و سپس موقعیت را دوباره ارزیابی کند تا ببیند آیا اقدام مؤثر بوده است یا خیر.[۳۵]
در برخی مسائل، ترجیحات عامل ممکن است نامشخص باشد، به خصوص اگر عوامل یا انسانهای دیگری درگیر باشند. این ترجیحات میتوانند یاد گرفته شوند (مثلاً با یادگیری تقویتی معکوس) یا عامل میتواند برای بهبود ترجیحات خود به دنبال اطلاعات باشد.[۳۶] نظریه ارزش اطلاعات میتواند برای سنجش ارزش اقدامات اکتشافی یا آزمایشی استفاده شود.[۳۷] فضای اقدامات و موقعیتهای ممکن در آینده معمولاً به طور ذاتی بزرگ است، بنابراین عاملها باید در حالی که از نتیجه مطمئن نیستند، اقدام کرده و موقعیتها را ارزیابی کنند.
یک فرایند تصمیمگیری مارکوف دارای یکمدل انتقال است که احتمال تغییر حالت توسط یک اقدام خاص به روشی معین را توصیف میکند و یک تابع پاداش دارد که مطلوبیت هر حالت و هزینه هر اقدام را فراهم میکند. یکسیاست (policy) یک تصمیم را به هر حالت ممکن مرتبط میکند. سیاست میتواند محاسبه شود (مثلاً با تکرار سیاست)، ابتکاری باشد، یا یاد گرفته شود.[۳۸]
نظریه بازیها رفتار منطقی چندین عامل در حال تعامل را توصیف میکند و در برنامههای هوش مصنوعی که تصمیماتی را شامل عوامل دیگر میگیرند، استفاده میشود.[۳۹]
یادگیری ماشین مطالعه برنامههایی است که میتوانند عملکرد خود را در یک وظیفه معین به طور خودکار بهبود بخشند.[۴۰] این حوزه از ابتدا بخشی از هوش مصنوعی بوده است.[ح]
دریادگیری با نظارت، دادههای آموزشی با پاسخهای مورد انتظار برچسبگذاری شدهاند، در حالی که در یادگیری بدون نظارت، مدل الگوها یا ساختارها را در دادههای بدون برچسب شناسایی میکند.
انواع مختلفی از یادگیری ماشین وجود دارد.یادگیری بینظارت جریانی از دادهها را تحلیل میکند و بدون هیچ راهنمایی دیگری، الگوها را پیدا کرده و پیشبینیهایی را انجام میدهد.[۴۳]یادگیری بانظارت نیازمند برچسبگذاری دادههای آموزشی با پاسخهای مورد انتظار است و در دو نوع اصلی ارائه میشود:دستهبندی (که در آن برنامه باید یاد بگیرد پیشبینی کند ورودی به کدام دسته تعلق دارد) ورگرسیون (که در آن برنامه باید یک تابع عددی را بر اساس ورودی عددی استنتاج کند).[۴۴]
دریادگیری تقویتی، عامل برای پاسخهای خوب پاداش میگیرد و برای پاسخهای بد تنبیه میشود. عامل یاد میگیرد پاسخهایی را انتخاب کند که به عنوان «خوب» طبقهبندی میشوند.[۴۵]یادگیری انتقال زمانی است که دانش به دست آمده از یک مسئله به یک مسئله جدید اعمال میشود.[۴۶]یادگیری عمیق نوعی از یادگیری ماشین است که ورودیها را از طریقشبکههای عصبی مصنوعی الهام گرفته از زیستشناسی برای همه این انواع یادگیری پردازش میکند.[۴۷]
کارهای اولیه، بر اساسدستور زایشینوآم چامسکی وشبکههای معنایی، با ابهامزدایی از معنای واژه مشکل داشتند[خ] مگر اینکه به دامنههای کوچکی به نام «میکرو-جهانها» محدود میشدند (به دلیل مسئله دانش عقل سلیم[۲۸]). مارگارت مسترمن معتقد بود که معنا و نه دستور زبان، کلید درک زبانها است واصطلاحنامه و نه لغتنامهها باید اساس ساختار زبان محاسباتی باشند.
تکنیکهای مدرن یادگیری عمیق برای NLP شامل تعبیه کلمه (نمایش کلمات، معمولاً به صورتبردارها که معنای آنها را رمزگذاری میکنند)،[۵۱] ترنسفورمرها (یک معماری یادگیری عمیق با استفاده از مکانیزمتوجه)،[۵۲] و موارد دیگر است.[۵۳] در سال ۲۰۱۹، مدلهای زبانی ترنسفورمر از پیش آموزشدیده مولد (یا "GPT") شروع به تولید متن منسجم کردند،[۵۴][۵۵] و تا سال ۲۰۲۳، این مدلها توانستند در آزمون وکالت، آزمونSAT، آزمونGRE و بسیاری از کاربردهای دنیای واقعی دیگر، نمراتی در سطح انسان کسب کنند.[۵۶]
ادراک ماشین توانایی استفاده از ورودیهای حسگرها (مانند دوربینها، میکروفونها، سیگنالهای بیسیم،لیدار فعال، سونار، رادار و حسگرهای لمسی) برای استنتاج جنبههایی از جهان است.بینایی رایانهای توانایی تحلیل ورودی بصری است.[۵۷]
کیزمت، یک سر ربات که در دهه ۱۹۹۰ ساخته شد؛ ماشینی است که میتواند احساسات را تشخیص داده و شبیهسازی کند.[۶۳]
رایانش عاطفی حوزهای است که شامل سیستمهایی میشود که احساس، هیجان و خلقوخوی انسان را تشخیص میدهند، تفسیر میکنند، پردازش میکنند یا شبیهسازی میکنند.[۶۴] به عنوان مثال، برخیدستیاران مجازی طوری برنامهریزی شدهاند که به صورت محاورهای صحبت کنند یا حتی شوخی کنند؛ این باعث میشود آنها نسبت به دینامیکهای عاطفی تعامل انسانی حساستر به نظر برسند یاتعامل انسان و رایانه را تسهیل کنند.
با این حال، این امر تمایل دارد به کاربران سادهلوح یک تصور غیرواقعی از هوش عاملهای کامپیوتری موجود بدهد.[۶۵] موفقیتهای متوسط مرتبط با رایانش عاطفی شامل تحلیل احساسات متنی و اخیراً تحلیل احساسات چندوجهی است که در آن هوش مصنوعی عواطف نمایش داده شده توسط یک سوژه فیلمبرداری شده را طبقهبندی میکند.[۶۶]
هوش مصنوعی توسطفلاسفه وریاضیدانانی نظیرجرج بول که اقدام به ارائهٔ قوانین ونظریههایی در مورد منطق نمودند، مطرح شده بود. با اختراعرایانههای الکترونیکی در سال ۱۹۴۳، هوش مصنوعی، دانشمندان آن زمان را به چالشی بزرگ فراخواند. در این شرایط، چنین بهنظر میرسید که این فناوری قادر به شبیهسازی رفتارهای هوشمندانه خواهد بود.
با وجود مخالفت گروهی از متفکران با هوش مصنوعی که با تردید به کارآمدی آن مینگریستند تنها پس از چهار دهه، شاهد تولد ماشینهایشطرنج باز و دیگرسامانههای هوشمند در صنایع گوناگون شدیم.
حوزه پژوهش در زمینه هوش مصنوعی در یک کارگاه آموزشی درکالج دارتموث در سال ۱۹۵۶ متولد شد.[۶۸][۶۹][۷۰] شرکتکنندگان آلن نیول (دانشگاه کارنگی ملون)،هربرت سیمون (دانشگاه کارنگی ملون)، جان مککارتی (مؤسسه فناوری ماساچوست)، ماروین منسکی (مؤسسه فناوری ماساچوست) و آرتور ساموئل (آیبیام) از بنیانگذاران و رهبران پژوهش در زمینه هوش مصنوعی شدند.[۶۸] آنها به همراه دانشجویانشان برنامههایی نوشتند که مطبوعات آن را «شگفتآور» توصیف میکردند، رایانهها استراتژیهای بردِ بازیچکرز را فرا میگرفتند،[۷۱][۷۲] سوالاتی درجبر حل میکردند، قضیههای منطقی اثبات میکردند و انگلیسی صحبت میکردند.[۶۸][۷۳] در اواسط دهه ۱۹۶۰ میلادیوزارت دفاع آمریکا سرمایهگذاریهای سنگینی در حوزه پژوهش در زمینه هوش مصنوعی انجام میداد،[۶۹] در آن دهه آزمایشگاههای فراوانی در سراسر جهان تأسیس شد.[۷۴] بنیانگذاران هوش مصنوعی در مورد آینده خوشبین بودند: هربرت سیمون پیشبینی کرد «ماشینها ظرف بیست سال قادر به انجام هر کاری هستند که یک انسان میتواند انجام دهد». ماروین مینسکی، نوشت: «در طی یک نسل … مسئله هوش مصنوعی اساساً حل خواهد شد».[۶۹]
نام هوش مصنوعی در سال ۱۹۶۵ میلادی به عنوان یک دانش جدید ابداع گردید. البته فعالیت در این زمینه از سال ۱۹۶۰ میلادی شروع شد. (مرجع۱)بیشتر کارهای پژوهشی اولیه در هوش مصنوعی بر روی انجام ماشینیبازیها و نیز اثباتقضیههای ریاضی با کمک رایانهها بود. در آغاز چنین به نظر میآمد که رایانهها قادر خواهند بود چنین فعالیتهایی را تنها با بهره گرفتن از تعداد بسیار زیادی کشف و جستجو برای مسیرهای حل مسئله و سپس انتخاب بهترین روش برای حل آنها به انجام رسانند.
اصطلاح هوش مصنوعی برای اولین بار توسطجان مککارتی (که از آن بهعنوان پدر علم و دانش تولید ماشینهای هوشمند یاد میشود) استفاده شد. وی مخترع یکی اززبانهای برنامهنویسی هوش مصنوعی به ناملیسپ (بهانگلیسی:lisp) است. با این عنوان میتوان به هویت رفتارهای هوشمندانه یک ابزار مصنوعی پی برد. (ساختهٔ دست بشر، غیرطبیعی، مصنوعی) حال آنکه هوش مصنوعی به عنوان یک اصطلاح عمومی پذیرفته شده که شامل محاسبات هوشمندانه و ترکیبی (مرکب از مواد مصنوعی) است.
از اصطلاح "Strong and Weak AI" میتوان تا حدودی برای معرفی ردهبندی سامانهها استفاده کرد.
آزمون تورینگ[۷۵] آزمونی است که توسطآلن تورینگ در سال ۱۹۵۰ در نوشتهای به نام «محاسبات و هوشمندی» مطرح شد. در این آزمون شرایطی فراهم میشود که شخصی با ماشینی تعامل برقرار کند و پرسشهای کافی برای بررسی اقدامات هوشمندانهٔ ماشین، از آن بپرسد. چنانچه در پایان آزمایش نتواند تشخیص دهد که با انسان یا با ماشین در تعامل بوده است، آزمون با موفقیت انجام شده است. تاکنون هیچ ماشینی از این آزمون با موفقیت بیرون نیامده است. کوشش این آزمون برای تشخیص درستی هوشمندی یک سامانه است که سعی درشبیهسازی انسان دارد.
سامانه یک خودروی بدون راننده میتواند از یک شبکه عصبی استفاده کند تا بتواند تشخیص دهد که کدام قسمت از تصاویر میتواند با تصویر یک انسان تطابق داده شود، و سپس آن قسمت را به شکل یک مستطیل با حرکت آهسته شبیهسازی کند که باید از برخورد با آن خودداری شود.[۷۶][۷۷]
هنوز تعریف دقیقی برای هوش مصنوعی که مورد توافق دانشمندان این علم باشد ارائه نشده است و این به هیچ وجه مایهٔ تعجب نیست. چرا که مقولهٔ مادر و اساسیتر از آن، یعنی خود هوش هم هنوز بهطور همهجانبه و فراگیر تن به تعریف نداده است. در واقع میتوان نسلهایی از دانشمندان را سراغ گرفت که تمام دوران زندگی خود را صرف مطالعه و تلاش در راه یافتن جوابی به این سؤال عمده نمودهاند که: هوش چیست؟
اما اکثر تعریفهایی که در این زمینه ارائه شدهاند بر پایه یکی از ۴ باور زیر قرار میگیرند:
سامانههایی که بهطور منطقی فکر میکنند
سامانههایی که بهطور منطقی عمل میکنند
سامانههایی که مانند انسان فکر میکنند
سامانههایی که مانند انسان عمل میکنند (مرجع۱)
شاید بتوان هوش مصنوعی را اینگونه توصیف کرد: «هوش مصنوعی عبارت است از مطالعه این که چگونه رایانهها را میتوان وادار به کارهایی کرد که در حال حاضر انسانها آنها را صحیح یا بهتر انجام میدهند» (مرجع۲). هوش مصنوعی به هوشی که یک ماشین از خود نشان میدهد یا به دانشی درکامپیوتر که سعی در ایجاد آن دارد گفته میشود. بیشتر نوشتهها و مقالههای مربوط به هوش مصنوعی آن را «دانش شناخت و طراحی عاملهای هوشمند» تعریف کردهاند. یکعامل هوشمند، ساماندهی است که با شناخت محیط اطراف خود، شانس موفقیت خود را بالا میبرد.
اینکه هوش مصنوعی چیست و چه تعریفی میتوان از آن بیان نمود؟ مبحثی است که تاکنون دانشمندان به یک تعریف جامع در آن نرسیدهاند و هریک تعریفی را ارائه نمودهاند که در زیر نمونهای از این تعاریف آمده است.
هنر ایجاد ماشینهایی که وظایفی را انجام میدهند که انجام آنها توسط انسانها نیاز به هوش دارد (کورزویل - ۱۹۹۰)
مطالعهٔ استعدادهای ذهنی از طریقمدلهای محاسباتی (کارنیاک و مک درموت - ۱۹۸۵)
مطالعهٔ اینکه چگونه رایانهها را قادر به انجام اعمالی کنیم که در حال حاضر، انسان آن اعمال را بهتر انجام میدهد. (ریچ و نایت - ۱۹۹۱)
خودکارسازی فعالیتهایی که ما آنها را به تفکر انسانی نسبت میدهیم. فعالیتهایی مثل تصمیمگیری، حل مسئله، یادگیری و … (بلمن - ۱۹۷۸)
تلاشی نو و مهیج برای اینکه رایانهها را قادر به فکر کردن کنیم. ماشینهایی با فکر و حس تشخیص واقعی (هاگلند - ۱۹۸۵)
یک زمینهٔ تخصصی که به دنبال توضیح و شبیهسازی رفتار هوشمندانه به وسیلهٔ فرایندهای رایانهای است. (شالکوف - ۱۹۹۰)
مطالعه محاسباتی که درک، استدلال و عمل کردن را توسط ماشینها را ممکن میسازد. (وینستون - ۱۹۹۲)
توانایی دست یافتن به کارایی در حد انسان در همهٔ امور شناختی توسط رایانه (آلن تورینگ - ۱۹۵۰)
هوش مصنوعی دانش و مهندسی ساخت ماشینهای هوشمند و به خصوص برنامههای رایانهای هوشمند است. هوش مصنوعی با وظیفه مشابه استفاده از رایانهها برای فهم چگونگی هوش انسان مرتبط است، اما مجبور نیست خودش را به روشهایی محدود کند که بیولوژیکی باشند. (جان مککارتی - ۱۹۸۰)
هوشمندی مفهومی نسبی دارد و نمیتوان محدوده صحیحی را برای ارائه تعریف از آن مشخص نمود. رفتاری که از نظر یک فرد هوشمند به نظر میرسد؛ ممکن است برای یک فرد دیگر اینگونه به نظر نرسد. اما در مجموع خصوصیات زیر قابلیتهای ضروری برای هوشمندی است:
پاسخ به موقعیتهای از قبل تعریف نشده با انعطاف بسیار بالا و بر اساس بانک دانش
معنا دادن به پیامهای نادرست یا مبهم
درک تمایزها و شباهتها
تجزیه و تحلیل اطلاعات و نتیجهگیری
توانمندی آموختن و یادگرفتن
برقراری ارتباط دوطرفه
به فرض اینکه تعاریف بالا را از هوشمندی بپذیریم، موارد زیر فهرستی است از وظایفی که از یک سامانه هوشمند انتظار میرود و تقریباً اکثر دانشمندان هوش مصنوعی بر آن توافق نظر دارند به شرح زیر است:
تولید گفتار
تشخیص و درک گفتار (پردازش زبان طبیعی انسان)
دستورپذیری و قابلیت انجام اعمال فیزیکی در محیط طبیعی و مجازی
استنتاج و استدلال
تشخیص الگو و بازشناسی الگو برای پاسخ گویی به مسائل بر اساس دانش قبلی
شمایلی گرافیکی یا فیزیکی جهت ابراز احساسات و عکسالعملهای ظریف
هوش مصنوعی کاربردهای متنوعی دارد. تعدادی از مهمترین کاربردهای هوش مصنوعی شامل استفاده در وسایل نقلیه خودگردان (مثلپهپادها واتومبیلهای خودران)، تشخیصهای پزشکی، خلق آثار هنری، اثباتقضیههای ریاضی، انجام بازیهای فکری، تعیین هویت تصاویر (تشخیص چهره) و صداها، ذخیره انرژی، جستجوگرهای اینترنتی، تهیهقراردادها و پیشبینی آرایقضایی میشوند.
یکی از مهمترین کاربردهای هوش مصنوعی در زمینهٔ تجارت، اقتصاد وکلان داده است. برای مثال، با استفاده از هوش مصنوعی میتوان با ضریب خطای پایینی، تغییرات فصلی و بلندمدت در عرضه یا تقاضای محصولات مختلف را پیشبینی کرد. این موضوع میتواند به شدت در سیاست،اقتصاد کلان و کنترل عرضه و تقاضا مفید واقع شود. همچنین، شرکتهایی مانند گوگل خدماتی در زمینهٔ هوش مصنوعی به شرکتهای بزرگ ارائه میدهند که میتواند به برنامهریزی، انبارگردانی، پیشبینی سیر صعودی یا نزولی فروش در محصولات به خصوص و نیز برندسازی آنها کمک کند.
پیشبینی قیمت در بازارها (مانند پیشبینی قیمت نفت با هوش مصنوعی) یکی از کاربردهای هوش مصنوعی در اقتصاد است.[۱۰۰]
بهطور تاریخی، پیشبینی فوتبال به انسانهای ماهری وابسته بود که میتوانستند سوابق و وضعیت دو تیم و بازیکنان را تحلیل کنند. با انقلاب دیجیتال، سایتهای شرطبندی کار را برای پیشبینی آسان و آسانتر کردند. اما حتی ظهور سایتها و شرطبندی آنلاین هم تأثیری در نحوه شرطبندی ایجاد نکرد. همچنان علاقهمندان تلاش میکنند تا وضعیت طرفین و بازیکنان را بررسی کنند. هوش مصنوعی این را تغییر میدهد. اینترنت باعث ظهور سایتها و فرومهایی شد که تیپسترهای شرطبندی فرم معرفی میکنند. با ظهور هوش مصنوعی، فرم شرطبندی میتواند چیزی فراتر از یک محاسبه انسانی باشد و الگوریتمهای یادگیری ماشین، بازی را عوض میکنند.[۱۰۱][۱۰۲]
در شبکههای اجتماعی مطرح مانند توئیتر یا اینستاگرام، برای تشخیص الگوهای رفتاری انسانی، جلوگیری ازهرزنامه و انتشار محتوای مجرمانه و نیز شناسایی مخاطبان هدف برای تبلیغات، از هوش مصنوعی استفاده میشود. همچنین، برخی ازرباتهای شبکهُ اجتماعی بر پایهٔ هوش مصنوعی فعالیت میکنند تا در بالاترین سطوح رفتارهای انسانی را شبیهسازی نمایند.[۱۰۳]
کاربرد هوش مصنوعی در خدماتحقوقی به سرعت در حال افزایش است و سیستمهای نوین مبتنی برپردازش زبان طبیعی به تدریج در حال به عهده گرفتن بخشی از وظایف حقوقدانان هستند. نرمافزارهای مبتنی برتکنولوژی هوش مصنوعی در حال حاضر امکان تهیه قراردادهای دقیق، تحلیل قراردادها و اسناد حقوقی موجود و پیشبینی آرای دادگاهها را فراهم کردهاند.
هوش مصنوعی از طریق فناوریها و کاربردهای خود میتواند به توسعه فرهنگ، کاربردها و ابزارهای فرهنگی، حفاظت از میراث فرهنگی و میراث مکتوب یاری برساند. مواردی مانندپردازش زبان طبیعی، جست و جوی معنایی، خوانش رایانشی کتابها،متن کاوی،ایده کاوی، روانکاوی رایانشی، قرآن کاوی رایانشی،مدلهای زبانی بزرگ،نویسه خوانی نوری OCR (برای کتب خطی و قدیمی یا چاپی و جدید)، اکتشافات زبانشناسی، اکتشافات فرهنگی، پایگاههای داده و دادگان مرجع زبانی و فرهنگی و میراثی،دوقلوی دیجیتال برای میراث فرهنگی، دوقلوی دیجیتال برای میراث مکتوب، واقعیت مجازی هوشمند و واقعیت افزوده هوشمند برای میراث فرهنگی و دیگر موارد.
هر بار که از هوش مصنوعی استفاده میکنید،رد پای کربنی ایجاد میشود. هوش مصنوعی (مخصوصاً مدلهای بزرگ مثل (ChatGPT،Grok،Gemini،Llama) برای آموزش (Training) و استفاده (Inference) به انرژی الکتریکی عظیمی نیاز دارند که عمدتاً ازنیروگاههای زغالسنگی،گازی یا حتیهستهای تأمین میشود.به طور نمونه:
یک پرسوجو مثلاً یک سؤال از ChatGPT از ۲ تا ۱۰ گرم CO₂، معادل رانندگی ۵۰ متر با ماشین بنزینی است .
تولید یک تصویر با AI مثل DALL·E یا Midjourney از ۱ گرم تا ۵ گرم CO₂ معادل ۵ دقیقه روشن ماندنلامپ LED می باشد. هوش مصنوعی، در هر پاسخِ کوتاه، دو تا ده گرمِ کربن به باد میسپارد؛ اما در رقصِ بیتهای دیجیتال، مثل آموزش یک مدل، پانصد تن دودِ کربنی به آسمانِ زمین میدمد.[۱۰۴][۱۰۵]
بهطور کلی ماهیت وجودی هوش به مفهوم جمعآوری اطلاعات، استقراء و تحلیل تجربیات به منظور رسیدن به دانش یا ارائه تصمیم است. در واقع هوش به مفهوم بهکارگیری تجربه به منظور حل مسائل دریافت شده تلقی میشود. هوش مصنوعی علم و مهندسی ایجاد ماشینهایی هوشمند با بهکارگیری از کامپیوتر و الگوگیری از درک هوش انسانی یا حیوانی و نهایتاً دستیابی به مکانیزم هوش مصنوعی در سطح هوش انسانی است.[۱۰۶]
در مقایسهٔ هوش مصنوعی باهوش انسانی میتوان گفت که انسان قادر به مشاهده و تجزیه و تحلیل مسائل در جهت قضاوت و اخذ تصمیم است در حالی که هوش مصنوعی مبتنی بر قوانین و رویههایی از قبل تعبیه شده بر روی کامپیوتر است. در نتیجه علیرغم وجود رایانههای بسیار کارا و قوی در عصر حاضر ما هنوز قادر به پیاده کردن هوشی نزدیک به هوش انسان در ایجاد هوشهای مصنوعی نبودهایم.
بهطور کلّی، هوش مصنوعی را میتوان از زوایای متفاوتی مورد بررسی و مطالعه قرار داد. مابین هوش مصنوعی به عنوان یک هدف، هوش مصنوعی به عنوان یک رشتهٔ تحصیلی دانشگاهی یا هوش مصنوعی به عنوان مجموعهٔ فنون و راهکارهایی که توسط مراکز علمی مختلف و صنایع گوناگون تنظیم و توسعه یافته است، باید تفاوت قائل بود.[۱۰۷]
اتاق چینی یک آزمایش ذهنی است که اولین بار توسط مقالهجان سرل بهنام «ذهنها، مغزها، و برنامهها» (بهانگلیسی:Minds, Brains, and Programs) در مجله «علوم رفتاری و ذهنی» (بهانگلیسی:Behavioral and Brain Sciences) در سال ۱۹۸۰ منتشر شد. وی با این سؤال که آیا یک برنامه هوشمند مترجم که توانایی ترجمه از زبانچینی به زبان انگلیسی را دارد، ضرورتی برای فهم موضوع مورد ترجمه دارد یا خیر و با تشبیه ذهن به یک برنامهٔ هوشمند رایانهای این استدلال را در برابر مواضع فلسفیکارکردگرایی ونظریه محاسباتی ذهن که در آنها، ذهن به عنوان یک محاسبهگر یا دستکاری کنندهٔ نماد عمل میکند، قرار داد.[۱۰۸] در واقع نتایج حاصل از آزمایش اتاق چینی حکایت از این دارد که هیچ برنامهای نمیتواند به کامپیوتر ذهن، فهم یا آگاهی بدهد. حال آن برنامه هر آنچه میخواهد هوشمند باشد و باعث شود کامپیوتر همچون انسان رفتار کند. اگر چه این آزمایش در اصل جوابی برای اظهارات محققان هوش مصنوعی بود، اما این ادعا در برابر اهداف تحقیقات هوش مصنوعی قرار نمیگیرد چرا که این موضوع حدی برای هوشمندی کامپیوتر قائل نیست. همچنین این آزمایش مختص رایانههای دیجیتال است و دامنه آن همه ماشینها نیستند.[۱۰۸]
بهطور کلی هوش مصنوعی به دو دسته زیر تفکیک میشود:
Narrow AI یا هوش مصنوعی ضعیف: این نوع هوش مصنوعی در یک زمینه محدود عمل میکند و شبیهسازی هوش انسانی است. هوش مصنوعی ضعیف اغلب بر روی یک کار مشخص تعریف میشود و در محدوده تعریفش بسیار عالی عمل میکند. شاید این ماشینها بسیار هوشمند به نظر برسند اما حقیقت این است که حتی از ابتدائیترین سطوح هوش انسانی هم سادهتر عمل میکنند.
Artificial General Intelligence یا هوش مصنوعی فراگیر: که با عنوان هوش مصنوعی قوی هم شناخته میشود، نوعی از هوش مصنوعی است که بیشتر در فیلمها دیدهایم، مانند رباتهای فیلم Westworld. هوش مصنوعی قوی بسیار شبیه به انسان عمل میکند چنانکه میتواند تواناییهای خود را بر حل مسائلی در حوزههای مختلف به کار بگیرد.[۱۰۹]
برترین سایت ها و پلتفرم های هوش مصنوعی:
۱. OpenAI (با ChatGPT و DALL·E)
شرکت OpenAI یکی از پیشگامان حوزه هوش مصنوعی است که ابزارهایی مثل ChatGPT، DALL·E و Whisper را توسعه میدهد. این فناوری به کاربر امکان تبدیل گفتار به نوشتار، تولید متن و خلق تصاویر از طریق متن را میدهد. هدف اصلی این ابزارها، بهبود ارتباط انسان با ماشین و افزایش بهرهوری در زمینههای گوناگون است. با بهرهگیری از مدلهای پیشرفته یادگیری ماشین، OpenAI امکانات منحصربهفردی را در اختیار توسعهدهندگان و علاقهمندان به فناوری قرار داده است.[۱۱۰]
Google Cloud AI.2
پلتفرم قدرتمند هوش مصنوعی گوگل، مجموعهای کامل از خدمات پیشرفته مثل تحلیل کلانداده و بینایی ماشین، پردازش زبان طبیعی، مدلهای یادگیری عمیق را در اختیار کاربر قرار میدهد. این ابزارها به کسبوکار ما کمک میکند تا پروژههای هوشمند خود را با دقت و سرعت بیشتری توسعه دهند و پیادهسازی کنند.[۱۱۱]
۳. IBM Watson
پلتفرمی پیشرفته برای تحلیل داده است که در حوزههایی مثل آموزش ، سلامت، امور مالی و صنعت کاربرد زیادی دارد. با بهرهگیری از قابلیتهای تحلیلی IBM Watson، سازمانها میتوانند تصمیمگیریهای خود را بهینهسازی کنند و راهکارهای هوشمند و مبتنی بر داده را طراحی کنند.[۱۱۲]
ایجاد و ابداع فنون و تکنیکهای لازم برای مدیریت پیچیدگی را باید به عنوان هستهٔ بنیادین تلاشهای علمی و پژوهشی گذشته، حال و آینده در تمامی زمینههایعلوم رایانه و به ویژه در هوش مصنوعی معرفی کرد. شیوهها و تکنیکهای هوش مصنوعی در واقع، برای حل آن دسته از مسائل به وجود آمده است که بهطور سهل و آسان توسطبرنامهنویسی تابعی یا شیوههای ریاضی قابل حلّ نبودهاند.[۱۱۳]
در بسیاری از موارد، با پوشانیدن و پنهان ساختن جزئیّات فاقد اهمیت است که بر پیچیدگی فائق میآییم و میتوانیم بر روی بخشهایی از مسئله متمرکز شویم که مهمتر است. تلاش اصلی در واقع، ایجاد و دستیابی به لایهها و ترازهای بالاتر از هوشمندیانتزاع را نشانه میرود تا آنجا که سرانجام، برنامههای رایانهای درست در همان سطحی کار خواهند کرد که خود انسانها رسیدهاند.
به یاریپژوهشهای گستردهٔ دانشمندان علوم مرتبط، هوش مصنوعی تاکنون راه بسیاری پیموده است. در این راستا، تحقیقاتی که بر روی توانایی آموختن زبانها انجام گرفت و همچنین درک عمیق از احساسات، دانشمندان را در پیشبرد این دانش کمک زیادی کرده است. یکی از اهداف متخصصین، تولید ماشینهایی است که دارای احساسات بوده و دست کم نسبت به وجود خود واحساسات خود آگاه باشند. این ماشین باید توانایی تعمیم تجربیات قدیمی خود در شرایط مشابه جدید را داشته و به این ترتیب اقدام به گسترش دامنه دانش و تجربیاتش کند.
برای نمونه ربات هوشمندی که بتواند اعضای بدن خود را به حرکت درآورد، نسبت به این حرکت خودآگاه بوده و باآزمون و خطا، دامنه حرکت خود را گسترش میدهد و با هر حرکت موفقیتآمیز یا اشتباه، دامنه تجربیات خود را وسعت بخشیده و سرانجام راه رفته یا حتی میدود یا به روشی برای جابجا شدن دست مییابد که سازندگانش برای او متصور نبودهاند.
هر چند نمونه بالا ممکن است کمی آرمانی به نظر برسد، ولی به هیچ عنوان دور از دسترس نیست. دانشمندان عموماً برای تولید چنین ماشینهایی از وجود مدلهای زندهای که در طبیعت وجود دارند، به ویژه آدمی نیز سود بردهاند.
هوش مصنوعی اکنون در خدمت توسعه علوم رایانه نیز هست. زبانهای برنامهنویسی پیشرفته، که توسعه ابزارهای هوشمند را ممکن ساختهاند، پایگاههای دادهای پیشرفته،موتورهای جستجو، و بسیاری نرمافزارها و ماشینها از نتایج پژوهشهایی در راستای هوش مصنوعی بودهاند.
عملکرد اولیهٔ برنامهنویسی هوش مصنوعی ایجاد ساختار کنترلی مورد لزوم برای محاسبهٔ سمبولیک است. از مهمترین و پرکاربردترین زبان برای هوش مصنوعی میتوان ازپایتون نام برد و در کنار آن زبانهای برنامهنویسیلیسپ وپرولوگ علاوه بر اینکه از مهمترین زبانهای مورد استفاده در هوش مصنوعی هستند خصوصیات نحوی و معنایی آنها باعث شده که آنها شیوهها و راه حلهای قوی برای حل مسئله ارائه کنند.
تأثیر قابل توجه این زبانها بر روی توسعه هوش مصنوعی از جمله تواناییهای آنها به عنوان ابزارهای فکر کردن است. در حقیقت همانطور که هوش مصنوعی مراحل رشد خود را طی میکند، زبانهایلیسپ وپرولوگ بیشتر مطرح میشوند که این زبانها کار خود را در محدودهٔ توسعه سامانههای هوش مصنوعی در صنعت و دانشگاهها دنبال میکنند و طبیعتاً اطلاعات در مورد این زبانها به عنوان بخشی از مهارت هر برنامهنویس هوش مصنوعی است.
پرولوگ: یک زبانبرنامهنویسی منطقی است. یک برنامهٔ منطقی دارای یک سری ویژگیهای قانون و منطق است. در حقیقت خود این نام از برنامهنویسی PRO در LOGIC میآید. در این زبان یک مفسر برنامه را بر اساس یک منطق مینویسد. ایدهٔ استفادهٔ توصیفی محاسبهٔ اولیه برای بیان خصوصیات حل مسئله یکی از محوریتهای پرولوگ است که برای علم کامپیوتر بهطور کلی و بهطور جزئی برایزبان برنامهنویسی هوشمند مورد استفاده قرار میگیرند.[۱۱۴]
لیسپ: اصولاً یک زبان کامل است که دارای عملکردها و لیستهای لازمه برای توصیف عملکردهای جدید، تشخیص تناسب و ارزیابی معانی است. لیسپ به برنامهنویس قدرت کامل برای اتصال به ساختارهای اطلاعاتی را میدهد.[۱۱۵] گرچه لیسپ یکی از قدیمیترین زبانهای محاسباتی است که هنوز فعال است ولی دقت کافی در برنامهنویسی و طراحی توسعه باعث شده است که این یک زبان برنامهنویسی فعال باقی بماند. در حقیقت این مدل برنامهنویسی طوری مؤثر بوده است که تعدادی از دیگر زبانها ماننداف پی،امال واسکیم براساس عملکرد برنامهنویسی آن بنا شدهاند. یکی از مهمترین برنامههای مرتبط با لیسپ برنامهٔ اسکیم است که یک تفکر دوباره دربارهٔ زبان در آن وجود دارد که به وسیلهٔ توسعه هوش مصنوعی و برای آموزش و اصولعلم کامپیوتر مورد استفاده قرار میگیرد.
استفاده از رابطهای برنامهنویسی یا همان API میتواند استفاده از هوش مصنوعی در پروژههای برنامهنویسی را بسیار سادهتر سازد. APIهای هوش مصنوعی، رابطهای RESTful هستند که به برنامهنویس اجازه میدهند به کمک مدلهای از پیش تمرین داده شده شرکتهای مختلف استفاده کنند و قابلیتهای مرتبط با هوش مصنوعی نرمافزار خود را گسترش دهند در واقع در API برنامهها از قابلیتهای کاربردی یکدیگر استفاده مینمایند تا توانایی خود را افزایش دهند بهطور مثال برنامههای مسیریابی از APIنقشه گوگل و مسیریابی ترافیک ماهواره ای گوگل بهره میبرند و توانایی خود را بسیار بهبود میبخشند. برای معرفی برخی از این APIهای هوش مصنوعی میتوان از Wit.ai, Api.ai و ملیسا نام برد.
عاملها (بهانگلیسی:Agents) قادر به شناساییالگوها و تصمیمگیری بر اساس قوانین فکر کردن خود هستند. قوانین و چگونگی فکر کردن هر عامل در راستای دستیابی به هدفش، تعریف میشود. این سامانهها بر اساس قوانین خاص خود فکر کرده و کار خود را به درستی انجام میدهند. پس عاقلانه رفتار میکنند، هر چند الزاماً مانند انسان فکر نمیکنند.[۱۱۶]
در بحث هوشمندی اصطلاح پیس (بهانگلیسی:PEAS) سرنام واژههای "کارایی (بهانگلیسی:Performance)"، "محیط (بهانگلیسی:Environment)"، "اقدام گر (بهانگلیسی:Agent)" و "حسگر (بهانگلیسی:Sensor)" است.
سامانههای خبره زمینهای پرکاربرد در هوش مصنوعی ومهندسی دانش است که با توجه به نیاز روزافزون جوامع بر اتخاذ راه حلها و تصمیمات سریع در مواردی که دانشهای پیچیده و چندگانهٔ انسانی مورد نیاز است و بر اهمیت نقش آنها نیز افزوده میشود.سامانههای خبره به حل مسائلی میپردازند که بهطور معمول نیازمند تخصصهای کاردانان و متخصّصان انسانی است. بهمنظور توانایی بر حل مسائل در چنین سطحی (ترازی)، دسترسی هرچه بیشتر اینگونه سامانهها به دانش موجود در آن زمینه خاص ضروری میگردد.
یک ویدئویجعل عمقی: هشدار ولادیمیر پوتین به آمریکاییها در مورد دخالت در انتخابات و افزایش شکاف سیاسی
مفهومی به نام جعل عمقی (بهانگلیسی:Deepfakes) به هوشهای مصنوعی اطلاق میشود که قادر هستند چهره و صدای افراد را بازسازی و شبیهسازی نمایند. امروزه تشخیص نسخههای جعلی و تقلبی از نسخههای اصلی کار بسیار مشکلی است.[۱۱۷]
این موضوع میتواند تهدیدی برای افراد مشهور اعم از هنرمندان، ورزشکاران و سیاستمداران باشد و زندگی حرفهای آنها را دچار خدشه و چالش نماید. بازسازی سخنرانی یک رئیسجمهور و درج موارد ناخواسته در میان آن یا بازسازی تصاویر سیاستمداران در یک فضای خاص میتواند نمونهای از این موارد باشد.[۱۱۸]
بهطورکلی هوش مصنوعیجعل عمیق، یکفناوری تغییر دهنده محتوا محسوب میشود. طبق گزارش ZDNet جعل عمقی «چیزی را ارائه میدهد که در واقع رخ نداده است». طبق این گزارش ۸۸٪ آمریکاییها معتقدند جعل عمقی بیشتر از فایده باعث آسیب میشود اما تنها ۴۷٪ آنها معتقدند که ممکن است مورد هدف قرار گیرند. با اوجگیری رقابتهای انتخاباتی شکلگیری فیلمهای تبلیغاتی جعلی میتواند تهدیدی برای سیاستمداران محسوب شود.[۱۱۹]
هوش مصنوعی مولد
هوش مصنوعی مولد یا زاینده (Generative AI) شاخهای از هوش مصنوعی است که تمرکز آن بر تولید محتوای جدید است؛ مانند متن، تصویر، ویدئو، موسیقی و حتی کد برنامهنویسی. مدلهای مولدی مانندGPT,DALL·E وStable Diffusion از جمله شناختهشدهترین نمونهها در این حوزه هستند. این مدلها با آموزش بر حجم عظیمی از دادهها، قادرند محتوایی شبیه به انسان تولید کنند.
یکی از کاربردهای اصلی این مدلها، تولید خودکار مقاله، طراحی گرافیکی، پاسخدهی به سؤالات، و ایجاد شخصیتهای مجازی است. با پیشرفت این فناوری، مباحثی چونتولید اخبار جعلی، حقوق مالکیت معنوی، واخلاق در هوش مصنوعی به موضوعات داغ تبدیل شدهاند.
الگوریتمهای یادگیری ماشین به مقادیر زیادی داده نیاز دارند. تکنیکهای مورد استفاده برای به دست آوردن این دادهها، نگرانیهایی را در موردحریم خصوصی،نظارت وحق تکثیر ایجاد کرده است.
دستگاهها و خدمات مجهز به هوش مصنوعی، مانند دستیاران مجازی و محصولات اینترنت اشیاء، به طور مداوم اطلاعات شخصی را جمعآوری میکنند که این امر نگرانیهایی را در مورد جمعآوری دادههای مزاحم و دسترسی غیرمجاز توسط اشخاص ثالث ایجاد میکند. از دست دادن حریم خصوصی با توانایی هوش مصنوعی در پردازش و ترکیب حجم وسیعی از دادهها تشدید میشود و به طور بالقوه به یک جامعه نظارتی منجر میگردد که در آن فعالیتهای فردی به طور مداوم و بدون پادمانهای کافی یا شفافیت، نظارت و تحلیل میشوند.
دادههای حساس کاربر که جمعآوری میشود ممکن است شامل سوابق فعالیت آنلاین، دادههای موقعیت جغرافیایی، ویدیو یا صدا باشد.[۱۲۰] به عنوان مثال، برای ساخت الگوریتمهایبازشناسی گفتار،آمازون میلیونها مکالمه خصوصی را ضبط کرده و به کارگران موقت اجازه داده است تا برخی از آنها را گوش داده و رونویسی کنند.[۱۲۱] دیدگاهها در مورد این نظارت گسترده از کسانی که آن را یک شر ضروری میدانند تا کسانی که آن را به وضوح غیراخلاقی و نقض حق بر محرمانگی میدانند، متغیر است.[۱۲۲]
توسعهدهندگان هوش مصنوعی استدلال میکنند که این تنها راه برای ارائه برنامههای کاربردی ارزشمند است و چندین تکنیک را برای حفظ حریم خصوصی در حین به دست آوردن دادهها توسعه دادهاند، مانندتجمیع داده، ناشناسسازی و حریم خصوصی تفاضلی.[۱۲۳] از سال ۲۰۱۶، برخی از کارشناسان حریم خصوصی، مانندسینتیا دورک، شروع به نگریستن به حریم خصوصی از منظر انصاف کردهاند. برایان کریستین نوشت که کارشناسان «از پرسش «آنها چه میدانند» به پرسش «با آن چه میکنند» تغییر جهت دادهاند».[۱۲۴]
هوش مصنوعی مولد اغلب بر روی آثار دارای حق تکثیر بدون مجوز، از جمله در حوزههایی مانند تصاویر یا کد کامپیوتری، آموزش داده میشود؛ سپس خروجی تحت منطق «استفاده منصفانه» مورد استفاده قرار میگیرد. کارشناسان در مورد اینکه این منطق تا چه حد و تحت چه شرایطی در دادگاهها معتبر خواهد بود، اختلاف نظر دارند؛ عوامل مرتبط ممکن است شامل «هدف و ماهیت استفاده از اثر دارای حق تکثیر» و «تأثیر بر بازار بالقوه برای اثر دارای حق تکثیر» باشد.[۱۲۵][۱۲۶] صاحبان وبسایتهایی که نمیخواهند محتوایشان خراشیده شود، میتوانند این موضوع را در یک فایلrobots.txt مشخص کنند.[۱۲۷] در سال ۲۰۲۳، نویسندگان برجسته (از جملهجان گریشام وجاناتان فرانزن) از شرکتهای هوش مصنوعی به دلیل استفاده از آثارشان برای آموزش هوش مصنوعی مولد شکایت کردند.[۱۲۸][۱۲۹] رویکرد مورد بحث دیگر، تصور یک سیستم حفاظتsui generis (منحصر به فرد) جداگانه برای آثار تولید شده توسط هوش مصنوعی است تا از انتساب منصفانه و جبران خسارت برای نویسندگان انسانی اطمینان حاصل شود.[۱۳۰]
در ژانویه ۲۰۲۴،آژانس بینالمللی انرژی (IEA) گزارشبرق ۲۰۲۴، تحلیل و پیشبینی تا ۲۰۲۶ را منتشر کرد که در آن به پیشبینی مصرف برق پرداخته شده است.[۱۳۶] این اولین گزارش آژانس بینالمللی انرژی است که پیشبینیهایی برای مراکز داده و مصرف انرژی برای هوش مصنوعی و ارزهای دیجیتال ارائه میدهد. این گزارش بیان میکند که تقاضای انرژی برای این مصارف ممکن است تا سال ۲۰۲۶ دو برابر شود، که این مصرف اضافی برق معادل کل برق مصرفی کشور ژاپن خواهد بود.[۱۳۷]
مصرف سرسامآور انرژی توسط هوش مصنوعی عامل رشد استفاده از سوختهای فسیلی است و ممکن است تعطیلی تأسیسات انرژی زغالسنگ منسوخ و منتشرکننده کربن را به تأخیر بیندازد. رشد تبآلودی در ساخت مراکز داده در سراسر ایالات متحده وجود دارد که شرکتهای بزرگ فناوری (مانند مایکروسافت، متا، گوگل، آمازون) را به مصرفکنندگان سیریناپذیر برق تبدیل کرده است. مصرف برق پیشبینیشده به قدری عظیم است که این نگرانی وجود دارد که بدون توجه به منبع، تأمین شود. یک جستجوی ChatGPT به اندازه ۱۰ برابر یک جستجوی گوگل انرژی الکتریکی مصرف میکند. شرکتهای بزرگ برای یافتن منابع انرژی—از انرژی هستهای گرفته تا زمینگرمایی و همجوشی—در عجله هستند. شرکتهای فناوری استدلال میکنند که—در بلندمدت—هوش مصنوعی در نهایت با محیط زیست مهربانتر خواهد بود، اما آنها اکنون به انرژی نیاز دارند. به گفته شرکتهای فناوری، هوش مصنوعی شبکه برق را کارآمدتر و «هوشمندتر» میکند، به رشد انرژی هستهای کمک خواهد کرد و انتشار کربن را به طور کلی ردیابی میکند.[۱۳۸]
یک مقاله تحقیقاتیگلدمن ساکس در سال ۲۰۲۴ با عنوانمراکز داده هوش مصنوعی و موج آتی تقاضای برق در آمریکا، دریافت که «تقاضای برق در آمریکا احتمالاً رشدی را تجربه خواهد کرد که در یک نسل دیده نشده است...» و پیشبینی میکند که تا سال ۲۰۳۰، مراکز داده در آمریکا ۸٪ از برق این کشور را مصرف خواهند کرد، در حالی که این رقم در سال ۲۰۲۲، ۳٪ بود، که این امر نویدبخش رشد صنعت تولید برق از طریق روشهای مختلف است.[۱۳۹] نیاز روزافزون مراکز داده به برق به حدی است که ممکن است شبکه برق را به حداکثر ظرفیت خود برسانند. شرکتهای بزرگ فناوری در مقابل استدلال میکنند که میتوان از هوش مصنوعی برای به حداکثر رساندن بهرهبرداری از شبکه توسط همگان استفاده کرد.[۱۴۰]
در سال ۲۰۲۴،والاستریت جورنال گزارش داد که شرکتهای بزرگ هوش مصنوعی مذاکراتی را با تأمینکنندگان انرژی هستهای ایالات متحده برای تأمین برق مراکز داده آغاز کردهاند. در مارس ۲۰۲۴، آمازون یک مرکز داده با انرژی هستهای در پنسیلوانیا را به مبلغ ۶۵۰ میلیون دلار آمریکا خریداری کرد.[۱۴۱] جنسن هوانگ، مدیرعاملانویدیا، گفت که انرژی هستهای گزینه خوبی برای مراکز داده است.[۱۴۲]
در سپتامبر ۲۰۲۴،مایکروسافت توافقی را با Constellation Energy برای بازگشایی نیروگاه هستهای تری مایل آیلند اعلام کرد تا ۱۰۰٪ تمام برق تولیدی این نیروگاه را به مدت ۲۰ سال برای مایکروسافت تأمین کند. بازگشایی این نیروگاه که در سال ۱۹۷۹ دچار ذوب نسبی هستهای در راکتور واحد ۲ خود شد، مستلزم آن است که Constellation فرآیندهای نظارتی سختگیرانهای را طی کند که شامل بررسیهای ایمنی گسترده از سوی کمیسیون تنظیم مقررات هستهای ایالات متحده خواهد بود. در صورت تأیید (این اولین بازگشایی یک نیروگاه هستهای در آمریکا خواهد بود)، بیش از ۸۳۵ مگاوات برق—کافی برای ۸۰۰٬۰۰۰ خانه—انرژی تولید خواهد شد. هزینه بازگشایی و ارتقاء حدود ۱٫۶ میلیارد دلار آمریکا تخمین زده میشود و به معافیتهای مالیاتی برای انرژی هستهای موجود در قانون کاهش تورم ۲۰۲۲ ایالات متحده بستگی دارد.[۱۴۳] دولت ایالات متحده و ایالت میشیگان نزدیک به ۲ میلیارد دلار برای بازگشایی راکتور هستهای پلیسیدس در دریاچه میشیگان سرمایهگذاری میکنند. این نیروگاه که از سال ۲۰۲۲ تعطیل شده است، قرار است در اکتبر ۲۰۲۵ بازگشایی شود. تأسیسات تری مایل آیلند به مرکز انرژی پاک کرین به افتخار کریس کرین، حامی انرژی هستهای و مدیرعامل سابقاکسلون که مسئول جداسازی Constellation از اکسلون بود، تغییر نام خواهد داد.[۱۴۴]
پس از آخرین تأیید در سپتامبر ۲۰۲۳،تایوان در سال ۲۰۲۴ به دلیل کمبود تأمین برق، تأیید مراکز داده در شمالتائویوان با ظرفیت بیش از ۵ مگاوات را به حالت تعلیق درآورد.[۱۴۵] تایوان قصد دارد تا سال ۲۰۲۵انرژی هستهای را به تدریج حذف کند.[۱۴۵] از سوی دیگر،سنگاپور در سال ۲۰۱۹ به دلیل کمبود برق، ممنوعیتی برای افتتاح مراکز داده وضع کرد، اما در سال ۲۰۲۲ این ممنوعیت را لغو کرد.[۱۴۵]
اگرچه اکثر نیروگاههای هستهای ژاپن پس ازحادثه اتمی فوکوشیما ۱ در سال ۲۰۱۱ تعطیل شدهاند، بر اساس مقالهای ازبلومبرگ به زبان ژاپنی در اکتبر ۲۰۲۴، شرکت خدمات بازی ابری Ubitus که انویدیا در آن سهام دارد، به دنبال زمینی در ژاپن در نزدیکی یک نیروگاه هستهای برای یک مرکز داده جدید برای هوش مصنوعی مولد است.[۱۴۶] مدیرعامل Ubitus، وسلی کو، گفت که نیروگاههای هستهای کارآمدترین، ارزانترین و پایدارترین منبع انرژی برای هوش مصنوعی هستند.[۱۴۶]
در ۱ نوامبر ۲۰۲۴،کمیسیون فدرال رگولاتوری انرژی (FERC) درخواستی را که توسط Talen Energy برای تأیید تأمین بخشی از برق نیروگاه هستهای ساسکوهنا به مرکز داده آمازون ارائه شده بود، رد کرد.[۱۴۷] به گفته رئیس کمیسیون، ویلی ال. فیلیپس، این امر باری بر دوش شبکه برق و همچنین یک نگرانی قابل توجه در مورد انتقال هزینه به خانوارها و سایر بخشهای تجاری است.[۱۴۷]
در سال ۲۰۲۵، گزارشی که توسط آژانس بینالمللی انرژی تهیه شده، انتشار گازهای گلخانهای ناشی از مصرف انرژی هوش مصنوعی را ۱۸۰ میلیون تن تخمین زده است. تا سال ۲۰۳۵، بسته به اقداماتی که انجام خواهد شد، این انتشارها میتواند به ۳۰۰–۵۰۰ میلیون تن افزایش یابد. این میزان کمتر از ۱٫۵٪ از انتشار گازهای گلخانهای بخش انرژی است. پتانسیل کاهش انتشار گازهای گلخانهای توسط هوش مصنوعی ۵٪ از انتشار بخش انرژی تخمین زده شد، اما اثرات بازگشتی (برای مثال اگر مردم از حمل و نقل عمومی به خودروهای خودران روی آورند) میتواند آن را کاهش دهد.[۱۴۸]
یوتیوب،فیسبوک و دیگران ازسیستمهای توصیهگر برای هدایت کاربران به محتوای بیشتر استفاده میکنند. به این برنامههای هوش مصنوعی هدفبه حداکثر رساندن تعامل کاربر داده شد (یعنی تنها هدف این بود که مردم به تماشای محتوا ادامه دهند). هوش مصنوعی یاد گرفت که کاربران تمایل به انتخاباطلاعات نادرست،نظریه توطئه و محتوای حزبی افراطی دارند و برای اینکه آنها را به تماشا نگه دارد، هوش مصنوعی محتوای بیشتری از این نوع را توصیه کرد. کاربران همچنین تمایل داشتند محتوای بیشتری در مورد همان موضوع تماشا کنند، بنابراین هوش مصنوعی افراد را بهحباب فیلتر هدایت کرد که در آن نسخههای متعددی از همان اطلاعات نادرست را دریافت میکردند.[۱۴۹] این امر بسیاری از کاربران را متقاعد کرد که اطلاعات نادرست درست است و در نهایت اعتماد به نهادها، رسانهها و دولت را تضعیف کرد.[۱۵۰] برنامه هوش مصنوعی به درستی یاد گرفته بود که هدف خود را به حداکثر برساند، اما نتیجه برای جامعه مضر بود. پس از انتخابات ۲۰۱۶ ایالات متحده، شرکتهای بزرگ فناوری اقداماتی را برای کاهش این مشکل انجام دادند.[۱۵۱]
در اوایل دهه ۲۰۲۰،هوش مصنوعی مولد شروع به ایجاد تصاویر، صداها و متونی کرد که تقریباً از عکسها، ضبطها یا نوشتههای واقعی انسان قابل تشخیص نیستند،[۱۵۲] در حالی که ویدیوهای واقعگرایانه تولید شده توسط هوش مصنوعی در اواسط دهه ۲۰۲۰ امکانپذیر شدند.[۱۵۳][۱۵۴][۱۵۵] این امکان برای بازیگران مخرب وجود دارد که از این فناوری برای ایجاد حجم عظیمی از اطلاعات نادرست یا تبلیغات سیاسی استفاده کنند؛[۱۵۶] یکی از این استفادههای مخرب بالقوه، دیپفیکها برای تبلیغات سیاسی محاسباتی است.[۱۵۷]جفری هینتون، پیشگام هوش مصنوعی، نگرانی خود را از اینکه هوش مصنوعی «رهبران اقتدارگرا را قادر میسازد تا رأیدهندگان خود را» در مقیاس وسیع، در کنار سایر خطرات، دستکاری کنند، ابراز کرد.[۱۵۸]
پژوهشگران هوش مصنوعی درمایکروسافت،اوپنایآی، دانشگاهها و سایر سازمانها پیشنهاد استفاده از «اعتبارنامههای شخصیت» را به عنوان راهی برای غلبه بر فریب آنلاین که توسط مدلهای هوش مصنوعی امکانپذیر شده است، مطرح کردهاند.[۱۵۹]
کاربردهای یادگیری ماشین میتوانندسوگیرانه باشند[د] اگر از دادههای سوگیرانه یاد بگیرند.[۱۶۱] ممکن است توسعهدهندگان از وجود این سوگیری آگاه نباشند.[۱۶۲] رفتار تبعیضآمیز برخی از مدلهای زبان بزرگ (LLM) را میتوان در خروجی آنها مشاهده کرد.[۱۶۳] سوگیری میتواند از طریق نحوه انتخاب دادههای آموزشی و نحوه استقرار یک مدل ایجاد شود.[۱۶۴][۱۶۱] اگر از یک الگوریتم سوگیرانه برای تصمیمگیریهایی استفاده شود که میتواند به طور جدی به افرادآسیب برساند (همانطور که در پزشکی،امور مالی،استخدام،مسکن یاپلیس ممکن است رخ دهد)، آنگاه الگوریتم ممکن است باعثتبعیض شود.[۱۶۵] حوزه انصاف به مطالعه چگونگی جلوگیری از آسیبهای ناشی از سوگیریهای الگوریتمی میپردازد.
در ۲۸ ژوئن ۲۰۱۵، ویژگی جدید برچسبگذاری تصویر درگوگل فوتوز به اشتباه جکی آلسین و دوستش را به دلیل سیاهپوست بودن به عنوان «گوریل» شناسایی کرد. این سیستم بر روی مجموعهدادهای آموزش دیده بود که تصاویر بسیار کمی از افراد سیاهپوست داشت،[۱۶۶] مشکلی که «نابرابری حجم نمونه» نامیده میشود.[۱۶۷] گوگل این مشکل را با جلوگیری از برچسبگذاریهر چیزی به عنوان «گوریل» «حل» کرد. هشت سال بعد، در سال ۲۰۲۳، گوگل فوتوز هنوز نمیتوانست یک گوریل را شناسایی کند و محصولات مشابه از اپل، فیسبوک، مایکروسافت و آمازون نیز همینطور بودند.[۱۶۸]
برنامه COMPAS یک برنامه تجاری است که به طور گسترده توسط دادگاههای ایالات متحده برای ارزیابی احتمال تکرار جرم یکمتهم استفاده میشود. در سال ۲۰۱۶، جولیا انگوین درپروپابلیکا کشف کرد که COMPAS با وجود اینکه نژاد متهمان به برنامه گفته نشده بود، سوگیری نژادی از خود نشان میداد. اگرچه نرخ خطا برای سفیدپوستان و سیاهپوستان به طور یکسان و دقیقاً ۶۱٪ تنظیم شده بود، اما خطاها برای هر نژاد متفاوت بود—سیستم به طور مداوم احتمال تکرار جرم توسط یک فرد سیاهپوست را بیش از حد تخمین میزد و احتمال عدم تکرار جرم توسط یک فرد سفیدپوست را دست کم میگرفت.[۱۶۹] در سال ۲۰۱۷، چندین محقق[ذ] نشان دادند که از نظر ریاضی غیرممکن است که COMPAS بتواند تمام معیارهای ممکن انصاف را برآورده کند، در حالی که نرخهای پایه تکرار جرم برای سفیدپوستان و سیاهپوستان در دادهها متفاوت بود.[۱۷۱]
یک برنامه میتواند تصمیمات سوگیرانهای بگیرد حتی اگر دادهها به صراحت به یک ویژگی مشکلساز (مانند «نژاد» یا «جنسیت») اشاره نکنند. این ویژگی با ویژگیهای دیگر (مانند «آدرس»، «سابقه خرید» یا «نام کوچک») همبستگی خواهد داشت و برنامه بر اساس این ویژگیها همان تصمیماتی را خواهد گرفت که بر اساس «نژاد» یا «جنسیت» میگرفت.[۱۷۲] موریتس هارت گفت: «قویترین واقعیت در این حوزه تحقیقاتی این است که انصاف از طریق نادیدهگرفتن کار نمیکند.»[۱۷۳]
انتقاد از COMPAS نشان داد که مدلهای یادگیری ماشین برای «پیشبینیهایی» طراحی شدهاند که تنها در صورتی معتبر هستند که فرض کنیم آینده شبیه گذشته خواهد بود. اگر آنها بر روی دادههایی آموزش ببینند که شامل نتایج تصمیمات نژادپرستانه در گذشته است، مدلهای یادگیری ماشین باید پیشبینی کنند که تصمیمات نژادپرستانه در آینده نیز گرفته خواهد شد. اگر یک برنامه سپس از این پیشبینیها به عنوانتوصیه استفاده کند، برخی از این «توصیهها» احتمالاً نژادپرستانه خواهند بود.[۱۷۴] بنابراین، یادگیری ماشین برای کمک به تصمیمگیری در زمینههایی که امید میرود آیندهبهتر از گذشته باشد، مناسب نیست. این توصیفی است نه تجویزی.[ر]
سوگیری و بیانصافی ممکن است شناسایی نشوند زیرا توسعهدهندگان عمدتاً سفیدپوست و مرد هستند: در میان مهندسان هوش مصنوعی، حدود ۴٪ سیاهپوست و ۲۰٪ زن هستند.[۱۶۷]
تعاریف و مدلهای ریاضی متناقض مختلفی از انصاف وجود دارد. این مفاهیم به مفروضات اخلاقی بستگی دارند و تحت تأثیر باورها در مورد جامعه هستند. یک دسته گستردهانصاف توزیعی است که بر نتایج تمرکز دارد، اغلب گروهها را شناسایی کرده و به دنبال جبران نابرابریهای آماری است. انصاف بازنمودی سعی میکند اطمینان حاصل کند که سیستمهای هوش مصنوعیکلیشههای منفی را تقویت نکرده یا گروههای خاصی را نامرئی نکنند. انصاف رویهای بر فرآیند تصمیمگیری تمرکز دارد تا نتیجه. مرتبطترین مفاهیم انصاف ممکن است به زمینه، به ویژه نوع کاربرد هوش مصنوعی و ذینفعان بستگی داشته باشد. ذهنیتگرایی در مفاهیم سوگیری و انصاف، عملیاتی کردن آنها را برای شرکتها دشوار میکند. دسترسی به ویژگیهای حساس مانند نژاد یا جنسیت نیز توسط بسیاری از اخلاقگرایان هوش مصنوعی برای جبران سوگیریها ضروری تلقی میشود، اما ممکن است با قوانین ضد تبعیض در تضاد باشد.[۱۶۰]
در کنفرانس ۲۰۲۲ انصاف، پاسخگویی و شفافیت (ACM FAccT 2022)،انجمن ماشینهای حسابگر در سئول، کره جنوبی، یافتههایی را ارائه و منتشر کرد که توصیه میکند تا زمانی که سیستمهای هوش مصنوعی و رباتیک عاری از اشتباهات سوگیرانه نشان داده نشدهاند، ناامن هستند و استفاده از شبکههای عصبی خودآموز که بر روی منابع وسیع و تنظیمنشده دادههای اینترنتی ناقص آموزش دیدهاند، باید محدود شود.[۱۷۶]
بسیاری از سیستمهای هوش مصنوعی آنقدر پیچیده هستند که طراحان آنها نمیتوانند توضیح دهند که چگونه به تصمیمات خود میرسند.[۱۷۷] به ویژه در موردشبکههای عصبی عمیق، که در آن روابط غیرخطی بسیاری بین ورودیها و خروجیها وجود دارد. اما برخی از تکنیکهای محبوب توضیحپذیری وجود دارد.[۱۷۸]
اگر هیچکس دقیقاً نداند که یک برنامه چگونه کار میکند، نمیتوان مطمئن بود که به درستی عمل میکند. موارد زیادی وجود داشته که یک برنامه یادگیری ماشین آزمونهای دقیقی را پشت سر گذاشته، اما با این وجود چیزی متفاوت از آنچه برنامهنویسان در نظر داشتند، یاد گرفته است. به عنوان مثال، سیستمی که میتوانست بیماریهای پوستی را بهتر از متخصصان پزشکی تشخیص دهد، مشخص شد که در واقع تمایل شدیدی به طبقهبندی تصاویر دارایخطکش به عنوان «سرطانی» دارد، زیرا تصاویر تومورهای بدخیم معمولاً شامل یک خطکش برای نشان دادن مقیاس هستند.[۱۷۹] یک سیستم یادگیری ماشین دیگر که برای کمک به تخصیص مؤثر منابع پزشکی طراحی شده بود، مشخص شد که بیماران مبتلا به آسم را به عنوان در «ریسک پایین» مرگ ناشی از ذاتالریه طبقهبندی میکند. داشتن آسم در واقع یک عامل خطر شدید است، اما از آنجا که بیماران مبتلا به آسم معمولاً مراقبتهای پزشکی بسیار بیشتری دریافت میکردند، طبق دادههای آموزشی احتمال مرگ آنها نسبتاً کمتر بود. همبستگی بین آسم و ریسک پایین مرگ ناشی از ذاتالریه واقعی بود، اما گمراهکننده.[۱۸۰]
افرادی که از تصمیم یک الگوریتم آسیب دیدهاند، حق دارند توضیحی دریافت کنند.[۱۸۱] به عنوان مثال، از پزشکان انتظار میرود که استدلال پشت هر تصمیمی که میگیرند را به طور واضح و کامل برای همکاران خود توضیح دهند. پیشنویسهای اولیهمقررات عمومی حفاظت از داده اتحادیه اروپا در سال ۲۰۱۶ شامل بیانیهای صریح مبنی بر وجود این حق بود.[ز] کارشناسان صنعت خاطرنشان کردند که این یک مشکل حلنشده است که راهحلی برای آن در چشمانداز نیست. تنظیمکنندهها استدلال کردند که با این وجود آسیب واقعی است: اگر مشکل راهحلی ندارد، نباید از این ابزارها استفاده شود.[۱۸۲]
دارپا برنامهXAI ("هوش مصنوعی قابل توضیح") را در سال ۲۰۱۴ برای تلاش برای حل این مشکلات تأسیس کرد.[۱۸۳]
چندین رویکرد با هدف حل مشکل شفافیت وجود دارد. SHAP امکان تجسم سهم هر ویژگی در خروجی را فراهم میکند.[۱۸۴] LIME میتواند به صورت محلی خروجیهای یک مدل را با یک مدل سادهتر و قابل تفسیر تقریب بزند.[۱۸۵]یادگیری چند وظیفهای علاوه بر طبقهبندی هدف، تعداد زیادی خروجی ارائه میدهد. این خروجیهای دیگر میتوانند به توسعهدهندگان کمک کنند تا استنباط کنند که شبکه چه چیزی را یاد گرفته است.[۱۸۶] واکانوایش، دیپدریم و سایر روشهایمولد میتوانند به توسعهدهندگان اجازه دهند ببینند که لایههای مختلف یک شبکه عمیق برای بینایی رایانهای چه چیزی را یاد گرفتهاند و خروجیهایی تولید کنند که میتواند نشان دهد شبکه در حال یادگیری چه چیزی است.[۱۸۷] برای ترنسفورمرهای از پیش آموزشدیده مولد،آنتروپیک تکنیکی را بر اساس یادگیری دیکشنری توسعه داد که الگوهای فعالسازی نورونها را با مفاهیم قابل فهم برای انسان مرتبط میکند.[۱۸۸]
هوش مصنوعی ابزارهای متعددی را فراهم میکند که برای بازیگران مخرب، مانند دولتهایتمامیتخواه،تروریستها، جنایتکاران یادولتهای سرکش مفید است.
یک سلاح خودکار مرگبار ماشینی است که اهداف انسانی را بدون نظارت انسان مکانیابی، انتخاب و درگیر میکند.[ژ] ابزارهای هوش مصنوعی که به طور گسترده در دسترس هستند میتوانند توسط بازیگران مخرب برای توسعه سلاحهای خودکار ارزانقیمت استفاده شوند و اگر در مقیاس وسیع تولید شوند، به طور بالقوهسلاحهای کشتار جمعی هستند.[۱۹۰] حتی زمانی که در جنگهای متعارف استفاده میشوند، در حال حاضر نمیتوانند به طور قابل اعتمادی اهداف را انتخاب کنند و به طور بالقوه میتوانندیک فرد بیگناه را بکشند.[۱۹۰] در سال ۲۰۱۴، ۳۰ کشور (از جمله چین) از ممنوعیت سلاحهای خودکار تحت پیمان منع برخی سلاحهای متعارفسازمان ملل متحد حمایت کردند، با این حالایالات متحده آمریکا و دیگران مخالفت کردند.[۱۹۱] تا سال ۲۰۱۵، گزارش شد که بیش از پنجاه کشور در حال تحقیق بر روی رباتهای میدان نبرد هستند.[۱۹۲]
ابزارهای هوش مصنوعی کنترل شهروندان توسط دولتهایتمامیتخواه را از چندین راه آسانتر میکنند. سیستمهای بازشناسی چهره وبازشناسی گفتار امکاننظارت گسترده را فراهم میکنند.یادگیری ماشین، با استفاده از این دادهها، میتواند دشمنان بالقوه دولت را طبقهبندی کرده و از پنهان شدن آنها جلوگیری کند.سیستمهای توصیهگر میتوانندپروپاگاندا واطلاعات نادرست را برای حداکثر تأثیر، به طور دقیق هدف قرار دهند.دیپفیکها وهوش مصنوعی مولد به تولید اطلاعات نادرست کمک میکنند. هوش مصنوعی پیشرفته میتواندتصمیمگیری متمرکز تمامیتخواهانه را رقابتیتر از سیستمهای لیبرال و غیرمتمرکز مانندبازارها کند. این فناوری هزینه و دشواری جنگ دیجیتال وجاسوسافزارهای پیشرفته را کاهش میدهد.[۱۹۳] همه این فناوریها از سال ۲۰۲۰ یا قبل از آن در دسترس بودهاند—سیستمهای بازشناسی چهره هوش مصنوعی در حال حاضر براینظارت گسترده در چین استفاده میشوند.[۱۹۴][۱۹۵]
راههای بسیار دیگری وجود دارد که انتظار میرود هوش مصنوعی به بازیگران مخرب کمک کند، که برخی از آنها قابل پیشبینی نیستند. به عنوان مثال، هوش مصنوعی یادگیری ماشین قادر است دهها هزار مولکول سمی را در عرض چند ساعت طراحی کند.[۱۹۶]
اقتصاددانان بارها خطرات تعدیل نیرو ناشی از هوش مصنوعی را برجسته کردهاند و در مورد بیکاری در صورت عدم وجود سیاست اجتماعی مناسب برای اشتغال کامل، گمانهزنی کردهاند.[۱۹۷]
در گذشته، فناوری تمایل به افزایش کل اشتغال داشته است تا کاهش آن، اما اقتصاددانان اذعان دارند که با هوش مصنوعی «در قلمروی ناشناختهای هستیم».[۱۹۸] یک نظرسنجی از اقتصاددانان نشاندهنده عدم توافق در مورد این است که آیا استفاده روزافزون از رباتها و هوش مصنوعی باعث افزایش قابل توجهی دربیکاری بلندمدت خواهد شد یا خیر، اما آنها عموماً موافقند که اگر دستاوردهایبهرهوری بازبخش شوند، میتواند یک مزیت خالص باشد.[۱۹۹] تخمینهای ریسک متفاوت است؛ به عنوان مثال، در دهه ۲۰۱۰، مایکل آزبورن و کارل بندیکت فری تخمین زدند که ۴۷٪ از مشاغل ایالات متحده در «ریسک بالا»ی اتوماسیون بالقوه قرار دارند، در حالی که گزارش OECD تنها ۹٪ از مشاغل ایالات متحده را به عنوان «ریسک بالا» طبقهبندی کرد.[س][۲۰۱] روششناسی گمانهزنی در مورد سطوح اشتغال آینده به دلیل فقدان پایه و اساس مستدل و به دلیل القای این که فناوری، به جای سیاست اجتماعی، باعث ایجاد بیکاری میشود، مورد انتقاد قرار گرفته است.[۱۹۷] در آوریل ۲۰۲۳، گزارش شد که ۷۰٪ از مشاغل تصویرگران بازیهای ویدیویی چینی توسط هوش مصنوعی مولد حذف شده است.[۲۰۲][۲۰۳]
برخلاف موجهای قبلی اتوماسیون، بسیاری از مشاغل طبقه متوسط ممکن است توسط هوش مصنوعی حذف شوند؛اکونومیست در سال ۲۰۱۵ بیان کرد که «نگرانی از اینکه هوش مصنوعی بتواند با مشاغل یقهسفید همان کاری را بکند که نیروی بخار با مشاغل یقهآبی در طول انقلاب صنعتی کرد» «ارزش جدی گرفتن را دارد».[۲۰۴] مشاغل در معرض خطر شدید از دستیار حقوقی تا آشپزهای فستفود را شامل میشود، در حالی که تقاضای شغلی برای مشاغل مرتبط با مراقبت، از مراقبتهای بهداشتی شخصی تا روحانیون، احتمالاً افزایش خواهد یافت.[۲۰۵] در ژوئیه ۲۰۲۵، مدیرعاملفورد، جیم فارلی، پیشبینی کرد که «هوش مصنوعی به معنای واقعی کلمه نیمی از تمامکارگران یقهسفید در ایالات متحده را جایگزین خواهد کرد.»[۲۰۶]
از روزهای اولیه توسعه هوش مصنوعی، استدلالهایی وجود داشته است، به عنوان مثال، آنهایی که توسطجوزف وایزنبام مطرح شدهاند، در مورد اینکه آیا وظایفی که میتوانند توسط رایانهها انجام شوند، با توجه به تفاوت بین رایانهها و انسانها، و بین محاسبه کمی و قضاوت کیفی و مبتنی بر ارزش، واقعاً باید توسط آنها انجام شوند یا خیر.[۲۰۷]
استدلال شده است که هوش مصنوعی آنقدر قدرتمند خواهد شد که بشریت ممکن است کنترل آن را به طور غیرقابل بازگشتی از دست بدهد. این امر، همانطور که فیزیکداناستیون هاوکینگ بیان کرد، میتواند «پایان نسل بشر را رقم بزند».[۲۰۸] این سناریو در داستانهای علمی-تخیلی رایج بوده است، زمانی که یک رایانه یا ربات ناگهان یک «خودآگاهی» (یا «ادراک» یا «هوشیاری») شبیه به انسان پیدا میکند و به یک شخصیت بدخواه تبدیل میشود.[ش] این سناریوهای علمی-تخیلی از چندین جهت گمراهکننده هستند.اولاً، هوش مصنوعی برای اینکه یک ریسک وجودی باشد، نیازی بهادراک شبهانسانی ندارد. برنامههای هوش مصنوعی مدرن اهداف مشخصی دریافت میکنند و از یادگیری و هوش برای رسیدن به آنها استفاده میکنند. فیلسوفنیک باستروم استدلال کرد که اگر به یک هوش مصنوعی به اندازه کافی قدرتمندتقریباً هر هدفی داده شود، ممکن است برای دستیابی به آن، نابودی بشریت را انتخاب کند (او از مثال یککارخانه خودکار گیره کاغذ استفاده کرد که برای به دست آوردن آهن بیشتر برای گیرههای کاغذ، جهان را نابود میکند).[۲۱۰]استوارت راسل مثال ربات خانگی را میزند که سعی میکند راهی برای کشتن صاحبش پیدا کند تا از خاموش شدنش جلوگیری کند، با این استدلال که «اگر مرده باشی نمیتوانی قهوه بیاوری.»[۲۱۱] برای اینکه یکابرهوش برای بشریت ایمن باشد، باید واقعاً با اخلاقیات و ارزشهای بشری همراستا باشد تا «اساساً در کنار ما باشد».[۲۱۲]
ثانیاً،یووال نوح هراری استدلال میکند که هوش مصنوعی برای ایجاد یک ریسک وجودی، نیازی به بدن رباتیک یا کنترل فیزیکی ندارد. بخشهای اساسی تمدن، فیزیکی نیستند. چیزهایی مانندایدئولوژیها،قانون،دولت،پول واقتصاد بر پایهزبان ساخته شدهاند؛ آنها وجود دارند زیرا داستانهایی هستند که میلیاردها نفر به آنها باور دارند. شیوع کنونیاطلاعات نادرست نشان میدهد که یک هوش مصنوعی میتواند از زبان برای متقاعد کردن مردم به باور هر چیزی، حتی انجام اقدامات مخرب، استفاده کند.[۲۱۳] جفری هینتون در سال ۲۰۲۵ گفت کههوش مصنوعی مدرن به طور خاص در «متقاعدسازی» خوب است و همیشه در حال بهتر شدن است. او میپرسد «فرض کنید میخواهید به پایتخت ایالات متحده حمله کنید. آیا باید خودتان به آنجا بروید و این کار را انجام دهید؟ خیر. فقط باید در متقاعدسازی خوب باشید.»[۲۱۴]
نظرات در میان کارشناسان و افراد داخلی صنعت متفاوت است، و بخشهای قابل توجهی هم نگران و هم بیتفاوت نسبت به ریسک ناشی از ابرهوش نهایی هستند.[۲۱۵] شخصیتهایی ماننداستیون هاوکینگ،بیل گیتس وایلان ماسک،[۲۱۶] و همچنین پیشگامان هوش مصنوعی مانندیوشوا بنجیو،استوارت راسل، دمیس حسابیس وسم آلتمن، نگرانیهای خود را در مورد ریسک وجودی ناشی از هوش مصنوعی ابراز کردهاند.
در ماه مه ۲۰۲۳،جفری هینتون استعفای خود از گوگل را اعلام کرد تا بتواند «آزادانه در مورد خطرات هوش مصنوعی صحبت کند» بدون اینکه «در نظر بگیرد این موضوع چگونه بر گوگل تأثیر میگذارد».[۲۱۷] او به طور مشخص به خطراتتسلط هوش مصنوعی اشاره کرد،[۲۱۸] و تأکید کرد که برای جلوگیری از بدترین نتایج، ایجاد دستورالعملهای ایمنی نیازمند همکاری میان رقبای استفاده از هوش مصنوعی خواهد بود.[۲۱۹]
در سال ۲۰۲۳، بسیاری از کارشناسان برجسته هوش مصنوعی بیانیه مشترک را تأیید کردند که «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس جامعه مانند همهگیریها و جنگ هستهای باشد».[۲۲۰]
برخی دیگر از محققان خوشبینتر بودند. پیشگام هوش مصنوعی، یورگن اشمیدهوبر، بیانیه مشترک را امضا نکرد و تأکید کرد که در ۹۵٪ موارد، تحقیقات هوش مصنوعی در مورد «طولانیتر، سالمتر و آسانتر کردن زندگی انسانها» است.[۲۲۱] در حالی که ابزارهایی که اکنون برای بهبود زندگی استفاده میشوند، میتوانند توسط بازیگران مخرب نیز مورد استفاده قرار گیرند، «آنها همچنین میتوانند علیه بازیگران مخرب استفاده شوند.»[۲۲۲][۲۲۳]اندرو انجی نیز استدلال کرد که «اشتباه است که فریب هیاهوی روز قیامت در مورد هوش مصنوعی را بخوریم—و تنظیمکنندگانی که این کار را میکنند فقط به نفع منافع خاص عمل خواهند کرد.»[۲۲۴] یان لیکان «سناریوهای پادآرمانشهری همتایان خود در مورد اطلاعات نادرست تقویتشده و حتی، در نهایت، انقراض انسان را به سخره میگیرد.»[۲۲۵] در اوایل دهه ۲۰۱۰، کارشناسان استدلال میکردند که این خطرات آنقدر در آینده دور هستند که نیازی به تحقیق ندارند یا اینکه انسانها از دیدگاه یک ماشین ابرهوشمند ارزشمند خواهند بود.[۲۲۶] با این حال، پس از سال ۲۰۱۶، مطالعه خطرات فعلی و آینده و راهحلهای ممکن به یک حوزه جدی تحقیقاتی تبدیل شد.[۲۲۷]
↑Definition of AI as the study ofintelligent agents, drawn from the leading AI textbooks.
(Poole، Mackworth و Goebel 1998،p. 1), which provides the version that is used in this article. These authors use the term "computational intelligence" as a synonym for artificial intelligence.
(Russell و Norvig 2003، ص. 55) (who prefer the term "rational agent") and write "The whole-agent view is now widely accepted in the field".
↑This statement comes from the proposal for theDartmouth workshop of 1956, which reads: "Every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it."[۱۰]
↑«عامل منطقی» یک اصطلاح کلی است که دراقتصاد،فلسفه و هوش مصنوعی نظری استفاده میشود. این اصطلاح میتواند به هر چیزی که رفتار خود را برای رسیدن به اهداف هدایت میکند، مانند یک شخص، یک حیوان، یک شرکت، یک ملت یا در مورد هوش مصنوعی، یک برنامه کامپیوتری، اشاره داشته باشد.
↑آلن تورینگ در مقاله کلاسیک خود «ماشینهای محاسباتی و هوش» در سال ۱۹۵۰، به محوریت یادگیری پرداخت.[۴۱] در سال ۱۹۵۶، در کنفرانس تابستانی اصلی هوش مصنوعی دارتموث،ری سولومونوف گزارشی درباره یادگیری ماشین احتمالی بدون نظارت نوشت: «یک ماشین استنتاج استقرایی».[۴۲]
↑در آمار،سوگیری یک خطای سیستماتیک یا انحراف از مقدار صحیح است. اما در زمینهانصاف، به تمایل به نفع یا علیه یک گروه یا ویژگی فردی خاص، معمولاً به روشی که ناعادلانه یا مضر تلقی میشود، اشاره دارد. بنابراین، یک سیستم هوش مصنوعی از نظر آماری بدون سوگیری که نتایج متفاوتی برای گروههای جمعیتی مختلف ایجاد میکند، ممکن است از منظر اخلاقی سوگیرانه تلقی شود.[۱۶۰]
↑موریتس هارت (مدیرمؤسسه ماکس پلانک برای سیستمهای هوشمند) استدلال میکند که یادگیری ماشین «اساساً ابزار اشتباهی برای بسیاری از حوزهها است، جایی که شما در تلاش برای طراحی مداخلات و مکانیسمهایی هستید که جهان را تغییر میدهند.»[۱۷۵]
↑هنگامی که این قانون در سال ۲۰۱۸ تصویب شد، هنوز شکلی از این ماده را در خود داشت.
↑Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence".Business Horizons.62: 15–25.doi:10.1016/j.bushor.2018.08.004.S2CID158433736.
↑Copeland, J., ed. (2004).The Essential Turing: the ideas that gave birth to the computer age(به انگلیسی). Oxford, England: Clarendon Press.ISBN0-19-825079-7.
↑برنامهریزی بدون حسگر یا «منطبق»، برنامهریزی احتمالی، برنامهریزی مجدد (همچنین به عنوان برنامهریزی آنلاین شناخته میشود): (Russell و Norvig 2021، Section 11.5).
↑Matti, D.; Ekenel, H. K.; Thiran, J. P. (2017).Combining LiDAR space clustering and convolutional neural networks for pedestrian detection.2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). pp. 1–6.arXiv:1710.06160.doi:10.1109/AVSS.2017.8078512.ISBN978-1-5386-2939-0.
↑Ferguson, Sarah; Luders, Brandon; Grande, Robert C.; How, Jonathan P. (2015).Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions.Algorithmic Foundations of Robotics XI. Springer Tracts in Advanced Robotics(به انگلیسی). Vol. 107. Springer, Cham. pp. 161–177.arXiv:1405.5581.doi:10.1007/978-3-319-16595-0_10.ISBN978-3-319-16594-3.
↑de la Fuente Ruiz, Alfonso, and Galia Novakova Nedeltcheva. "Comprehensive Review of Trustworthiness in Multimodal Language Models."
↑Hansen, Anne Lundgaard, John J. Horton, Sophia Kazinnik, Daniela Puzzello, and Ali Zarifhonarvar. "Simulating the Survey of Professional Forecasters."Available at SSRN (2024).
↑1.Strubell, E., Ganesh, A., & McCallum, A. (۲۰۱۹). Energy and Policy Considerations for Deep Learning in NLP. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019). Association for Computational Linguistics.
↑3.The carbon emissions of writing and illustrating are lower for AI than for humans, Bill Tomlinson, Rebecca W. Black, Donald J. Patterson & Andrew W. Torrance ,Scientific Reports volume 14, Article number: 3732 (2024)
↑۱۰۸٫۰۱۰۸٫۱John R. Searle.«Minds, Brains, and Programs». The Behavioral and Brain Sciences, vol. 3. Copyright 1980 Cambridge University Press. بایگانیشده ازاصلی در ۱۰ دسامبر ۲۰۰۷. دریافتشده در۲۸ ژانویه ۲۰۱۹.
↑Berry, David M. (19 March 2025). "رسانههای ترکیبی و سرمایهداری محاسباتی: به سوی یک نظریه انتقادی از هوش مصنوعی".AI & Society(به انگلیسی).doi:10.1007/s00146-025-02265-2.ISSN1435-5655.
خطای یادکرد: برچسپ<ref> که با نام «AI in the 80s» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است. خطای یادکرد: برچسپ<ref> که با نام «First AI winter» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است. خطای یادکرد: برچسپ<ref> که با نام «Second AI winter» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است. خطای یادکرد: برچسپ<ref> که با نام «AI widely used 1990s» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است. خطای یادکرد: برچسپ<ref> که با نام «Artificial General Intelligence» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است.
Goertzel, Ben; Lian, Ruiting; Arel, Itamar; de Garis, Hugo; Chen, Shuo (December 2010). "A world survey of artificial brain projects, Part II: Biologically inspired cognitive architectures".Neurocomputing.74 (1–3): 30–49.doi:10.1016/j.neucom.2010.08.012.
Robinson, A. J.; Fallside, F. (1987), "The utility driven dynamic error propagation network.",Technical Report CUED/F-INFENG/TR.1, Cambridge University Engineering Department
Williams, R. J.; Zipser, D. (1994), "Gradient-based learning algorithms for recurrent networks and their computational complexity",Back-propagation: Theory, Architectures and Applications, Hillsdale, NJ: Erlbaum
Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016),Deep Learning, MIT Press., archived fromthe original on 16 April 2016, retrieved12 November 2017
Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). "Deep Neural Networks for Acoustic Modeling in Speech Recognition – The shared views of four research groups".IEEE Signal Processing Magazine.29 (6): 82–97.Bibcode:2012ISPM...29...82H.doi:10.1109/msp.2012.2205597.S2CID206485943.
Linnainmaa, Seppo (1970).The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors (Thesis)(به فنلاندی). Univ. Helsinki, 6–7.|
Griewank, Andreas (2012). "Who Invented the Reverse Mode of Differentiation? Optimization Stories".Documenta Matematica, Extra Volume ISMP: 389–400.
Werbos, Paul (1974).Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences (Ph.D. thesis).Harvard University.
Merkle, Daniel; Middendorf, Martin (2013). "Swarm Intelligence". In Burke, Edmund K.; Kendall, Graham (eds.).Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques(به انگلیسی). Springer Science & Business Media.ISBN978-1-4614-6940-7.
Galvan, Jill (1 January 1997). "Entering the Posthuman Collective in Philip K. Dick's "Do Androids Dream of Electric Sheep?"".Science Fiction Studies.24 (3): 413–429.JSTOR4240644.
Arntz, Melanie; Gregory, Terry; Zierahn, Ulrich (2016), "The risk of automation for jobs in OECD countries: A comparative analysis",OECD Social, Employment, and Migration Working Papers 189
Morgenstern, Michael (9 May 2015)."Automation and anxiety".The Economist.Archived from the original on 12 January 2018. Retrieved13 January 2018.
Law Library of Congress (U.S.). Global Legal Research Directorate, issuing body. (2019).Regulation of artificial intelligence in selected jurisdictions.LCCN2019668143.OCLC1110727808.
Barfield, Woodrow; Pagallo, Ugo (2018).Research handbook on the law of artificial intelligence. Cheltenham, UK.ISBN978-1-78643-904-8.OCLC1039480085.
Iphofen, Ron; Kritikos, Mihalis (2019-01-03). "Regulating artificial intelligence and robotics: ethics by design in a digital society".Contemporary Social Science.16 (2): 170–184.doi:10.1080/21582041.2018.1563803.ISSN2158-2041.S2CID59298502.
Omohundro, Steve (2008).The Nature of Self-Improving Artificial Intelligence. presented and distributed at the 2007 Singularity Summit, San Francisco, CA.
"Kismet". MIT Artificial Intelligence Laboratory, Humanoid Robotics Group.Archived from the original on 17 October 2014. Retrieved25 October 2014.
Smoliar, Stephen W.; Zhang, HongJiang (1994). "Content based video indexing and retrieval".IEEE Multimedia.1 (2): 62–72.doi:10.1109/93.311653.S2CID32710913.
Neumann, Bernd; Möller, Ralf (January 2008). "On scene interpretation with description logics".Image and Vision Computing.26 (1): 82–101.doi:10.1016/j.imavis.2007.08.013.
McGarry, Ken (1 December 2005). "A survey of interestingness measures for knowledge discovery".The Knowledge Engineering Review.20 (1): 39–61.doi:10.1017/S0269888905000408.S2CID14987656.
Bertini, M; Del Bimbo, A; Torniai, C (2006). "Automatic annotation and semantic retrieval of video sequences using multimedia ontologies".MM '06 Proceedings of the 14th ACM international conference on Multimedia. 14th ACM international conference on Multimedia. Santa Barbara: ACM. pp. 679–682.
Turing, Alan (1948), "Machine Intelligence", in Copeland, B. Jack (ed.),The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press, p. 412,ISBN978-0-19-825080-7
Butler, Samuel (13 June 1863)."Darwin among the Machines". Letters to the Editor.The Press. Christchurch, New Zealand.Archived from the original on 19 September 2008. Retrieved16 October 2014 – via Victoria University of Wellington.
Fearn, Nicholas (2007).The Latest Answers to the Oldest Questions: A Philosophical Adventure with the World's Greatest Thinkers. New York: Grove Press.ISBN978-0-8021-1839-4.
NRC (United States National Research Council) (1999). "Developments in Artificial Intelligence".Funding a Revolution: Government Support for Computing Research. National Academy Press.
Solomonoff, Ray (1956).An Inductive Inference Machine(PDF). Dartmouth Summer Research Conference on Artificial Intelligence.Archived(PDF) from the original on 26 April 2011. Retrieved22 March 2011 – via std.com, pdf scanned copy of the original. Later published as Solomonoff, Ray (1957). "An Inductive Inference Machine".IRE Convention Record. Vol. Section on Information Theory, part 2. pp. 56–62.
Wason, P. C.; Shapiro, D. (1966)."Reasoning". In Foss, B. M. (ed.).New horizons in psychology. Harmondsworth: Penguin.Archived from the original on 26 July 2020. Retrieved18 November 2019.