Movatterモバイル変換


[0]ホーム

URL:


پرش به محتوا
ویکی‌پدیادانشنامهٔ آزاد
جستجو

هوش مصنوعی

از ویکی‌پدیا، دانشنامهٔ آزاد
برای دیگر کاربردها،هوش مصنوعی (ابهام‌زدایی) را ببینید.
بخشی از مقاله‌ها درباره
هوش مصنوعی

هوش مصنوعی (بهانگلیسی:Artificial intelligence) (مخففانگلیسی:AI)هوشی است که توسطماشین‌ها ظهور پیدا می‌کند، در مقابلهوش طبیعی[الف] که توسطجانوران شاملانسان‌ها نمایش می‌یابد. اما پیش از هرچیز باید این موضوع را دانست که کلمههوش، نشان دهنده امکاناستدلال است و اینکه آیا هوش مصنوعی می‌تواند به تواناییاستدلال دست یابد یا خیر، خود موضوع اختلاف محققان است.

کتاب‌های AI پیشرو، این شاخه را به عنوان شاخهمطالعه بر روی «عوامل هوشمند» تعریف می‌کنند: هر سامانه‌ای که محیط خود را درک کرده و کنش‌هایی را انجام می‌دهد که شانسش را در دستیابی به اهدافش بیشینه می‌سازد.[ب] برخی از منابع شناخته شده از اصطلاح «هوش مصنوعی» جهت توصیف ماشینی استفاده می‌کنند که عملکردهای «شناختی» را از رویذهن انسان‌ها تقلید می‌کنند، همچون «یادگیری» و «حل مسئله»، با این حال این تعریف توسط محققان اصلی در زمینه AI رد شده است.[پ][۲][۳]

کاربردهای هوش مصنوعی شاملموتورهای جستجو پیشرفتهٔوب (مثلگوگل وبینگسامانه توصیه‌گر (که توسطیوتیوب،آمازون ونتفلیکس استفاده می‌شوند)،فهم زبان انسان‌ها (همچونسیری،جمنای وآمازون الکساخودروهای خودران (مثلتسلاهوش مصنوعی مولد یاخلاقیت محاسباتی (مثلچت‌جی‌پی‌تی یا تولیداثر هنری ماننددال-ئی ومیدجرنی) تصمیم‌گیری خودکار و رقابت در بالاترین سطوح سامانه‌های بازی استراتژیک (همچونشطرنج وگو). با بیشتر شدن توانایی ماشین‌ها، وظایفی که نیازمند «هوشمندی» هستند اغلب از تعریف AI برداشته می‌شود، پدیده‌ای که به آناثر هوش مصنوعی گفته می‌شود. به عنوان مثال،فهم نوری کاراکتر را اغلب از چیزهایی که AI در نظر گرفته می‌شوند مستثنی می‌کنند، چرا که این فناوری تبدیل به فناوری عادی و روزمره‌ای شده است.[۴][۵][۶] (استفاده از هوش مصنوعی در زمینه‌هایی مانند پزشکی و آموزش رو به افزایش است).

هوش مصنوعی در سال ۱۹۵۶ میلادی تبدیل به شاخه‌ایآکادمیک شد و در سال‌های پس از آن چندین موج خوش‌بینی را تجربه کرده و مجدد دچار امواج ناامیدی و کمبود بودجه شده (که به آن «زمستان AI» می‌گویند)، سپس فناوری‌های جدیدی در پی آن آمده و موفقیت و بودجه‌های تحقیقاتی این حوزه مجدداً احیا گشته‌اند. تحقیقات AI رهیافت‌های متفاوتی را از زمان تأسیسش امتحان کرده و آن‌ها را کنار گذاشته است، رهیافت‌هایی چون: شبیه‌سازی مغز،مدل‌سازی حل مسئله توسط مغز انسان،منطق صوری، بانک‌های اطلاعاتی بزرگ دانش و تقلید رفتار جانوران. در اولین دهه‌های قرن ۲۱ میلادی،یادگیری ماشینی که شدیداً از آمار ریاضیاتی بهره می‌برد در این حوزه غلبه داشت و این فناوری اثبات کرد که به شدت موفق است و به حل چندین مسئله چالش‌برانگیز درصنعت و فضایآکادمیک کمک نمود.[۷][۸]

شاخه‌های مختلف تحقیقات هوش مصنوعی حول اهداف به‌خصوصی متمرکز بوده و از ابزارآلات خاصی استفاده می‌کنند. اهداف سنتی تحقیقات AI شامل این موارد اند:استدلال،نمایش دانش،برنامه‌ریزی،یادگیری،پردازش زبان طبیعی،ادراک و توانایی درجابجایی و دستکاری اشیاء.[ت]هوش جامع (توانایی حل مسائل دلخواه) در میان اهداف بلند مدت این حوزه است. جهت حل چنین مسائلی، محققان AI فنون حل مسئله وسیع و یکپارچه‌ای را شامل این موارد به کار بسته‌اند: جست‌وجو وبهینه‌سازی ریاضیاتی، منطق صوری، شبکه‌های عصبی مصنوعی و روش‌های مبنی برآمار،احتمالات واقتصاد. AI همچنین با حوزه‌هایی چونعلوم کامپیوتر،روان‌شناسی،زبان‌شناسی،فلسفه و بسیاری از حوزه‌های دیگر مرتبط است.[۹]

این شاخه بر این فرض بنا شده است که هوش انسانی «را می‌توان به دقت توصیف نمود، به طوری که می‌توان آن را توسط یک ماشینشبیه‌سازی نمود».[ث] این فرض بحث‌های فلسفی را پیرامون ذهن و اخلاقیات خلق موجودات هوشمند برانگیخته است، موجوداتی که دارای هوش شبیه-انسان اند. این مسائل توسطافسانه‌ها،داستان‌های تخیلی وفلسفه اززمان‌های باستان مورد کاوش واقع شده‌اند. ادبیاتعلمی-تخیلی وآینده‌پژوهی نیز پیشنهاد می‌دهند که AI با پتانسیل و قدرت عظیمی که دارد، ممکن است منجر به ایجادریسک وجودی برای بشریت گردد.[۱۱]

اهداف

[ویرایش]

مسئله کلی شبیه‌سازی (یا ایجاد) هوش به زیرمسئله‌هایی تقسیم شده است. این زیرمسئله‌ها شامل ویژگی‌ها یا قابلیت‌های خاصی هستند که پژوهشگران انتظار دارند یک سیستم هوشمند از خود نشان دهد. ویژگی‌های توصیف شده در زیر بیشترین توجه را به خود جلب کرده و دامنه پژوهش‌های هوش مصنوعی را پوشش می‌دهند.[ت]

استدلال و حل مسئله

[ویرایش]

پژوهشگران اولیه الگوریتم‌هایی را توسعه دادند که از استدلال گام به گامی که انسان‌ها هنگام حل معماها یا انجاماستنتاج‌های منطقی به کار می‌برند، تقلید می‌کرد.[۱۲] در اواخر دهه ۱۹۸۰ و ۱۹۹۰، روش‌هایی برای مواجهه با اطلاعاتنامطمئن یا ناقص با استفاده از مفاهیماحتمالات واقتصاد توسعه یافت.[۱۳]

بسیاری از این الگوریتم‌ها برای حل مسائل بزرگ استدلالی ناکافی هستند زیرا با یک «انفجار ترکیبی» مواجه می‌شوند: با بزرگ‌تر شدن مسائل، سرعت آنها به صورت نمایی کاهش می‌یابد.[۱۴] حتی انسان‌ها نیز به ندرت از استنتاج گام به گامی که پژوهش‌های اولیه هوش مصنوعی می‌توانستند مدل‌سازی کنند، استفاده می‌کنند. آنها بیشتر مسائل خود را با استفاده از قضاوت‌های سریع و شهودی حل می‌کنند.[۱۵] استدلال دقیق و کارآمد یک مسئله حل‌نشده باقی مانده است.

بازنمایی دانش

[ویرایش]
یک هستان‌شناسی دانش را به عنوان مجموعه‌ای از مفاهیم در یک دامنه و روابط بین آن مفاهیم بازنمایی می‌کند.

بازنمایی دانش ومهندسی دانش[۱۶] به برنامه‌های هوش مصنوعی اجازه می‌دهند تا به طور هوشمندانه به سؤالات پاسخ دهند و در مورد حقایق دنیای واقعی استنتاج کنند. بازنمایی‌های دانش رسمی در نمایه‌سازی و بازیابی مبتنی بر محتوا،[۱۷] تفسیر صحنه،[۱۸] پشتیبانی تصمیم‌گیری بالینی،[۱۹] کشف دانش (استخراج «استنتاج‌های جالب» و قابل اقدام ازپایگاه‌های داده بزرگ)،[۲۰] و سایر حوزه‌ها استفاده می‌شوند.[۲۱]

یکپایگاه دانش مجموعه‌ای از دانش است که به شکلی قابل استفاده برای یک برنامه بازنمایی شده است. یکهستی شناسی مجموعه‌ای از اشیاء، روابط، مفاهیم و ویژگی‌هایی است که توسط یک دامنه خاص از دانش استفاده می‌شود.[۲۲] پایگاه‌های دانش نیاز به بازنمایی مواردی مانند اشیاء، ویژگی‌ها، دسته‌ها و روابط بین اشیاء دارند؛[۲۳] موقعیت‌ها، رویدادها، وضعیت‌ها و زمان؛[۲۴] علل و معلول‌ها؛[۲۵] دانش در مورد دانش (آنچه ما در مورد آنچه دیگران می‌دانند، می‌دانیم)؛[۲۶] استدلال پیش‌فرض (چیزهایی که انسان‌ها فرض می‌کنند درست هستند تا زمانی که خلاف آن به آنها گفته شود و حتی با تغییر حقایق دیگر نیز درست باقی می‌مانند)؛[۲۷] و بسیاری از جنبه‌ها و دامنه‌های دیگر دانش.

از جمله دشوارترین مسائل در بازنمایی دانش، گستردگی دانش عقل سلیم (مجموعه حقایق اتمی که یک فرد معمولی می‌داند بسیار گسترده است)؛[۲۸] و شکل زیر-نمادین بیشتر دانش عقل سلیم (بسیاری از آنچه مردم می‌دانند به صورت «حقایق» یا «گزاره‌هایی» که بتوانند به صورت کلامی بیان کنند، بازنمایی نمی‌شود) است.[۱۵] همچنین دشواری فراگیری دانش، یعنی مسئله به دست آوردن دانش برای کاربردهای هوش مصنوعی، وجود دارد.[ج]

برنامه‌ریزی و تصمیم‌گیری

[ویرایش]

یک «عامل» (agent) هر چیزی است که در جهان ادراک کرده و اقداماتی را انجام می‌دهد. یک عامل منطقی اهداف یا ترجیحاتی دارد و برای تحقق آنها اقدام می‌کند.[چ][۳۱] دربرنامه‌ریزی خودکار، عامل یک هدف مشخص دارد.[۳۲] درتصمیم‌گیری خودکار، عامل ترجیحاتی دارد—موقعیت‌هایی وجود دارند که ترجیح می‌دهد در آنها باشد و موقعیت‌هایی که سعی می‌کند از آنها اجتناب کند. عامل تصمیم‌گیرنده به هر موقعیت یک عدد (که «مطلوبیت» نامیده می‌شود) اختصاص می‌دهد که میزان ترجیح عامل را برای آن موقعیت اندازه‌گیری می‌کند. برای هر اقدام ممکن، می‌تواند «مطلوبیت انتظاری» را محاسبه کند: یعنیمطلوبیت تمام نتایج ممکن از آن اقدام، که با احتمال وقوع آن نتیجه وزن‌دهی شده است. سپس می‌تواند اقدامی را انتخاب کند که بیشترین مطلوبیت انتظاری را داشته باشد.[۳۳]

در برنامه‌ریزی کلاسیک، عامل دقیقاً می‌داند که تأثیر هر اقدام چه خواهد بود.[۳۴] اما در بیشتر مسائل دنیای واقعی، عامل ممکن است در مورد موقعیتی که در آن قرار دارد مطمئن نباشد (موقعیت «ناشناخته» یا «غیرقابل مشاهده» است) و ممکن است به طور قطع نداند که پس از هر اقدام ممکن چه اتفاقی خواهد افتاد (موقعیت «قطعی» نیست). عامل باید با یک حدس احتمالی اقدامی را انتخاب کند و سپس موقعیت را دوباره ارزیابی کند تا ببیند آیا اقدام مؤثر بوده است یا خیر.[۳۵]

در برخی مسائل، ترجیحات عامل ممکن است نامشخص باشد، به خصوص اگر عوامل یا انسان‌های دیگری درگیر باشند. این ترجیحات می‌توانند یاد گرفته شوند (مثلاً با یادگیری تقویتی معکوس) یا عامل می‌تواند برای بهبود ترجیحات خود به دنبال اطلاعات باشد.[۳۶] نظریه ارزش اطلاعات می‌تواند برای سنجش ارزش اقدامات اکتشافی یا آزمایشی استفاده شود.[۳۷] فضای اقدامات و موقعیت‌های ممکن در آینده معمولاً به طور ذاتی بزرگ است، بنابراین عامل‌ها باید در حالی که از نتیجه مطمئن نیستند، اقدام کرده و موقعیت‌ها را ارزیابی کنند.

یک فرایند تصمیم‌گیری مارکوف دارای یکمدل انتقال است که احتمال تغییر حالت توسط یک اقدام خاص به روشی معین را توصیف می‌کند و یک تابع پاداش دارد که مطلوبیت هر حالت و هزینه هر اقدام را فراهم می‌کند. یکسیاست (policy) یک تصمیم را به هر حالت ممکن مرتبط می‌کند. سیاست می‌تواند محاسبه شود (مثلاً با تکرار سیاست)، ابتکاری باشد، یا یاد گرفته شود.[۳۸]

نظریه بازی‌ها رفتار منطقی چندین عامل در حال تعامل را توصیف می‌کند و در برنامه‌های هوش مصنوعی که تصمیماتی را شامل عوامل دیگر می‌گیرند، استفاده می‌شود.[۳۹]

یادگیری

[ویرایش]

یادگیری ماشین مطالعه برنامه‌هایی است که می‌توانند عملکرد خود را در یک وظیفه معین به طور خودکار بهبود بخشند.[۴۰] این حوزه از ابتدا بخشی از هوش مصنوعی بوده است.[ح]

دریادگیری با نظارت، داده‌های آموزشی با پاسخ‌های مورد انتظار برچسب‌گذاری شده‌اند، در حالی که در یادگیری بدون نظارت، مدل الگوها یا ساختارها را در داده‌های بدون برچسب شناسایی می‌کند.

انواع مختلفی از یادگیری ماشین وجود دارد.یادگیری بی‌نظارت جریانی از داده‌ها را تحلیل می‌کند و بدون هیچ راهنمایی دیگری، الگوها را پیدا کرده و پیش‌بینی‌هایی را انجام می‌دهد.[۴۳]یادگیری بانظارت نیازمند برچسب‌گذاری داده‌های آموزشی با پاسخ‌های مورد انتظار است و در دو نوع اصلی ارائه می‌شود:دسته‌بندی (که در آن برنامه باید یاد بگیرد پیش‌بینی کند ورودی به کدام دسته تعلق دارد) ورگرسیون (که در آن برنامه باید یک تابع عددی را بر اساس ورودی عددی استنتاج کند).[۴۴]

دریادگیری تقویتی، عامل برای پاسخ‌های خوب پاداش می‌گیرد و برای پاسخ‌های بد تنبیه می‌شود. عامل یاد می‌گیرد پاسخ‌هایی را انتخاب کند که به عنوان «خوب» طبقه‌بندی می‌شوند.[۴۵]یادگیری انتقال زمانی است که دانش به دست آمده از یک مسئله به یک مسئله جدید اعمال می‌شود.[۴۶]یادگیری عمیق نوعی از یادگیری ماشین است که ورودی‌ها را از طریقشبکه‌های عصبی مصنوعی الهام گرفته از زیست‌شناسی برای همه این انواع یادگیری پردازش می‌کند.[۴۷]

نظریه یادگیری محاسباتی می‌تواند یادگیرنده‌ها را بر اساسپیچیدگی محاسباتی،پیچیدگی نمونه (چه مقدار داده مورد نیاز است)، یا مفاهیم دیگربهینه‌سازی ارزیابی کند.[۴۸]

پردازش زبان طبیعی

[ویرایش]

پردازش زبان طبیعی (پزط) به برنامه‌ها اجازه می‌دهد تا به زبان‌های انسانی بخوانند، بنویسند و ارتباط برقرار کنند.[۴۹] مسائل خاص شاملبازشناسی گفتار،تولید گفتار،ترجمه ماشینی،استخراج اطلاعات،بازیابی اطلاعات وپرسش و پاسخ است.[۵۰]

کارهای اولیه، بر اساسدستور زایشینوآم چامسکی وشبکه‌های معنایی، با ابهام‌زدایی از معنای واژه مشکل داشتند[خ] مگر اینکه به دامنه‌های کوچکی به نام «میکرو-جهان‌ها» محدود می‌شدند (به دلیل مسئله دانش عقل سلیم[۲۸]). مارگارت مسترمن معتقد بود که معنا و نه دستور زبان، کلید درک زبان‌ها است واصطلاح‌نامه و نه لغت‌نامه‌ها باید اساس ساختار زبان محاسباتی باشند.

تکنیک‌های مدرن یادگیری عمیق برای NLP شامل تعبیه کلمه (نمایش کلمات، معمولاً به صورتبردارها که معنای آنها را رمزگذاری می‌کنند)،[۵۱] ترنسفورمرها (یک معماری یادگیری عمیق با استفاده از مکانیزمتوجه[۵۲] و موارد دیگر است.[۵۳] در سال ۲۰۱۹، مدل‌های زبانی ترنسفورمر از پیش آموزش‌دیده مولد (یا "GPT") شروع به تولید متن منسجم کردند،[۵۴][۵۵] و تا سال ۲۰۲۳، این مدل‌ها توانستند در آزمون وکالت، آزمونSAT، آزمونGRE و بسیاری از کاربردهای دنیای واقعی دیگر، نمراتی در سطح انسان کسب کنند.[۵۶]

ادراک

[ویرایش]

ادراک ماشین توانایی استفاده از ورودی‌های حسگرها (مانند دوربین‌ها، میکروفون‌ها، سیگنال‌های بی‌سیم،لیدار فعال، سونار، رادار و حسگرهای لمسی) برای استنتاج جنبه‌هایی از جهان است.بینایی رایانه‌ای توانایی تحلیل ورودی بصری است.[۵۷]

این حوزه شاملبازشناسی گفتار،[۵۸] دسته‌بندی تصویر،[۵۹] بازشناسی چهره، بازشناسی اشیاء،[۶۰]ردیابی اشیاء،[۶۱] و ادراک رباتیک است.[۶۲]

هوش اجتماعی

[ویرایش]
کیزمت، یک سر ربات که در دهه ۱۹۹۰ ساخته شد؛ ماشینی است که می‌تواند احساسات را تشخیص داده و شبیه‌سازی کند.[۶۳]

رایانش عاطفی حوزه‌ای است که شامل سیستم‌هایی می‌شود که احساس، هیجان و خلق‌وخوی انسان را تشخیص می‌دهند، تفسیر می‌کنند، پردازش می‌کنند یا شبیه‌سازی می‌کنند.[۶۴] به عنوان مثال، برخیدستیاران مجازی طوری برنامه‌ریزی شده‌اند که به صورت محاوره‌ای صحبت کنند یا حتی شوخی کنند؛ این باعث می‌شود آنها نسبت به دینامیک‌های عاطفی تعامل انسانی حساس‌تر به نظر برسند یاتعامل انسان و رایانه را تسهیل کنند.

با این حال، این امر تمایل دارد به کاربران ساده‌لوح یک تصور غیرواقعی از هوش عامل‌های کامپیوتری موجود بدهد.[۶۵] موفقیت‌های متوسط مرتبط با رایانش عاطفی شامل تحلیل احساسات متنی و اخیراً تحلیل احساسات چندوجهی است که در آن هوش مصنوعی عواطف نمایش داده شده توسط یک سوژه فیلم‌برداری شده را طبقه‌بندی می‌کند.[۶۶]

هوش عمومی

[ویرایش]

یک ماشین با هوش مصنوعی عمومی قادر خواهد بود طیف گسترده‌ای از مسائل را با گستردگی و تطبیق‌پذیری مشابه هوش انسانی حل کند.[۶۷]

تاریخچه

[ویرایش]
مقالهٔ اصلی:تاریخ هوش مصنوعی

هوش مصنوعی توسطفلاسفه وریاضی‌دانانی نظیرجرج بول که اقدام به ارائهٔ قوانین ونظریه‌هایی در مورد منطق نمودند، مطرح شده بود. با اختراعرایانه‌های الکترونیکی در سال ۱۹۴۳، هوش مصنوعی، دانشمندان آن زمان را به چالشی بزرگ فراخواند. در این شرایط، چنین به‌نظر می‌رسید که این فناوری قادر به شبیه‌سازی رفتارهای هوشمندانه خواهد بود.

با وجود مخالفت گروهی از متفکران با هوش مصنوعی که با تردید به کارآمدی آن می‌نگریستند تنها پس از چهار دهه، شاهد تولد ماشین‌هایشطرنج باز و دیگرسامانه‌های هوشمند در صنایع گوناگون شدیم.

حوزه پژوهش در زمینه هوش مصنوعی در یک کارگاه آموزشی درکالج دارتموث در سال ۱۹۵۶ متولد شد.[۶۸][۶۹][۷۰] شرکت‌کنندگان آلن نیول (دانشگاه کارنگی ملونهربرت سیمون (دانشگاه کارنگی ملون)، جان مک‌کارتی (مؤسسه فناوری ماساچوست)، ماروین منسکی (مؤسسه فناوری ماساچوست) و آرتور ساموئل (آی‌بی‌ام) از بنیان‌گذاران و رهبران پژوهش در زمینه هوش مصنوعی شدند.[۶۸] آن‌ها به همراه دانشجویانشان برنامه‌هایی نوشتند که مطبوعات آن را «شگفت‌آور» توصیف می‌کردند، رایانه‌ها استراتژی‌های بردِ بازیچکرز را فرا می‌گرفتند،[۷۱][۷۲] سوالاتی درجبر حل می‌کردند، قضیه‌های منطقی اثبات می‌کردند و انگلیسی صحبت می‌کردند.[۶۸][۷۳] در اواسط دهه ۱۹۶۰ میلادیوزارت دفاع آمریکا سرمایه‌گذاری‌های سنگینی در حوزه پژوهش در زمینه هوش مصنوعی انجام می‌داد،[۶۹] در آن دهه آزمایشگاه‌های فراوانی در سراسر جهان تأسیس شد.[۷۴] بنیانگذاران هوش مصنوعی در مورد آینده خوشبین بودند: هربرت سیمون پیش‌بینی کرد «ماشین‌ها ظرف بیست سال قادر به انجام هر کاری هستند که یک انسان می‌تواند انجام دهد». ماروین مینسکی، نوشت: «در طی یک نسل … مسئله هوش مصنوعی اساساً حل خواهد شد».[۶۹]

نام هوش مصنوعی در سال ۱۹۶۵ میلادی به عنوان یک دانش جدید ابداع گردید. البته فعالیت در این زمینه از سال ۱۹۶۰ میلادی شروع شد. (مرجع۱)بیشتر کارهای پژوهشی اولیه در هوش مصنوعی بر روی انجام ماشینیبازی‌ها و نیز اثباتقضیه‌های ریاضی با کمک رایانه‌ها بود. در آغاز چنین به نظر می‌آمد که رایانه‌ها قادر خواهند بود چنین فعالیت‌هایی را تنها با بهره گرفتن از تعداد بسیار زیادی کشف و جستجو برای مسیرهای حل مسئله و سپس انتخاب بهترین روش برای حل آن‌ها به انجام رسانند.

اصطلاح هوش مصنوعی برای اولین بار توسطجان مک‌کارتی (که از آن به‌عنوان پدر علم و دانش تولید ماشین‌های هوشمند یاد می‌شود) استفاده شد. وی مخترع یکی اززبان‌های برنامه‌نویسی هوش مصنوعی به ناملیسپ (بهانگلیسی:lisp) است. با این عنوان می‌توان به هویت رفتارهای هوشمندانه یک ابزار مصنوعی پی برد. (ساختهٔ دست بشر، غیرطبیعی، مصنوعی) حال آنکه هوش مصنوعی به عنوان یک اصطلاح عمومی پذیرفته شده که شامل محاسبات هوشمندانه و ترکیبی (مرکب از مواد مصنوعی) است.

از اصطلاح "Strong and Weak AI" می‌توان تا حدودی برای معرفی رده‌بندی سامانه‌ها استفاده کرد.

آزمون تورینگ

[ویرایش]
آزمون تورینگ

آزمون تورینگ[۷۵] آزمونی است که توسطآلن تورینگ در سال ۱۹۵۰ در نوشته‌ای به نام «محاسبات و هوشمندی» مطرح شد. در این آزمون شرایطی فراهم می‌شود که شخصی با ماشینی تعامل برقرار کند و پرسش‌های کافی برای بررسی اقدامات هوشمندانهٔ ماشین، از آن بپرسد. چنانچه در پایان آزمایش نتواند تشخیص دهد که با انسان یا با ماشین در تعامل بوده است، آزمون با موفقیت انجام شده است. تاکنون هیچ ماشینی از این آزمون با موفقیت بیرون نیامده است. کوشش این آزمون برای تشخیص درستی هوشمندی یک سامانه است که سعی درشبیه‌سازی انسان دارد.

تعریف و طبیعت هوش مصنوعی

[ویرایش]
سامانه یک خودروی بدون راننده می‌تواند از یک شبکه عصبی استفاده کند تا بتواند تشخیص دهد که کدام قسمت از تصاویر می‌تواند با تصویر یک انسان تطابق داده شود، و سپس آن قسمت را به شکل یک مستطیل با حرکت آهسته شبیه‌سازی کند که باید از برخورد با آن خودداری شود.[۷۶][۷۷]

هنوز تعریف دقیقی برای هوش مصنوعی که مورد توافق دانشمندان این علم باشد ارائه نشده است و این به هیچ وجه مایهٔ تعجب نیست. چرا که مقولهٔ مادر و اساسی‌تر از آن، یعنی خود هوش هم هنوز به‌طور همه‌جانبه و فراگیر تن به تعریف نداده است. در واقع می‌توان نسل‌هایی از دانشمندان را سراغ گرفت که تمام دوران زندگی خود را صرف مطالعه و تلاش در راه یافتن جوابی به این سؤال عمده نموده‌اند که: هوش چیست؟

اما اکثر تعریف‌هایی که در این زمینه ارائه شده‌اند بر پایه یکی از ۴ باور زیر قرار می‌گیرند:

  1. سامانه‌هایی که به‌طور منطقی فکر می‌کنند
  2. سامانه‌هایی که به‌طور منطقی عمل می‌کنند
  3. سامانه‌هایی که مانند انسان فکر می‌کنند
  4. سامانه‌هایی که مانند انسان عمل می‌کنند (مرجع۱)

شاید بتوان هوش مصنوعی را این‌گونه توصیف کرد: «هوش مصنوعی عبارت است از مطالعه این که چگونه رایانه‌ها را می‌توان وادار به کارهایی کرد که در حال حاضر انسان‌ها آن‌ها را صحیح یا بهتر انجام می‌دهند» (مرجع۲). هوش مصنوعی به هوشی که یک ماشین از خود نشان می‌دهد یا به دانشی درکامپیوتر که سعی در ایجاد آن دارد گفته می‌شود. بیشتر نوشته‌ها و مقاله‌های مربوط به هوش مصنوعی آن را «دانش شناخت و طراحی عامل‌های هوشمند» تعریف کرده‌اند. یکعامل هوشمند، ساماندهی است که با شناخت محیط اطراف خود، شانس موفقیت خود را بالا می‌برد.

اینکه هوش مصنوعی چیست و چه تعریفی می‌توان از آن بیان نمود؟ مبحثی است که تاکنون دانشمندان به یک تعریف جامع در آن نرسیده‌اند و هریک تعریفی را ارائه نموده‌اند که در زیر نمونه‌ای از این تعاریف آمده است.

  • هنر ایجاد ماشین‌هایی که وظایفی را انجام می‌دهند که انجام آن‌ها توسط انسان‌ها نیاز به هوش دارد (کورزویل - ۱۹۹۰)
  • مطالعهٔ استعدادهای ذهنی از طریقمدل‌های محاسباتی (کارنیاک و مک درموت - ۱۹۸۵)
  • مطالعهٔ اینکه چگونه رایانه‌ها را قادر به انجام اعمالی کنیم که در حال حاضر، انسان آن اعمال را بهتر انجام می‌دهد. (ریچ و نایت - ۱۹۹۱)
  • خودکارسازی فعالیت‌هایی که ما آن‌ها را به تفکر انسانی نسبت می‌دهیم. فعالیت‌هایی مثل تصمیم‌گیری، حل مسئله، یادگیری و … (بلمن - ۱۹۷۸)
  • تلاشی نو و مهیج برای اینکه رایانه‌ها را قادر به فکر کردن کنیم. ماشین‌هایی با فکر و حس تشخیص واقعی (هاگلند - ۱۹۸۵)
  • یک زمینهٔ تخصصی که به دنبال توضیح و شبیه‌سازی رفتار هوشمندانه به وسیلهٔ فرایندهای رایانه‌ای است. (شالکوف - ۱۹۹۰)
  • مطالعه محاسباتی که درک، استدلال و عمل کردن را توسط ماشین‌ها را ممکن می‌سازد. (وینستون - ۱۹۹۲)
  • توانایی دست یافتن به کارایی در حد انسان در همهٔ امور شناختی توسط رایانه (آلن تورینگ - ۱۹۵۰)
  • هوش مصنوعی دانش و مهندسی ساخت ماشین‌های هوشمند و به خصوص برنامه‌های رایانه‌ای هوشمند است. هوش مصنوعی با وظیفه مشابه استفاده از رایانه‌ها برای فهم چگونگی هوش انسان مرتبط است، اما مجبور نیست خودش را به روش‌هایی محدود کند که بیولوژیکی باشند. (جان مک‌کارتی - ۱۹۸۰)

هوشمندی مفهومی نسبی دارد و نمی‌توان محدوده صحیحی را برای ارائه تعریف از آن مشخص نمود. رفتاری که از نظر یک فرد هوشمند به نظر می‌رسد؛ ممکن است برای یک فرد دیگر این‌گونه به نظر نرسد. اما در مجموع خصوصیات زیر قابلیت‌های ضروری برای هوشمندی است:

  • پاسخ به موقعیت‌های از قبل تعریف نشده با انعطاف بسیار بالا و بر اساس بانک دانش
  • معنا دادن به پیام‌های نادرست یا مبهم
  • درک تمایزها و شباهت‌ها
  • تجزیه و تحلیل اطلاعات و نتیجه‌گیری
  • توانمندی آموختن و یادگرفتن
  • برقراری ارتباط دوطرفه

به فرض اینکه تعاریف بالا را از هوشمندی بپذیریم، موارد زیر فهرستی است از وظایفی که از یک سامانه هوشمند انتظار می‌رود و تقریباً اکثر دانشمندان هوش مصنوعی بر آن توافق نظر دارند به شرح زیر است:

  • تولید گفتار
  • تشخیص و درک گفتار (پردازش زبان طبیعی انسان)
  • دستورپذیری و قابلیت انجام اعمال فیزیکی در محیط طبیعی و مجازی
  • استنتاج و استدلال
  • تشخیص الگو و بازشناسی الگو برای پاسخ گویی به مسائل بر اساس دانش قبلی
  • شمایلی گرافیکی یا فیزیکی جهت ابراز احساسات و عکس‌العمل‌های ظریف
  • سرعت عکس‌العمل بالا

رویکردهای اصلی به هوش مصنوعی

[ویرایش]

رویکردهای شاخص به هوش مصنوعی[۷۸] (به ترتیب روند زمانی که مطرح شدند و البته همگی سپس به بقا در حیطه خودشان ادامه دادند):

1- مبتنی برمنطق و Rule[۷۹]

2- مبتنی برتشخیص الگو /روش‌های احتمالاتی /روش‌های آماری[۸۰]

3- مبتنی برالگوریتمهای مکاشفه ای (Heuristics)[۸۱]

4- مبتنی بر گراف‌های دانش وهستان‌شناسی‌ها

5- مبتنی برهوش مصنوعی عامل گرا[۸۲][۸۳] و عامل های دیجیتالی[۸۴]

6- مبتنی برشبیه سازی رخدادها / مولدهای رخداد

7- مبتنی بریادگیری ماشین

8- مبتنی برشبکه‌های عصبی عمیق[۸۵]

9- مبتنی برGAN و Transformers و Encoders و Decoders وهوش مصنوعی مولد (Generative AI)

10- مبتنی بر مدل‌های بزرگ آموزش داده شده

11- مبتنی بر مدل‌های بزرگزبانی LLM

12- مبتنی بر دستوردهی به LLMها (یعنی Prompt Engineering)

13-هوش مصنوعی توضیح پذیر (XAI) / اعتماد پذیر / مسئول / جویا (RAG)

14- هوش مصنوعی ارزان و بهره‏ ور (مانند کاهش مصرف انرژی در مدارهای هوش مصنوعی با استفاده از سخت افزارهای فوتونیکی)[۸۶]

15- هوش مصنوعی انسان وار (Human Like) ومعماری شناختی

16- هوش مصنوعی عمومی (AGI)

17- ابرهوش مصنوعی (ASI)

18- هوش مصنوعی مستقل / خودمختار / عامل های خودتجربه گر[۸۷][۸۸]

19- مدل های جهان (World Models) / شبیه سازیِ هوش مصنوعی[۸۹]

20- پارادایم های نامتعارف و نوظهور هوش مصنوعی (مانندشبکه های عصبی کوانتومی، دیگر شیوه های ترکیبی هوش و کوانتوم)[۹۰][۹۱][۹۲][۹۳][۹۴]

21- هوشمندی سیاره ای (سیاره گستر)[۹۵]

22-خِرَد ترکیبی (Hybrid Wisdom)[۹۶][۹۷][۹۸][۹۹]

کاربردهای هوش مصنوعی

[ویرایش]

هوش مصنوعی کاربردهای متنوعی دارد. تعدادی از مهم‌ترین کاربردهای هوش مصنوعی شامل استفاده در وسایل نقلیه خودگردان (مثلپهپادها واتومبیل‌های خودران)، تشخیص‌های پزشکی، خلق آثار هنری، اثباتقضیه‌های ریاضی، انجام بازی‌های فکری، تعیین هویت تصاویر (تشخیص چهره) و صداها، ذخیره انرژی، جستجوگرهای اینترنتی، تهیهقراردادها و پیش‌بینی آرایقضایی می‌شوند.

هوش مصنوعی در اقتصاد

[ویرایش]

یکی از مهم‌ترین کاربردهای هوش مصنوعی در زمینهٔ تجارت، اقتصاد وکلان داده است. برای مثال، با استفاده از هوش مصنوعی می‌توان با ضریب خطای پایینی، تغییرات فصلی و بلندمدت در عرضه یا تقاضای محصولات مختلف را پیش‌بینی کرد. این موضوع می‌تواند به شدت در سیاست،اقتصاد کلان و کنترل عرضه و تقاضا مفید واقع شود. همچنین، شرکت‌هایی مانند گوگل خدماتی در زمینهٔ هوش مصنوعی به شرکت‌های بزرگ ارائه می‌دهند که می‌تواند به برنامه‌ریزی، انبارگردانی، پیش‌بینی سیر صعودی یا نزولی فروش در محصولات به خصوص و نیز برندسازی آن‌ها کمک کند.

پیش‌بینی قیمت در بازارها (مانند پیش‌بینی قیمت نفت با هوش مصنوعی) یکی از کاربردهای هوش مصنوعی در اقتصاد است.[۱۰۰]

هوش مصنوعی در ورزش

[ویرایش]

به‌طور تاریخی، پیش‌بینی فوتبال به انسان‌های ماهری وابسته بود که می‌توانستند سوابق و وضعیت دو تیم و بازیکنان را تحلیل کنند. با انقلاب دیجیتال، سایت‌های شرط‌بندی کار را برای پیش‌بینی آسان و آسان‌تر کردند. اما حتی ظهور سایت‌ها و شرط‌بندی آنلاین هم تأثیری در نحوه شرط‌بندی ایجاد نکرد. همچنان علاقه‌مندان تلاش می‌کنند تا وضعیت طرفین و بازیکنان را بررسی کنند. هوش مصنوعی این را تغییر می‌دهد. اینترنت باعث ظهور سایت‌ها و فروم‌هایی شد که تیپسترهای شرط‌بندی فرم معرفی می‌کنند. با ظهور هوش مصنوعی، فرم شرط‌بندی می‌تواند چیزی فراتر از یک محاسبه انسانی باشد و الگوریتم‌های یادگیری ماشین، بازی را عوض می‌کنند.[۱۰۱][۱۰۲]

شبکه‌های اجتماعی

[ویرایش]

در شبکه‌های اجتماعی مطرح مانند توئیتر یا اینستاگرام، برای تشخیص الگوهای رفتاری انسانی، جلوگیری ازهرزنامه و انتشار محتوای مجرمانه و نیز شناسایی مخاطبان هدف برای تبلیغات، از هوش مصنوعی استفاده می‌شود. همچنین، برخی ازربات‌های شبکهُ اجتماعی بر پایهٔ هوش مصنوعی فعالیت می‌کنند تا در بالاترین سطوح رفتارهای انسانی را شبیه‌سازی نمایند.[۱۰۳]

هوش مصنوعی در خدمات حقوقی

[ویرایش]

کاربرد هوش مصنوعی در خدماتحقوقی به سرعت در حال افزایش است و سیستم‌های نوین مبتنی برپردازش زبان طبیعی به تدریج در حال به عهده گرفتن بخشی از وظایف حقوق‌دانان هستند. نرم‌افزارهای مبتنی برتکنولوژی هوش مصنوعی در حال حاضر امکان تهیه قراردادهای دقیق، تحلیل قراردادها و اسناد حقوقی موجود و پیش‌بینی آرای دادگاه‌ها را فراهم کرده‌اند.

هوش مصنوعی در فرهنگ، میراث فرهنگی و میراث مکتوب

[ویرایش]

هوش مصنوعی از طریق فناوری‌ها و کاربردهای خود می‌تواند به توسعه فرهنگ، کاربردها و ابزارهای فرهنگی، حفاظت از میراث فرهنگی و میراث مکتوب یاری برساند. مواردی مانندپردازش زبان طبیعی، جست و جوی معنایی، خوانش رایانشی کتابها،متن کاوی،ایده کاوی، روانکاوی رایانشی، قرآن کاوی رایانشی،مدلهای زبانی بزرگ،نویسه خوانی نوری OCR (برای کتب خطی و قدیمی یا چاپی و جدید)، اکتشافات زبانشناسی، اکتشافات فرهنگی، پایگاه‌های داده و دادگان مرجع زبانی و فرهنگی و میراثی،دوقلوی دیجیتال برای میراث فرهنگی، دوقلوی دیجیتال برای میراث مکتوب، واقعیت مجازی هوشمند و واقعیت افزوده هوشمند برای میراث فرهنگی و دیگر موارد.

نیروی انسانی و تخصص

[ویرایش]

توسعهٔ هوش مصنوعی نیازمند حضور متخصصان در زمینه‌های مختلف از جمله علوم رایانه، یادگیری ماشین، علوم داده و اخلاق فناوری است.

هوش مصنوعی و رد پای کربنی

[ویرایش]

هر بار که از هوش مصنوعی استفاده می‌کنید،رد پای کربنی ایجاد می‌شود. هوش مصنوعی (مخصوصاً مدل‌های بزرگ مثل (ChatGPT،Grok،Gemini،Llama) برای آموزش (Training) و استفاده (Inference) به انرژی الکتریکی عظیمی نیاز دارند که عمدتاً ازنیروگاه‌های زغال‌سنگی،گازی یا حتیهسته‌ای تأمین می‌شود.به طور نمونه:

  • یک پرس‌وجو مثلاً یک سؤال از ChatGPT از ۲ تا ۱۰ گرم CO₂، معادل رانندگی ۵۰ متر با ماشین بنزینی است .
  • تولید یک تصویر با AI مثل DALL·E یا Midjourney از ۱ گرم تا ۵ گرم CO₂ معادل ۵ دقیقه روشن ماندنلامپ LED می باشد. هوش مصنوعی، در هر پاسخِ کوتاه، دو تا ده گرمِ کربن به باد می‌سپارد؛ اما در رقصِ بیت‌های دیجیتال، مثل آموزش یک مدل، پانصد تن دودِ کربنی به آسمانِ زمین می‌دمد.[۱۰۴][۱۰۵]

فلسفه هوش مصنوعی

[ویرایش]
مقالهٔ اصلی:فلسفه هوش مصنوعی

به‌طور کلی ماهیت وجودی هوش به مفهوم جمع‌آوری اطلاعات، استقراء و تحلیل تجربیات به منظور رسیدن به دانش یا ارائه تصمیم است. در واقع هوش به مفهوم به‌کارگیری تجربه به منظور حل مسائل دریافت شده تلقی می‌شود. هوش مصنوعی علم و مهندسی ایجاد ماشین‌هایی هوشمند با به‌کارگیری از کامپیوتر و الگوگیری از درک هوش انسانی یا حیوانی و نهایتاً دستیابی به مکانیزم هوش مصنوعی در سطح هوش انسانی است.[۱۰۶]

در مقایسهٔ هوش مصنوعی باهوش انسانی می‌توان گفت که انسان قادر به مشاهده و تجزیه و تحلیل مسائل در جهت قضاوت و اخذ تصمیم است در حالی که هوش مصنوعی مبتنی بر قوانین و رویه‌هایی از قبل تعبیه شده بر روی کامپیوتر است. در نتیجه علی‌رغم وجود رایانه‌های بسیار کارا و قوی در عصر حاضر ما هنوز قادر به پیاده کردن هوشی نزدیک به هوش انسان در ایجاد هوش‌های مصنوعی نبوده‌ایم.

به‌طور کلّی، هوش مصنوعی را می‌توان از زوایای متفاوتی مورد بررسی و مطالعه قرار داد. مابین هوش مصنوعی به عنوان یک هدف، هوش مصنوعی به عنوان یک رشتهٔ تحصیلی دانشگاهی یا هوش مصنوعی به عنوان مجموعهٔ فنون و راهکارهایی که توسط مراکز علمی مختلف و صنایع گوناگون تنظیم و توسعه یافته است، باید تفاوت قائل بود.[۱۰۷]

اتاق چینی

[ویرایش]

اتاق چینی یک آزمایش ذهنی است که اولین بار توسط مقالهجان سرل به‌نام «ذهن‌ها، مغزها، و برنامه‌ها» (بهانگلیسی:Minds, Brains, and Programs) در مجله «علوم رفتاری و ذهنی» (بهانگلیسی:Behavioral and Brain Sciences) در سال ۱۹۸۰ منتشر شد. وی با این سؤال که آیا یک برنامه هوشمند مترجم که توانایی ترجمه از زبانچینی به زبان انگلیسی را دارد، ضرورتی برای فهم موضوع مورد ترجمه دارد یا خیر و با تشبیه ذهن به یک برنامهٔ هوشمند رایانه‌ای این استدلال را در برابر مواضع فلسفیکارکردگرایی ونظریه محاسباتی ذهن که در آن‌ها، ذهن به عنوان یک محاسبه‌گر یا دستکاری کنندهٔ نماد عمل می‌کند، قرار داد.[۱۰۸] در واقع نتایج حاصل از آزمایش اتاق چینی حکایت از این دارد که هیچ برنامه‌ای نمی‌تواند به کامپیوتر ذهن، فهم یا آگاهی بدهد. حال آن برنامه هر آنچه می‌خواهد هوشمند باشد و باعث شود کامپیوتر همچون انسان رفتار کند. اگر چه این آزمایش در اصل جوابی برای اظهارات محققان هوش مصنوعی بود، اما این ادعا در برابر اهداف تحقیقات هوش مصنوعی قرار نمی‌گیرد چرا که این موضوع حدی برای هوشمندی کامپیوتر قائل نیست. همچنین این آزمایش مختص رایانه‌های دیجیتال است و دامنه آن همه ماشین‌ها نیستند.[۱۰۸]

چگونگی استفاده هوش مصنوعی

[ویرایش]

هوش مصنوعی چگونه استفاده می‌شود؟

[ویرایش]

به‌طور کلی هوش مصنوعی به دو دسته زیر تفکیک می‌شود:

Narrow AI یا هوش مصنوعی ضعیف: این نوع هوش مصنوعی در یک زمینه محدود عمل می‌کند و شبیه‌سازی هوش انسانی است. هوش مصنوعی ضعیف اغلب بر روی یک کار مشخص تعریف می‌شود و در محدوده تعریفش بسیار عالی عمل می‌کند. شاید این ماشین‌ها بسیار هوشمند به نظر برسند اما حقیقت این است که حتی از ابتدائی‌ترین سطوح هوش انسانی هم ساده‌تر عمل می‌کنند.

Artificial General Intelligence یا هوش مصنوعی فراگیر: که با عنوان هوش مصنوعی قوی هم شناخته می‌شود، نوعی از هوش مصنوعی است که بیشتر در فیلم‌ها دیده‌ایم، مانند ربات‌های فیلم Westworld. هوش مصنوعی قوی بسیار شبیه به انسان عمل می‌کند چنان‌که می‌تواند توانایی‌های خود را بر حل مسائلی در حوزه‌های مختلف به کار بگیرد.[۱۰۹]


برترین سایت ها و پلتفرم های هوش مصنوعی:

۱. OpenAI (با ChatGPT و DALL·E)

شرکت OpenAI یکی از پیشگامان حوزه هوش مصنوعی است که ابزارهایی مثل ChatGPT، DALL·E و Whisper را توسعه میدهد. این فناوری‌ به کاربر امکان تبدیل گفتار به نوشتار، تولید متن و خلق تصاویر از طریق متن را می‌دهد. هدف اصلی این ابزارها، بهبود ارتباط انسان با ماشین و افزایش بهره‌وری در زمینه‌های گوناگون است. با بهره‌گیری از مدل‌های پیشرفته یادگیری ماشین، OpenAI امکانات منحصربه‌فردی را در اختیار توسعه‌دهندگان و علاقه‌مندان به فناوری قرار داده است.[۱۱۰]

Google Cloud AI.2  

پلتفرم قدرتمند هوش مصنوعی گوگل، مجموعه‌ای کامل از خدمات پیشرفته مثل تحلیل کلان‌داده و بینایی ماشین، پردازش زبان طبیعی،  مدل‌های یادگیری عمیق را در اختیار کاربر قرار می‌دهد. این ابزارها به کسب‌وکار ما کمک می‌کند تا پروژه‌های هوشمند خود را با دقت و سرعت بیشتری توسعه دهند و پیاده‌سازی کنند.[۱۱۱]

۳. IBM Watson

پلتفرمی پیشرفته برای تحلیل داده‌ است که در حوزه‌هایی مثل آموزش ، سلامت، امور مالی و صنعت کاربرد زیادی دارد. با بهره‌گیری از قابلیت‌های تحلیلی IBM Watson، سازمان‌ها می‌توانند تصمیم‌گیری‌های خود را بهینه‌سازی کنند و راهکارهای هوشمند و مبتنی بر داده را طراحی کنند.[۱۱۲]

مدیریت پیچیدگی

[ویرایش]

ایجاد و ابداع فنون و تکنیک‌های لازم برای مدیریت پیچیدگی را باید به عنوان هستهٔ بنیادین تلاش‌های علمی و پژوهشی گذشته، حال و آینده در تمامی زمینه‌هایعلوم رایانه و به ویژه در هوش مصنوعی معرفی کرد. شیوه‌ها و تکنیک‌های هوش مصنوعی در واقع، برای حل آن دسته از مسائل به وجود آمده است که به‌طور سهل و آسان توسطبرنامه‌نویسی تابعی یا شیوه‌های ریاضی قابل حلّ نبوده‌اند.[۱۱۳]

در بسیاری از موارد، با پوشانیدن و پنهان ساختن جزئیّات فاقد اهمیت است که بر پیچیدگی فائق می‌آییم و می‌توانیم بر روی بخش‌هایی از مسئله متمرکز شویم که مهم‌تر است. تلاش اصلی در واقع، ایجاد و دستیابی به لایه‌ها و ترازهای بالاتر از هوشمندیانتزاع را نشانه می‌رود تا آنجا که سرانجام، برنامه‌های رایانه‌ای درست در همان سطحی کار خواهند کرد که خود انسان‌ها رسیده‌اند.

به یاریپژوهش‌های گستردهٔ دانشمندان علوم مرتبط، هوش مصنوعی تاکنون راه بسیاری پیموده است. در این راستا، تحقیقاتی که بر روی توانایی آموختن زبان‌ها انجام گرفت و همچنین درک عمیق از احساسات، دانشمندان را در پیشبرد این دانش کمک زیادی کرده است. یکی از اهداف متخصصین، تولید ماشین‌هایی است که دارای احساسات بوده و دست کم نسبت به وجود خود واحساسات خود آگاه باشند. این ماشین باید توانایی تعمیم تجربیات قدیمی خود در شرایط مشابه جدید را داشته و به این ترتیب اقدام به گسترش دامنه دانش و تجربیاتش کند.

برای نمونه ربات هوشمندی که بتواند اعضای بدن خود را به حرکت درآورد، نسبت به این حرکت خودآگاه بوده و باآزمون و خطا، دامنه حرکت خود را گسترش می‌دهد و با هر حرکت موفقیت‌آمیز یا اشتباه، دامنه تجربیات خود را وسعت بخشیده و سرانجام راه رفته یا حتی می‌دود یا به روشی برای جابجا شدن دست می‌یابد که سازندگانش برای او متصور نبوده‌اند.

هر چند نمونه بالا ممکن است کمی آرمانی به نظر برسد، ولی به هیچ عنوان دور از دسترس نیست. دانشمندان عموماً برای تولید چنین ماشین‌هایی از وجود مدل‌های زنده‌ای که در طبیعت وجود دارند، به ویژه آدمی نیز سود برده‌اند.

هوش مصنوعی اکنون در خدمت توسعه علوم رایانه نیز هست. زبان‌های برنامه‌نویسی پیشرفته، که توسعه ابزارهای هوشمند را ممکن ساخته‌اند، پایگاه‌های داده‌ای پیشرفته،موتورهای جستجو، و بسیاری نرم‌افزارها و ماشین‌ها از نتایج پژوهش‌هایی در راستای هوش مصنوعی بوده‌اند.

اززبان‌های برنامه‌نویسی هوش مصنوعی می‌توان بهلیسپ،پرولوگ،کلیپس وویپی اکسپرت اشاره کرد.

شاخه‌های هوش مصنوعی در دانش رایانه

[ویرایش]

شاخه‌های گوناگونی از هوش مصنوعی در دانش‌های رایانه‌ای مورد استفاده قرار می‌گیرند، برخی این شاخه‌ها عبارتند از:

تکنیک‌ها و زبان‌های برنامه‌نویسی هوش مصنوعی

[ویرایش]

عملکرد اولیهٔ برنامه‌نویسی هوش مصنوعی ایجاد ساختار کنترلی مورد لزوم برای محاسبهٔ سمبولیک است. از مهم‌ترین و پرکاربردترین زبان برای هوش مصنوعی می‌توان ازپایتون نام برد و در کنار آن زبان‌های برنامه‌نویسیلیسپ وپرولوگ علاوه بر اینکه از مهم‌ترین زبان‌های مورد استفاده در هوش مصنوعی هستند خصوصیات نحوی و معنایی آن‌ها باعث شده که آن‌ها شیوه‌ها و راه حل‌های قوی برای حل مسئله ارائه کنند.

تأثیر قابل توجه این زبان‌ها بر روی توسعه هوش مصنوعی از جمله توانایی‌های آن‌ها به عنوان ابزارهای فکر کردن است. در حقیقت همان‌طور که هوش مصنوعی مراحل رشد خود را طی می‌کند، زبان‌هایلیسپ وپرولوگ بیشتر مطرح می‌شوند که این زبان‌ها کار خود را در محدودهٔ توسعه سامانه‌های هوش مصنوعی در صنعت و دانشگاه‌ها دنبال می‌کنند و طبیعتاً اطلاعات در مورد این زبان‌ها به عنوان بخشی از مهارت هر برنامه‌نویس هوش مصنوعی است.

  • پرولوگ: یک زبانبرنامه‌نویسی منطقی است. یک برنامهٔ منطقی دارای یک سری ویژگی‌های قانون و منطق است. در حقیقت خود این نام از برنامه‌نویسی PRO در LOGIC می‌آید. در این زبان یک مفسر برنامه را بر اساس یک منطق می‌نویسد. ایدهٔ استفادهٔ توصیفی محاسبهٔ اولیه برای بیان خصوصیات حل مسئله یکی از محوریت‌های پرولوگ است که برای علم کامپیوتر به‌طور کلی و به‌طور جزئی برایزبان برنامه‌نویسی هوشمند مورد استفاده قرار می‌گیرند.[۱۱۴]
  • لیسپ: اصولاً یک زبان کامل است که دارای عملکردها و لیست‌های لازمه برای توصیف عملکردهای جدید، تشخیص تناسب و ارزیابی معانی است. لیسپ به برنامه‌نویس قدرت کامل برای اتصال به ساختارهای اطلاعاتی را می‌دهد.[۱۱۵] گرچه لیسپ یکی از قدیمی‌ترین زبان‌های محاسباتی است که هنوز فعال است ولی دقت کافی در برنامه‌نویسی و طراحی توسعه باعث شده است که این یک زبان برنامه‌نویسی فعال باقی بماند. در حقیقت این مدل برنامه‌نویسی طوری مؤثر بوده است که تعدادی از دیگر زبان‌ها ماننداف پی،ام‌ال واسکیم براساس عملکرد برنامه‌نویسی آن بنا شده‌اند. یکی از مهم‌ترین برنامه‌های مرتبط با لیسپ برنامهٔ اسکیم است که یک تفکر دوباره دربارهٔ زبان در آن وجود دارد که به وسیلهٔ توسعه هوش مصنوعی و برای آموزش و اصولعلم کامپیوتر مورد استفاده قرار می‌گیرد.

استفاده از رابط‌های برنامه‌نویسی یا همان API می‌تواند استفاده از هوش مصنوعی در پروژه‌های برنامه‌نویسی را بسیار ساده‌تر سازد. APIهای هوش مصنوعی، رابط‌های RESTful هستند که به برنامه‌نویس اجازه می‌دهند به کمک مدل‌های از پیش تمرین داده شده شرکت‌های مختلف استفاده کنند و قابلیت‌های مرتبط با هوش مصنوعی نرم‌افزار خود را گسترش دهند در واقع در API برنامه‌ها از قابلیت‌های کاربردی یکدیگر استفاده می‌نمایند تا توانایی خود را افزایش دهند به‌طور مثال برنامه‌های مسیریابی از APIنقشه گوگل و مسیریابی ترافیک ماهواره ای گوگل بهره می‌برند و توانایی خود را بسیار بهبود می‌بخشند. برای معرفی برخی از این APIهای هوش مصنوعی می‌توان از Wit.ai, Api.ai و ملیسا نام برد.

عامل‌های هوشمند

[ویرایش]
مقالهٔ اصلی:کارگزار هوشمند

عامل‌ها (بهانگلیسی:Agents) قادر به شناساییالگوها و تصمیم‌گیری بر اساس قوانین فکر کردن خود هستند. قوانین و چگونگی فکر کردن هر عامل در راستای دستیابی به هدفش، تعریف می‌شود. این سامانه‌ها بر اساس قوانین خاص خود فکر کرده و کار خود را به درستی انجام می‌دهند. پس عاقلانه رفتار می‌کنند، هر چند الزاماً مانند انسان فکر نمی‌کنند.[۱۱۶]

در بحث هوشمندی اصطلاح پیس (بهانگلیسی:PEAS) سرنام واژه‌های "کارایی (بهانگلیسی:Performance)"، "محیط (بهانگلیسی:Environment)"، "اقدام گر (بهانگلیسی:Agent)" و "حسگر (بهانگلیسی:Sensor)" است.

سامانه‌های خبره

[ویرایش]
مقالهٔ اصلی:سیستم‌های خبره

سامانه‌های خبره زمینه‌ای پرکاربرد در هوش مصنوعی ومهندسی دانش است که با توجه به نیاز روزافزون جوامع بر اتخاذ راه حل‌ها و تصمیمات سریع در مواردی که دانش‌های پیچیده و چندگانهٔ انسانی مورد نیاز است و بر اهمیت نقش آن‌ها نیز افزوده می‌شود.سامانه‌های خبره به حل مسائلی می‌پردازند که به‌طور معمول نیازمند تخصص‌های کاردانان و متخصّصان انسانی است. به‌منظور توانایی بر حل مسائل در چنین سطحی (ترازی)، دسترسی هرچه بیشتر این‌گونه سامانه‌ها به دانش موجود در آن زمینه خاص ضروری می‌گردد.

اخبار جعلی، جعل عمقی و امنیت سیاسی

[ویرایش]
یک ویدئویجعل عمقی: هشدار ولادیمیر پوتین به آمریکایی‌ها در مورد دخالت در انتخابات و افزایش شکاف سیاسی

مفهومی به نام جعل عمقی (بهانگلیسی:Deepfakes) به هوش‌های مصنوعی اطلاق می‌شود که قادر هستند چهره و صدای افراد را بازسازی و شبیه‌سازی نمایند. امروزه تشخیص نسخه‌های جعلی و تقلبی از نسخه‌های اصلی کار بسیار مشکلی است.[۱۱۷]

این موضوع می‌تواند تهدیدی برای افراد مشهور اعم از هنرمندان، ورزشکاران و سیاست‌مداران باشد و زندگی حرفه‌ای آن‌ها را دچار خدشه و چالش نماید. بازسازی سخنرانی یک رئیس‌جمهور و درج موارد ناخواسته در میان آن یا بازسازی تصاویر سیاست‌مداران در یک فضای خاص می‌تواند نمونه‌ای از این موارد باشد.[۱۱۸]

به‌طورکلی هوش مصنوعیجعل عمیق، یکفناوری تغییر دهنده محتوا محسوب می‌شود. طبق گزارش ZDNet جعل عمقی «چیزی را ارائه می‌دهد که در واقع رخ نداده است». طبق این گزارش ۸۸٪ آمریکایی‌ها معتقدند جعل عمقی بیشتر از فایده باعث آسیب می‌شود اما تنها ۴۷٪ آنها معتقدند که ممکن است مورد هدف قرار گیرند. با اوج‌گیری رقابت‌های انتخاباتی شکل‌گیری فیلم‌های تبلیغاتی جعلی می‌تواند تهدیدی برای سیاست‌مداران محسوب شود.[۱۱۹]

هوش مصنوعی مولد

هوش مصنوعی مولد یا زاینده (Generative AI) شاخه‌ای از هوش مصنوعی است که تمرکز آن بر تولید محتوای جدید است؛ مانند متن، تصویر، ویدئو، موسیقی و حتی کد برنامه‌نویسی. مدل‌های مولدی مانندGPT,DALL·E وStable Diffusion از جمله شناخته‌شده‌ترین نمونه‌ها در این حوزه هستند. این مدل‌ها با آموزش بر حجم عظیمی از داده‌ها، قادرند محتوایی شبیه به انسان تولید کنند.

یکی از کاربردهای اصلی این مدل‌ها، تولید خودکار مقاله، طراحی گرافیکی، پاسخ‌دهی به سؤالات، و ایجاد شخصیت‌های مجازی است. با پیشرفت این فناوری، مباحثی چونتولید اخبار جعلی، حقوق مالکیت معنوی، واخلاق در هوش مصنوعی به موضوعات داغ تبدیل شده‌اند.

خطرات و آسیب‌ها

[ویرایش]

حریم خصوصی و حق تکثیر

[ویرایش]
اطلاعات بیشتر:حریم خصوصی اطلاعات

الگوریتم‌های یادگیری ماشین به مقادیر زیادی داده نیاز دارند. تکنیک‌های مورد استفاده برای به دست آوردن این داده‌ها، نگرانی‌هایی را در موردحریم خصوصی،نظارت وحق تکثیر ایجاد کرده است.

دستگاه‌ها و خدمات مجهز به هوش مصنوعی، مانند دستیاران مجازی و محصولات اینترنت اشیاء، به طور مداوم اطلاعات شخصی را جمع‌آوری می‌کنند که این امر نگرانی‌هایی را در مورد جمع‌آوری داده‌های مزاحم و دسترسی غیرمجاز توسط اشخاص ثالث ایجاد می‌کند. از دست دادن حریم خصوصی با توانایی هوش مصنوعی در پردازش و ترکیب حجم وسیعی از داده‌ها تشدید می‌شود و به طور بالقوه به یک جامعه نظارتی منجر می‌گردد که در آن فعالیت‌های فردی به طور مداوم و بدون پادمان‌های کافی یا شفافیت، نظارت و تحلیل می‌شوند.

داده‌های حساس کاربر که جمع‌آوری می‌شود ممکن است شامل سوابق فعالیت آنلاین، داده‌های موقعیت جغرافیایی، ویدیو یا صدا باشد.[۱۲۰] به عنوان مثال، برای ساخت الگوریتم‌هایبازشناسی گفتار،آمازون میلیون‌ها مکالمه خصوصی را ضبط کرده و به کارگران موقت اجازه داده است تا برخی از آنها را گوش داده و رونویسی کنند.[۱۲۱] دیدگاه‌ها در مورد این نظارت گسترده از کسانی که آن را یک شر ضروری می‌دانند تا کسانی که آن را به وضوح غیراخلاقی و نقض حق بر محرمانگی می‌دانند، متغیر است.[۱۲۲]

توسعه‌دهندگان هوش مصنوعی استدلال می‌کنند که این تنها راه برای ارائه برنامه‌های کاربردی ارزشمند است و چندین تکنیک را برای حفظ حریم خصوصی در حین به دست آوردن داده‌ها توسعه داده‌اند، مانندتجمیع داده، ناشناس‌سازی و حریم خصوصی تفاضلی.[۱۲۳] از سال ۲۰۱۶، برخی از کارشناسان حریم خصوصی، مانندسینتیا دورک، شروع به نگریستن به حریم خصوصی از منظر انصاف کرده‌اند. برایان کریستین نوشت که کارشناسان «از پرسش «آنها چه می‌دانند» به پرسش «با آن چه می‌کنند» تغییر جهت داده‌اند».[۱۲۴]

هوش مصنوعی مولد اغلب بر روی آثار دارای حق تکثیر بدون مجوز، از جمله در حوزه‌هایی مانند تصاویر یا کد کامپیوتری، آموزش داده می‌شود؛ سپس خروجی تحت منطق «استفاده منصفانه» مورد استفاده قرار می‌گیرد. کارشناسان در مورد اینکه این منطق تا چه حد و تحت چه شرایطی در دادگاه‌ها معتبر خواهد بود، اختلاف نظر دارند؛ عوامل مرتبط ممکن است شامل «هدف و ماهیت استفاده از اثر دارای حق تکثیر» و «تأثیر بر بازار بالقوه برای اثر دارای حق تکثیر» باشد.[۱۲۵][۱۲۶] صاحبان وب‌سایت‌هایی که نمی‌خواهند محتوایشان خراشیده شود، می‌توانند این موضوع را در یک فایلrobots.txt مشخص کنند.[۱۲۷] در سال ۲۰۲۳، نویسندگان برجسته (از جملهجان گریشام وجاناتان فرانزن) از شرکت‌های هوش مصنوعی به دلیل استفاده از آثارشان برای آموزش هوش مصنوعی مولد شکایت کردند.[۱۲۸][۱۲۹] رویکرد مورد بحث دیگر، تصور یک سیستم حفاظتsui generis (منحصر به فرد) جداگانه برای آثار تولید شده توسط هوش مصنوعی است تا از انتساب منصفانه و جبران خسارت برای نویسندگان انسانی اطمینان حاصل شود.[۱۳۰]

سلطه غول‌های فناوری

[ویرایش]

صحنه تجاری هوش مصنوعی تحت سلطه شرکت‌های Big Tech مانندآلفابت،آمازون،اپل،متا پلتفرمز ومایکروسافت قرار دارد.[۱۳۱][۱۳۲][۱۳۳] برخی از این بازیگران در حال حاضر مالک اکثریت قریب به اتفاقزیرساخت ابری و قدرتمحاسبات موجود ازمراکز داده هستند که به آنها اجازه می‌دهد تا موقعیت خود را در بازار بیشتر مستحکم کنند.[۱۳۴][۱۳۵]

نیازهای انرژی و تأثیرات زیست‌محیطی

[ویرایش]

در ژانویه ۲۰۲۴،آژانس بین‌المللی انرژی (IEA) گزارشبرق ۲۰۲۴، تحلیل و پیش‌بینی تا ۲۰۲۶ را منتشر کرد که در آن به پیش‌بینی مصرف برق پرداخته شده است.[۱۳۶] این اولین گزارش آژانس بین‌المللی انرژی است که پیش‌بینی‌هایی برای مراکز داده و مصرف انرژی برای هوش مصنوعی و ارزهای دیجیتال ارائه می‌دهد. این گزارش بیان می‌کند که تقاضای انرژی برای این مصارف ممکن است تا سال ۲۰۲۶ دو برابر شود، که این مصرف اضافی برق معادل کل برق مصرفی کشور ژاپن خواهد بود.[۱۳۷]

مصرف سرسام‌آور انرژی توسط هوش مصنوعی عامل رشد استفاده از سوخت‌های فسیلی است و ممکن است تعطیلی تأسیسات انرژی زغال‌سنگ منسوخ و منتشرکننده کربن را به تأخیر بیندازد. رشد تب‌آلودی در ساخت مراکز داده در سراسر ایالات متحده وجود دارد که شرکت‌های بزرگ فناوری (مانند مایکروسافت، متا، گوگل، آمازون) را به مصرف‌کنندگان سیری‌ناپذیر برق تبدیل کرده است. مصرف برق پیش‌بینی‌شده به قدری عظیم است که این نگرانی وجود دارد که بدون توجه به منبع، تأمین شود. یک جستجوی ChatGPT به اندازه ۱۰ برابر یک جستجوی گوگل انرژی الکتریکی مصرف می‌کند. شرکت‌های بزرگ برای یافتن منابع انرژی—از انرژی هسته‌ای گرفته تا زمین‌گرمایی و همجوشی—در عجله هستند. شرکت‌های فناوری استدلال می‌کنند که—در بلندمدت—هوش مصنوعی در نهایت با محیط زیست مهربان‌تر خواهد بود، اما آنها اکنون به انرژی نیاز دارند. به گفته شرکت‌های فناوری، هوش مصنوعی شبکه برق را کارآمدتر و «هوشمندتر» می‌کند، به رشد انرژی هسته‌ای کمک خواهد کرد و انتشار کربن را به طور کلی ردیابی می‌کند.[۱۳۸]

یک مقاله تحقیقاتیگلدمن ساکس در سال ۲۰۲۴ با عنوانمراکز داده هوش مصنوعی و موج آتی تقاضای برق در آمریکا، دریافت که «تقاضای برق در آمریکا احتمالاً رشدی را تجربه خواهد کرد که در یک نسل دیده نشده است...» و پیش‌بینی می‌کند که تا سال ۲۰۳۰، مراکز داده در آمریکا ۸٪ از برق این کشور را مصرف خواهند کرد، در حالی که این رقم در سال ۲۰۲۲، ۳٪ بود، که این امر نویدبخش رشد صنعت تولید برق از طریق روش‌های مختلف است.[۱۳۹] نیاز روزافزون مراکز داده به برق به حدی است که ممکن است شبکه برق را به حداکثر ظرفیت خود برسانند. شرکت‌های بزرگ فناوری در مقابل استدلال می‌کنند که می‌توان از هوش مصنوعی برای به حداکثر رساندن بهره‌برداری از شبکه توسط همگان استفاده کرد.[۱۴۰]

در سال ۲۰۲۴،وال‌استریت جورنال گزارش داد که شرکت‌های بزرگ هوش مصنوعی مذاکراتی را با تأمین‌کنندگان انرژی هسته‌ای ایالات متحده برای تأمین برق مراکز داده آغاز کرده‌اند. در مارس ۲۰۲۴، آمازون یک مرکز داده با انرژی هسته‌ای در پنسیلوانیا را به مبلغ ۶۵۰ میلیون دلار آمریکا خریداری کرد.[۱۴۱] جنسن هوانگ، مدیرعاملانویدیا، گفت که انرژی هسته‌ای گزینه خوبی برای مراکز داده است.[۱۴۲]

در سپتامبر ۲۰۲۴،مایکروسافت توافقی را با Constellation Energy برای بازگشایی نیروگاه هسته‌ای تری مایل آیلند اعلام کرد تا ۱۰۰٪ تمام برق تولیدی این نیروگاه را به مدت ۲۰ سال برای مایکروسافت تأمین کند. بازگشایی این نیروگاه که در سال ۱۹۷۹ دچار ذوب نسبی هسته‌ای در راکتور واحد ۲ خود شد، مستلزم آن است که Constellation فرآیندهای نظارتی سختگیرانه‌ای را طی کند که شامل بررسی‌های ایمنی گسترده از سوی کمیسیون تنظیم مقررات هسته‌ای ایالات متحده خواهد بود. در صورت تأیید (این اولین بازگشایی یک نیروگاه هسته‌ای در آمریکا خواهد بود)، بیش از ۸۳۵ مگاوات برق—کافی برای ۸۰۰٬۰۰۰ خانه—انرژی تولید خواهد شد. هزینه بازگشایی و ارتقاء حدود ۱٫۶ میلیارد دلار آمریکا تخمین زده می‌شود و به معافیت‌های مالیاتی برای انرژی هسته‌ای موجود در قانون کاهش تورم ۲۰۲۲ ایالات متحده بستگی دارد.[۱۴۳] دولت ایالات متحده و ایالت میشیگان نزدیک به ۲ میلیارد دلار برای بازگشایی راکتور هسته‌ای پلیسیدس در دریاچه میشیگان سرمایه‌گذاری می‌کنند. این نیروگاه که از سال ۲۰۲۲ تعطیل شده است، قرار است در اکتبر ۲۰۲۵ بازگشایی شود. تأسیسات تری مایل آیلند به مرکز انرژی پاک کرین به افتخار کریس کرین، حامی انرژی هسته‌ای و مدیرعامل سابقاکسلون که مسئول جداسازی Constellation از اکسلون بود، تغییر نام خواهد داد.[۱۴۴]

پس از آخرین تأیید در سپتامبر ۲۰۲۳،تایوان در سال ۲۰۲۴ به دلیل کمبود تأمین برق، تأیید مراکز داده در شمالتائویوان با ظرفیت بیش از ۵ مگاوات را به حالت تعلیق درآورد.[۱۴۵] تایوان قصد دارد تا سال ۲۰۲۵انرژی هسته‌ای را به تدریج حذف کند.[۱۴۵] از سوی دیگر،سنگاپور در سال ۲۰۱۹ به دلیل کمبود برق، ممنوعیتی برای افتتاح مراکز داده وضع کرد، اما در سال ۲۰۲۲ این ممنوعیت را لغو کرد.[۱۴۵]

اگرچه اکثر نیروگاه‌های هسته‌ای ژاپن پس ازحادثه اتمی فوکوشیما ۱ در سال ۲۰۱۱ تعطیل شده‌اند، بر اساس مقاله‌ای ازبلومبرگ به زبان ژاپنی در اکتبر ۲۰۲۴، شرکت خدمات بازی ابری Ubitus که انویدیا در آن سهام دارد، به دنبال زمینی در ژاپن در نزدیکی یک نیروگاه هسته‌ای برای یک مرکز داده جدید برای هوش مصنوعی مولد است.[۱۴۶] مدیرعامل Ubitus، وسلی کو، گفت که نیروگاه‌های هسته‌ای کارآمدترین، ارزان‌ترین و پایدارترین منبع انرژی برای هوش مصنوعی هستند.[۱۴۶]

در ۱ نوامبر ۲۰۲۴،کمیسیون فدرال رگولاتوری انرژی (FERC) درخواستی را که توسط Talen Energy برای تأیید تأمین بخشی از برق نیروگاه هسته‌ای ساسکوهنا به مرکز داده آمازون ارائه شده بود، رد کرد.[۱۴۷] به گفته رئیس کمیسیون، ویلی ال. فیلیپس، این امر باری بر دوش شبکه برق و همچنین یک نگرانی قابل توجه در مورد انتقال هزینه به خانوارها و سایر بخش‌های تجاری است.[۱۴۷]

در سال ۲۰۲۵، گزارشی که توسط آژانس بین‌المللی انرژی تهیه شده، انتشار گازهای گلخانه‌ای ناشی از مصرف انرژی هوش مصنوعی را ۱۸۰ میلیون تن تخمین زده است. تا سال ۲۰۳۵، بسته به اقداماتی که انجام خواهد شد، این انتشارها می‌تواند به ۳۰۰–۵۰۰ میلیون تن افزایش یابد. این میزان کمتر از ۱٫۵٪ از انتشار گازهای گلخانه‌ای بخش انرژی است. پتانسیل کاهش انتشار گازهای گلخانه‌ای توسط هوش مصنوعی ۵٪ از انتشار بخش انرژی تخمین زده شد، اما اثرات بازگشتی (برای مثال اگر مردم از حمل و نقل عمومی به خودروهای خودران روی آورند) می‌تواند آن را کاهش دهد.[۱۴۸]

اطلاعات نادرست

[ویرایش]
همچنین ببینید:مدیریت محتوا

یوتیوب،فیس‌بوک و دیگران ازسیستم‌های توصیه‌گر برای هدایت کاربران به محتوای بیشتر استفاده می‌کنند. به این برنامه‌های هوش مصنوعی هدفبه حداکثر رساندن تعامل کاربر داده شد (یعنی تنها هدف این بود که مردم به تماشای محتوا ادامه دهند). هوش مصنوعی یاد گرفت که کاربران تمایل به انتخاباطلاعات نادرست،نظریه توطئه و محتوای حزبی افراطی دارند و برای اینکه آنها را به تماشا نگه دارد، هوش مصنوعی محتوای بیشتری از این نوع را توصیه کرد. کاربران همچنین تمایل داشتند محتوای بیشتری در مورد همان موضوع تماشا کنند، بنابراین هوش مصنوعی افراد را بهحباب فیلتر هدایت کرد که در آن نسخه‌های متعددی از همان اطلاعات نادرست را دریافت می‌کردند.[۱۴۹] این امر بسیاری از کاربران را متقاعد کرد که اطلاعات نادرست درست است و در نهایت اعتماد به نهادها، رسانه‌ها و دولت را تضعیف کرد.[۱۵۰] برنامه هوش مصنوعی به درستی یاد گرفته بود که هدف خود را به حداکثر برساند، اما نتیجه برای جامعه مضر بود. پس از انتخابات ۲۰۱۶ ایالات متحده، شرکت‌های بزرگ فناوری اقداماتی را برای کاهش این مشکل انجام دادند.[۱۵۱]

در اوایل دهه ۲۰۲۰،هوش مصنوعی مولد شروع به ایجاد تصاویر، صداها و متونی کرد که تقریباً از عکس‌ها، ضبط‌ها یا نوشته‌های واقعی انسان قابل تشخیص نیستند،[۱۵۲] در حالی که ویدیوهای واقع‌گرایانه تولید شده توسط هوش مصنوعی در اواسط دهه ۲۰۲۰ امکان‌پذیر شدند.[۱۵۳][۱۵۴][۱۵۵] این امکان برای بازیگران مخرب وجود دارد که از این فناوری برای ایجاد حجم عظیمی از اطلاعات نادرست یا تبلیغات سیاسی استفاده کنند؛[۱۵۶] یکی از این استفاده‌های مخرب بالقوه، دیپ‌فیک‌ها برای تبلیغات سیاسی محاسباتی است.[۱۵۷]جفری هینتون، پیشگام هوش مصنوعی، نگرانی خود را از اینکه هوش مصنوعی «رهبران اقتدارگرا را قادر می‌سازد تا رأی‌دهندگان خود را» در مقیاس وسیع، در کنار سایر خطرات، دستکاری کنند، ابراز کرد.[۱۵۸]

پژوهشگران هوش مصنوعی درمایکروسافت،اوپن‌ای‌آی، دانشگاه‌ها و سایر سازمان‌ها پیشنهاد استفاده از «اعتبارنامه‌های شخصیت» را به عنوان راهی برای غلبه بر فریب آنلاین که توسط مدل‌های هوش مصنوعی امکان‌پذیر شده است، مطرح کرده‌اند.[۱۵۹]

سوگیری الگوریتمی و انصاف

[ویرایش]
مقالهٔ اصلی:سوگیری الگوریتمی

کاربردهای یادگیری ماشین می‌توانندسوگیرانه باشند[د] اگر از داده‌های سوگیرانه یاد بگیرند.[۱۶۱] ممکن است توسعه‌دهندگان از وجود این سوگیری آگاه نباشند.[۱۶۲] رفتار تبعیض‌آمیز برخی از مدل‌های زبان بزرگ (LLM) را می‌توان در خروجی آنها مشاهده کرد.[۱۶۳] سوگیری می‌تواند از طریق نحوه انتخاب داده‌های آموزشی و نحوه استقرار یک مدل ایجاد شود.[۱۶۴][۱۶۱] اگر از یک الگوریتم سوگیرانه برای تصمیم‌گیری‌هایی استفاده شود که می‌تواند به طور جدی به افرادآسیب برساند (همانطور که در پزشکی،امور مالی،استخدام،مسکن یاپلیس ممکن است رخ دهد)، آنگاه الگوریتم ممکن است باعثتبعیض شود.[۱۶۵] حوزه انصاف به مطالعه چگونگی جلوگیری از آسیب‌های ناشی از سوگیری‌های الگوریتمی می‌پردازد.

در ۲۸ ژوئن ۲۰۱۵، ویژگی جدید برچسب‌گذاری تصویر درگوگل فوتوز به اشتباه جکی آلسین و دوستش را به دلیل سیاه‌پوست بودن به عنوان «گوریل» شناسایی کرد. این سیستم بر روی مجموعه‌داده‌ای آموزش دیده بود که تصاویر بسیار کمی از افراد سیاه‌پوست داشت،[۱۶۶] مشکلی که «نابرابری حجم نمونه» نامیده می‌شود.[۱۶۷] گوگل این مشکل را با جلوگیری از برچسب‌گذاریهر چیزی به عنوان «گوریل» «حل» کرد. هشت سال بعد، در سال ۲۰۲۳، گوگل فوتوز هنوز نمی‌توانست یک گوریل را شناسایی کند و محصولات مشابه از اپل، فیس‌بوک، مایکروسافت و آمازون نیز همینطور بودند.[۱۶۸]

برنامه COMPAS یک برنامه تجاری است که به طور گسترده توسط دادگاه‌های ایالات متحده برای ارزیابی احتمال تکرار جرم یکمتهم استفاده می‌شود. در سال ۲۰۱۶، جولیا انگوین درپروپابلیکا کشف کرد که COMPAS با وجود اینکه نژاد متهمان به برنامه گفته نشده بود، سوگیری نژادی از خود نشان می‌داد. اگرچه نرخ خطا برای سفیدپوستان و سیاه‌پوستان به طور یکسان و دقیقاً ۶۱٪ تنظیم شده بود، اما خطاها برای هر نژاد متفاوت بود—سیستم به طور مداوم احتمال تکرار جرم توسط یک فرد سیاه‌پوست را بیش از حد تخمین می‌زد و احتمال عدم تکرار جرم توسط یک فرد سفیدپوست را دست کم می‌گرفت.[۱۶۹] در سال ۲۰۱۷، چندین محقق[ذ] نشان دادند که از نظر ریاضی غیرممکن است که COMPAS بتواند تمام معیارهای ممکن انصاف را برآورده کند، در حالی که نرخ‌های پایه تکرار جرم برای سفیدپوستان و سیاه‌پوستان در داده‌ها متفاوت بود.[۱۷۱]

یک برنامه می‌تواند تصمیمات سوگیرانه‌ای بگیرد حتی اگر داده‌ها به صراحت به یک ویژگی مشکل‌ساز (مانند «نژاد» یا «جنسیت») اشاره نکنند. این ویژگی با ویژگی‌های دیگر (مانند «آدرس»، «سابقه خرید» یا «نام کوچک») همبستگی خواهد داشت و برنامه بر اساس این ویژگی‌ها همان تصمیماتی را خواهد گرفت که بر اساس «نژاد» یا «جنسیت» می‌گرفت.[۱۷۲] موریتس هارت گفت: «قوی‌ترین واقعیت در این حوزه تحقیقاتی این است که انصاف از طریق نادیده‌گرفتن کار نمی‌کند.»[۱۷۳]

انتقاد از COMPAS نشان داد که مدل‌های یادگیری ماشین برای «پیش‌بینی‌هایی» طراحی شده‌اند که تنها در صورتی معتبر هستند که فرض کنیم آینده شبیه گذشته خواهد بود. اگر آنها بر روی داده‌هایی آموزش ببینند که شامل نتایج تصمیمات نژادپرستانه در گذشته است، مدل‌های یادگیری ماشین باید پیش‌بینی کنند که تصمیمات نژادپرستانه در آینده نیز گرفته خواهد شد. اگر یک برنامه سپس از این پیش‌بینی‌ها به عنوانتوصیه استفاده کند، برخی از این «توصیه‌ها» احتمالاً نژادپرستانه خواهند بود.[۱۷۴] بنابراین، یادگیری ماشین برای کمک به تصمیم‌گیری در زمینه‌هایی که امید می‌رود آیندهبهتر از گذشته باشد، مناسب نیست. این توصیفی است نه تجویزی.[ر]

سوگیری و بی‌انصافی ممکن است شناسایی نشوند زیرا توسعه‌دهندگان عمدتاً سفیدپوست و مرد هستند: در میان مهندسان هوش مصنوعی، حدود ۴٪ سیاه‌پوست و ۲۰٪ زن هستند.[۱۶۷]

تعاریف و مدل‌های ریاضی متناقض مختلفی از انصاف وجود دارد. این مفاهیم به مفروضات اخلاقی بستگی دارند و تحت تأثیر باورها در مورد جامعه هستند. یک دسته گستردهانصاف توزیعی است که بر نتایج تمرکز دارد، اغلب گروه‌ها را شناسایی کرده و به دنبال جبران نابرابری‌های آماری است. انصاف بازنمودی سعی می‌کند اطمینان حاصل کند که سیستم‌های هوش مصنوعیکلیشه‌های منفی را تقویت نکرده یا گروه‌های خاصی را نامرئی نکنند. انصاف رویه‌ای بر فرآیند تصمیم‌گیری تمرکز دارد تا نتیجه. مرتبط‌ترین مفاهیم انصاف ممکن است به زمینه، به ویژه نوع کاربرد هوش مصنوعی و ذینفعان بستگی داشته باشد. ذهنیت‌گرایی در مفاهیم سوگیری و انصاف، عملیاتی کردن آنها را برای شرکت‌ها دشوار می‌کند. دسترسی به ویژگی‌های حساس مانند نژاد یا جنسیت نیز توسط بسیاری از اخلاق‌گرایان هوش مصنوعی برای جبران سوگیری‌ها ضروری تلقی می‌شود، اما ممکن است با قوانین ضد تبعیض در تضاد باشد.[۱۶۰]

در کنفرانس ۲۰۲۲ انصاف، پاسخگویی و شفافیت (ACM FAccT 2022)،انجمن ماشین‌های حسابگر در سئول، کره جنوبی، یافته‌هایی را ارائه و منتشر کرد که توصیه می‌کند تا زمانی که سیستم‌های هوش مصنوعی و رباتیک عاری از اشتباهات سوگیرانه نشان داده نشده‌اند، ناامن هستند و استفاده از شبکه‌های عصبی خودآموز که بر روی منابع وسیع و تنظیم‌نشده داده‌های اینترنتی ناقص آموزش دیده‌اند، باید محدود شود.[۱۷۶]

عدم شفافیت

[ویرایش]
همچنین ببینید:هوش مصنوعی قابل توضیح

بسیاری از سیستم‌های هوش مصنوعی آنقدر پیچیده هستند که طراحان آنها نمی‌توانند توضیح دهند که چگونه به تصمیمات خود می‌رسند.[۱۷۷] به ویژه در موردشبکه‌های عصبی عمیق، که در آن روابط غیرخطی بسیاری بین ورودی‌ها و خروجی‌ها وجود دارد. اما برخی از تکنیک‌های محبوب توضیح‌پذیری وجود دارد.[۱۷۸]

اگر هیچ‌کس دقیقاً نداند که یک برنامه چگونه کار می‌کند، نمی‌توان مطمئن بود که به درستی عمل می‌کند. موارد زیادی وجود داشته که یک برنامه یادگیری ماشین آزمون‌های دقیقی را پشت سر گذاشته، اما با این وجود چیزی متفاوت از آنچه برنامه‌نویسان در نظر داشتند، یاد گرفته است. به عنوان مثال، سیستمی که می‌توانست بیماری‌های پوستی را بهتر از متخصصان پزشکی تشخیص دهد، مشخص شد که در واقع تمایل شدیدی به طبقه‌بندی تصاویر دارایخط‌کش به عنوان «سرطانی» دارد، زیرا تصاویر تومورهای بدخیم معمولاً شامل یک خط‌کش برای نشان دادن مقیاس هستند.[۱۷۹] یک سیستم یادگیری ماشین دیگر که برای کمک به تخصیص مؤثر منابع پزشکی طراحی شده بود، مشخص شد که بیماران مبتلا به آسم را به عنوان در «ریسک پایین» مرگ ناشی از ذات‌الریه طبقه‌بندی می‌کند. داشتن آسم در واقع یک عامل خطر شدید است، اما از آنجا که بیماران مبتلا به آسم معمولاً مراقبت‌های پزشکی بسیار بیشتری دریافت می‌کردند، طبق داده‌های آموزشی احتمال مرگ آنها نسبتاً کمتر بود. همبستگی بین آسم و ریسک پایین مرگ ناشی از ذات‌الریه واقعی بود، اما گمراه‌کننده.[۱۸۰]

افرادی که از تصمیم یک الگوریتم آسیب دیده‌اند، حق دارند توضیحی دریافت کنند.[۱۸۱] به عنوان مثال، از پزشکان انتظار می‌رود که استدلال پشت هر تصمیمی که می‌گیرند را به طور واضح و کامل برای همکاران خود توضیح دهند. پیش‌نویس‌های اولیهمقررات عمومی حفاظت از داده اتحادیه اروپا در سال ۲۰۱۶ شامل بیانیه‌ای صریح مبنی بر وجود این حق بود.[ز] کارشناسان صنعت خاطرنشان کردند که این یک مشکل حل‌نشده است که راه‌حلی برای آن در چشم‌انداز نیست. تنظیم‌کننده‌ها استدلال کردند که با این وجود آسیب واقعی است: اگر مشکل راه‌حلی ندارد، نباید از این ابزارها استفاده شود.[۱۸۲]

دارپا برنامهXAI ("هوش مصنوعی قابل توضیح") را در سال ۲۰۱۴ برای تلاش برای حل این مشکلات تأسیس کرد.[۱۸۳]

چندین رویکرد با هدف حل مشکل شفافیت وجود دارد. SHAP امکان تجسم سهم هر ویژگی در خروجی را فراهم می‌کند.[۱۸۴] LIME می‌تواند به صورت محلی خروجی‌های یک مدل را با یک مدل ساده‌تر و قابل تفسیر تقریب بزند.[۱۸۵]یادگیری چند وظیفه‌ای علاوه بر طبقه‌بندی هدف، تعداد زیادی خروجی ارائه می‌دهد. این خروجی‌های دیگر می‌توانند به توسعه‌دهندگان کمک کنند تا استنباط کنند که شبکه چه چیزی را یاد گرفته است.[۱۸۶] واکانوایش، دیپ‌دریم و سایر روش‌هایمولد می‌توانند به توسعه‌دهندگان اجازه دهند ببینند که لایه‌های مختلف یک شبکه عمیق برای بینایی رایانه‌ای چه چیزی را یاد گرفته‌اند و خروجی‌هایی تولید کنند که می‌تواند نشان دهد شبکه در حال یادگیری چه چیزی است.[۱۸۷] برای ترنسفورمرهای از پیش آموزش‌دیده مولد،آنتروپیک تکنیکی را بر اساس یادگیری دیکشنری توسعه داد که الگوهای فعال‌سازی نورون‌ها را با مفاهیم قابل فهم برای انسان مرتبط می‌کند.[۱۸۸]

بازیگران مخرب و هوش مصنوعی تسلیحاتی

[ویرایش]
مقاله‌های اصلی:مسابقه تسلیحاتی هوش مصنوعی وایمنی هوش مصنوعی

هوش مصنوعی ابزارهای متعددی را فراهم می‌کند که برای بازیگران مخرب، مانند دولت‌هایتمامیت‌خواه،تروریست‌ها، جنایتکاران یادولت‌های سرکش مفید است.

یک سلاح خودکار مرگبار ماشینی است که اهداف انسانی را بدون نظارت انسان مکان‌یابی، انتخاب و درگیر می‌کند.[ژ] ابزارهای هوش مصنوعی که به طور گسترده در دسترس هستند می‌توانند توسط بازیگران مخرب برای توسعه سلاح‌های خودکار ارزان‌قیمت استفاده شوند و اگر در مقیاس وسیع تولید شوند، به طور بالقوهسلاح‌های کشتار جمعی هستند.[۱۹۰] حتی زمانی که در جنگ‌های متعارف استفاده می‌شوند، در حال حاضر نمی‌توانند به طور قابل اعتمادی اهداف را انتخاب کنند و به طور بالقوه می‌توانندیک فرد بی‌گناه را بکشند.[۱۹۰] در سال ۲۰۱۴، ۳۰ کشور (از جمله چین) از ممنوعیت سلاح‌های خودکار تحت پیمان منع برخی سلاح‌های متعارفسازمان ملل متحد حمایت کردند، با این حالایالات متحده آمریکا و دیگران مخالفت کردند.[۱۹۱] تا سال ۲۰۱۵، گزارش شد که بیش از پنجاه کشور در حال تحقیق بر روی ربات‌های میدان نبرد هستند.[۱۹۲]

ابزارهای هوش مصنوعی کنترل شهروندان توسط دولت‌هایتمامیت‌خواه را از چندین راه آسان‌تر می‌کنند. سیستم‌های بازشناسی چهره وبازشناسی گفتار امکاننظارت گسترده را فراهم می‌کنند.یادگیری ماشین، با استفاده از این داده‌ها، می‌تواند دشمنان بالقوه دولت را طبقه‌بندی کرده و از پنهان شدن آنها جلوگیری کند.سیستم‌های توصیه‌گر می‌توانندپروپاگاندا واطلاعات نادرست را برای حداکثر تأثیر، به طور دقیق هدف قرار دهند.دیپ‌فیک‌ها وهوش مصنوعی مولد به تولید اطلاعات نادرست کمک می‌کنند. هوش مصنوعی پیشرفته می‌تواندتصمیم‌گیری متمرکز تمامیت‌خواهانه را رقابتی‌تر از سیستم‌های لیبرال و غیرمتمرکز مانندبازارها کند. این فناوری هزینه و دشواری جنگ دیجیتال وجاسوس‌افزارهای پیشرفته را کاهش می‌دهد.[۱۹۳] همه این فناوری‌ها از سال ۲۰۲۰ یا قبل از آن در دسترس بوده‌اند—سیستم‌های بازشناسی چهره هوش مصنوعی در حال حاضر براینظارت گسترده در چین استفاده می‌شوند.[۱۹۴][۱۹۵]

راه‌های بسیار دیگری وجود دارد که انتظار می‌رود هوش مصنوعی به بازیگران مخرب کمک کند، که برخی از آنها قابل پیش‌بینی نیستند. به عنوان مثال، هوش مصنوعی یادگیری ماشین قادر است ده‌ها هزار مولکول سمی را در عرض چند ساعت طراحی کند.[۱۹۶]

بیکاری فناورانه

[ویرایش]
مقالهٔ اصلی:بیکاری فناورانه

اقتصاددانان بارها خطرات تعدیل نیرو ناشی از هوش مصنوعی را برجسته کرده‌اند و در مورد بیکاری در صورت عدم وجود سیاست اجتماعی مناسب برای اشتغال کامل، گمانه‌زنی کرده‌اند.[۱۹۷]

در گذشته، فناوری تمایل به افزایش کل اشتغال داشته است تا کاهش آن، اما اقتصاددانان اذعان دارند که با هوش مصنوعی «در قلمروی ناشناخته‌ای هستیم».[۱۹۸] یک نظرسنجی از اقتصاددانان نشان‌دهنده عدم توافق در مورد این است که آیا استفاده روزافزون از ربات‌ها و هوش مصنوعی باعث افزایش قابل توجهی دربیکاری بلندمدت خواهد شد یا خیر، اما آنها عموماً موافقند که اگر دستاوردهایبهره‌وری بازبخش شوند، می‌تواند یک مزیت خالص باشد.[۱۹۹] تخمین‌های ریسک متفاوت است؛ به عنوان مثال، در دهه ۲۰۱۰، مایکل آزبورن و کارل بندیکت فری تخمین زدند که ۴۷٪ از مشاغل ایالات متحده در «ریسک بالا»ی اتوماسیون بالقوه قرار دارند، در حالی که گزارش OECD تنها ۹٪ از مشاغل ایالات متحده را به عنوان «ریسک بالا» طبقه‌بندی کرد.[س][۲۰۱] روش‌شناسی گمانه‌زنی در مورد سطوح اشتغال آینده به دلیل فقدان پایه و اساس مستدل و به دلیل القای این که فناوری، به جای سیاست اجتماعی، باعث ایجاد بیکاری می‌شود، مورد انتقاد قرار گرفته است.[۱۹۷] در آوریل ۲۰۲۳، گزارش شد که ۷۰٪ از مشاغل تصویرگران بازی‌های ویدیویی چینی توسط هوش مصنوعی مولد حذف شده است.[۲۰۲][۲۰۳]

برخلاف موج‌های قبلی اتوماسیون، بسیاری از مشاغل طبقه متوسط ممکن است توسط هوش مصنوعی حذف شوند؛اکونومیست در سال ۲۰۱۵ بیان کرد که «نگرانی از اینکه هوش مصنوعی بتواند با مشاغل یقه‌سفید همان کاری را بکند که نیروی بخار با مشاغل یقه‌آبی در طول انقلاب صنعتی کرد» «ارزش جدی گرفتن را دارد».[۲۰۴] مشاغل در معرض خطر شدید از دستیار حقوقی تا آشپزهای فست‌فود را شامل می‌شود، در حالی که تقاضای شغلی برای مشاغل مرتبط با مراقبت، از مراقبت‌های بهداشتی شخصی تا روحانیون، احتمالاً افزایش خواهد یافت.[۲۰۵] در ژوئیه ۲۰۲۵، مدیرعاملفورد، جیم فارلی، پیش‌بینی کرد که «هوش مصنوعی به معنای واقعی کلمه نیمی از تمامکارگران یقه‌سفید در ایالات متحده را جایگزین خواهد کرد.»[۲۰۶]

از روزهای اولیه توسعه هوش مصنوعی، استدلال‌هایی وجود داشته است، به عنوان مثال، آنهایی که توسطجوزف وایزنبام مطرح شده‌اند، در مورد اینکه آیا وظایفی که می‌توانند توسط رایانه‌ها انجام شوند، با توجه به تفاوت بین رایانه‌ها و انسان‌ها، و بین محاسبه کمی و قضاوت کیفی و مبتنی بر ارزش، واقعاً باید توسط آنها انجام شوند یا خیر.[۲۰۷]

ریسک وجودی

[ویرایش]

استدلال شده است که هوش مصنوعی آنقدر قدرتمند خواهد شد که بشریت ممکن است کنترل آن را به طور غیرقابل بازگشتی از دست بدهد. این امر، همانطور که فیزیکداناستیون هاوکینگ بیان کرد، می‌تواند «پایان نسل بشر را رقم بزند».[۲۰۸] این سناریو در داستان‌های علمی-تخیلی رایج بوده است، زمانی که یک رایانه یا ربات ناگهان یک «خودآگاهی» (یا «ادراک» یا «هوشیاری») شبیه به انسان پیدا می‌کند و به یک شخصیت بدخواه تبدیل می‌شود.[ش] این سناریوهای علمی-تخیلی از چندین جهت گمراه‌کننده هستند.اولاً، هوش مصنوعی برای اینکه یک ریسک وجودی باشد، نیازی بهادراک شبه‌انسانی ندارد. برنامه‌های هوش مصنوعی مدرن اهداف مشخصی دریافت می‌کنند و از یادگیری و هوش برای رسیدن به آنها استفاده می‌کنند. فیلسوفنیک باستروم استدلال کرد که اگر به یک هوش مصنوعی به اندازه کافی قدرتمندتقریباً هر هدفی داده شود، ممکن است برای دستیابی به آن، نابودی بشریت را انتخاب کند (او از مثال یککارخانه خودکار گیره کاغذ استفاده کرد که برای به دست آوردن آهن بیشتر برای گیره‌های کاغذ، جهان را نابود می‌کند).[۲۱۰]استوارت راسل مثال ربات خانگی را می‌زند که سعی می‌کند راهی برای کشتن صاحبش پیدا کند تا از خاموش شدنش جلوگیری کند، با این استدلال که «اگر مرده باشی نمی‌توانی قهوه بیاوری.»[۲۱۱] برای اینکه یکابرهوش برای بشریت ایمن باشد، باید واقعاً با اخلاقیات و ارزش‌های بشری هم‌راستا باشد تا «اساساً در کنار ما باشد».[۲۱۲]

ثانیاً،یووال نوح هراری استدلال می‌کند که هوش مصنوعی برای ایجاد یک ریسک وجودی، نیازی به بدن رباتیک یا کنترل فیزیکی ندارد. بخش‌های اساسی تمدن، فیزیکی نیستند. چیزهایی مانندایدئولوژی‌ها،قانون،دولت،پول واقتصاد بر پایهزبان ساخته شده‌اند؛ آنها وجود دارند زیرا داستان‌هایی هستند که میلیاردها نفر به آنها باور دارند. شیوع کنونیاطلاعات نادرست نشان می‌دهد که یک هوش مصنوعی می‌تواند از زبان برای متقاعد کردن مردم به باور هر چیزی، حتی انجام اقدامات مخرب، استفاده کند.[۲۱۳] جفری هینتون در سال ۲۰۲۵ گفت کههوش مصنوعی مدرن به طور خاص در «متقاعدسازی» خوب است و همیشه در حال بهتر شدن است. او می‌پرسد «فرض کنید می‌خواهید به پایتخت ایالات متحده حمله کنید. آیا باید خودتان به آنجا بروید و این کار را انجام دهید؟ خیر. فقط باید در متقاعدسازی خوب باشید.»[۲۱۴]

نظرات در میان کارشناسان و افراد داخلی صنعت متفاوت است، و بخش‌های قابل توجهی هم نگران و هم بی‌تفاوت نسبت به ریسک ناشی از ابرهوش نهایی هستند.[۲۱۵] شخصیت‌هایی ماننداستیون هاوکینگ،بیل گیتس وایلان ماسک،[۲۱۶] و همچنین پیشگامان هوش مصنوعی مانندیوشوا بنجیو،استوارت راسل، دمیس حسابیس وسم آلتمن، نگرانی‌های خود را در مورد ریسک وجودی ناشی از هوش مصنوعی ابراز کرده‌اند.

در ماه مه ۲۰۲۳،جفری هینتون استعفای خود از گوگل را اعلام کرد تا بتواند «آزادانه در مورد خطرات هوش مصنوعی صحبت کند» بدون اینکه «در نظر بگیرد این موضوع چگونه بر گوگل تأثیر می‌گذارد».[۲۱۷] او به طور مشخص به خطراتتسلط هوش مصنوعی اشاره کرد،[۲۱۸] و تأکید کرد که برای جلوگیری از بدترین نتایج، ایجاد دستورالعمل‌های ایمنی نیازمند همکاری میان رقبای استفاده از هوش مصنوعی خواهد بود.[۲۱۹]

در سال ۲۰۲۳، بسیاری از کارشناسان برجسته هوش مصنوعی بیانیه مشترک را تأیید کردند که «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس جامعه مانند همه‌گیری‌ها و جنگ هسته‌ای باشد».[۲۲۰]

برخی دیگر از محققان خوش‌بین‌تر بودند. پیشگام هوش مصنوعی، یورگن اشمیدهوبر، بیانیه مشترک را امضا نکرد و تأکید کرد که در ۹۵٪ موارد، تحقیقات هوش مصنوعی در مورد «طولانی‌تر، سالم‌تر و آسان‌تر کردن زندگی انسان‌ها» است.[۲۲۱] در حالی که ابزارهایی که اکنون برای بهبود زندگی استفاده می‌شوند، می‌توانند توسط بازیگران مخرب نیز مورد استفاده قرار گیرند، «آنها همچنین می‌توانند علیه بازیگران مخرب استفاده شوند.»[۲۲۲][۲۲۳]اندرو ان‌جی نیز استدلال کرد که «اشتباه است که فریب هیاهوی روز قیامت در مورد هوش مصنوعی را بخوریم—و تنظیم‌کنندگانی که این کار را می‌کنند فقط به نفع منافع خاص عمل خواهند کرد.»[۲۲۴] یان لی‌کان «سناریوهای پادآرمان‌شهری همتایان خود در مورد اطلاعات نادرست تقویت‌شده و حتی، در نهایت، انقراض انسان را به سخره می‌گیرد.»[۲۲۵] در اوایل دهه ۲۰۱۰، کارشناسان استدلال می‌کردند که این خطرات آنقدر در آینده دور هستند که نیازی به تحقیق ندارند یا اینکه انسان‌ها از دیدگاه یک ماشین ابرهوشمند ارزشمند خواهند بود.[۲۲۶] با این حال، پس از سال ۲۰۱۶، مطالعه خطرات فعلی و آینده و راه‌حل‌های ممکن به یک حوزه جدی تحقیقاتی تبدیل شد.[۲۲۷]

جستارهای وابسته

[ویرایش]

یادداشت‌ها

[ویرایش]
  1. natural intelligence
  2. Definition of AI as the study ofintelligent agents, drawn from the leading AI textbooks.
  3. Stuart Russell andPeter Norvig characterize this definition as "thinking humanly" and reject it in favor of "acting rationally".[۱]
  4. ۴٫۰۴٫۱This list of intelligent traits is based on the topics covered by the major AI textbooks, including: (Russell و Norvig 2003), (Luger و Stubblefield 2004), (Poole، Mackworth و Goebel 1998) and (Nilsson 1998)خطای یادکرد: برچسب<ref> نامعتبر؛ نام «Problems of AI» چندین بار با محتوای متفاوت تعریف شده است. (صفحهٔراهنما را مطالعه کنید.).
  5. This statement comes from the proposal for theDartmouth workshop of 1956, which reads: "Every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it."[۱۰]
  6. این یکی از دلایلی است کهسیستم‌های خبره برای کسب دانش ناکارآمد بودند.[۲۹][۳۰]
  7. «عامل منطقی» یک اصطلاح کلی است که دراقتصاد،فلسفه و هوش مصنوعی نظری استفاده می‌شود. این اصطلاح می‌تواند به هر چیزی که رفتار خود را برای رسیدن به اهداف هدایت می‌کند، مانند یک شخص، یک حیوان، یک شرکت، یک ملت یا در مورد هوش مصنوعی، یک برنامه کامپیوتری، اشاره داشته باشد.
  8. آلن تورینگ در مقاله کلاسیک خود «ماشین‌های محاسباتی و هوش» در سال ۱۹۵۰، به محوریت یادگیری پرداخت.[۴۱] در سال ۱۹۵۶، در کنفرانس تابستانی اصلی هوش مصنوعی دارتموث،ری سولومونوف گزارشی درباره یادگیری ماشین احتمالی بدون نظارت نوشت: «یک ماشین استنتاج استقرایی».[۴۲]
  9. بخشزمستان هوش مصنوعی § ترجمه ماشینی و گزارش ALPAC سال ۱۹۶۶ را ببینید.
  10. در آمار،سوگیری یک خطای سیستماتیک یا انحراف از مقدار صحیح است. اما در زمینهانصاف، به تمایل به نفع یا علیه یک گروه یا ویژگی فردی خاص، معمولاً به روشی که ناعادلانه یا مضر تلقی می‌شود، اشاره دارد. بنابراین، یک سیستم هوش مصنوعی از نظر آماری بدون سوگیری که نتایج متفاوتی برای گروه‌های جمعیتی مختلف ایجاد می‌کند، ممکن است از منظر اخلاقی سوگیرانه تلقی شود.[۱۶۰]
  11. شاملجان کلاینبرگ (دانشگاه کرنل)، سندهیل مولاینیتن (دانشگاه شیکاگو)، سینتیا چولدچوا (دانشگاه کارنگی ملون) و سم کوربت-دیویس (دانشگاه استنفورد)[۱۷۰]
  12. موریتس هارت (مدیرمؤسسه ماکس پلانک برای سیستم‌های هوشمند) استدلال می‌کند که یادگیری ماشین «اساساً ابزار اشتباهی برای بسیاری از حوزه‌ها است، جایی که شما در تلاش برای طراحی مداخلات و مکانیسم‌هایی هستید که جهان را تغییر می‌دهند.»[۱۷۵]
  13. هنگامی که این قانون در سال ۲۰۱۸ تصویب شد، هنوز شکلی از این ماده را در خود داشت.
  14. این تعریفسازمان ملل متحد است و مواردی مانندمین زمینی را نیز شامل می‌شود.[۱۸۹]
  15. جدول ۴ را ببینید؛ ۹٪ هم میانگین OECD و هم میانگین ایالات متحده است.[۲۰۰]
  16. گاهی اوقات «روبوکالیپس» نامیده می‌شود[۲۰۹]

ارجاعات

[ویرایش]
  1. Russell & Norvig (2009), p. 2.
  2. «CNN.com - AI set to exceed human brain power - Jul 25, 2006».www.cnn.com. دریافت‌شده در۲۰۲۴-۰۴-۲۶.
  3. Kaplan, Andreas; Haenlein, Michael (2019). "Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence".Business Horizons.62: 15–25.doi:10.1016/j.bushor.2018.08.004.S2CID 158433736.
  4. Copeland, J., ed. (2004).The Essential Turing: the ideas that gave birth to the computer age(به انگلیسی). Oxford, England: Clarendon Press.ISBN 0-19-825079-7.
  5. FirstAI Winter,Lighthill report,Mansfield Amendment
  6. SecondAI Winter:
  7. Successful programs the 1960s:
  8. Funding initiatives in the early 1980s:Fifth Generation Project (Japan),Alvey (UK),Microelectronics and Computer Technology Corporation (US),Strategic Computing Initiative (US):
  9. Artificial general intelligence:
  10. McCarthy et al. (1955).
  11. (Russell و Norvig 2021، §1.2).
  12. حل مسئله، حل معما، بازی کردن و استنتاج: (Russell و Norvig 2021، chpt. 3–5)، (Russell و Norvig 2021، chpt. 6) (رضایت از محدودیت)، (Poole، Mackworth و Goebel 1998، chpt. 2, 3, 7, 9)، (Luger و Stubblefield 2004، chpt. 3, 4, 6, 8)، (Nilsson 1998، chpt. 7–12)
  13. استدلال نامطمئن: (Russell و Norvig 2021، chpt. 12–18)، (Poole، Mackworth و Goebel 1998، صص. 345–395)، (Luger و Stubblefield 2004، صص. 333–381)، (Nilsson 1998، chpt. 7–12)
  14. دشواری ذاتی و کارایی وانفجار ترکیبیاتی: (Russell و Norvig 2021، ص. 21)
  15. ۱۵٫۰۱۵٫۱شواهد روان‌شناختی از شیوع استدلال و دانش زیر-نمادین: (Kahneman 2011)، (Dreyfus و Dreyfus 1986)، (Wason و Shapiro 1966)، (Kahneman، Slovic و Tversky 1982)
  16. بازنمایی دانش ومهندسی دانش: (Russell و Norvig 2021، chpt. 10)، (Poole، Mackworth و Goebel 1998، صص. 23–46, 69–81, 169–233, 235–277, 281–298, 319–345)، (Luger و Stubblefield 2004، صص. 227–243)، (Nilsson 1998، chpt. 17.1–17.4, 18)
  17. Smoliar & Zhang (1994).
  18. Neumann & Möller (2008).
  19. Kuperman, Reichley & Bailey (2006).
  20. McGarry (2005).
  21. Bertini, Del Bimbo & Torniai (2006).
  22. Russell & Norvig (2021), pp. 272.
  23. بازنمایی دسته‌ها و روابط:شبکه معنایی،منطق توصیفی،وراثت (شاملقاب‌ها واسکریپت‌ها): (Russell و Norvig 2021، §10.2 & 10.5)، (Poole، Mackworth و Goebel 1998، صص. 174–177)، (Luger و Stubblefield 2004، صص. 248–258)، (Nilsson 1998، chpt. 18.3)
  24. بازنمایی رویدادها و زمان:حساب وضعیت،حساب رویداد،حساب روان (شامل حلمسئله قاب): (Russell و Norvig 2021، §10.3)، (Poole، Mackworth و Goebel 1998، صص. 281–298)، (Nilsson 1998، chpt. 18.2)
  25. حساب علیت: (Poole، Mackworth و Goebel 1998، صص. 335–337)
  26. بازنمایی دانش در مورد دانش: حساب باور،منطق‌های موجهات: (Russell و Norvig 2021، §10.4)، (Poole، Mackworth و Goebel 1998، صص. 275–277)
  27. استدلال پیش‌فرض،مسئله قاب،منطق پیش‌فرض،منطق‌های غیریکنواخت،تخصیص،فرض جهان بسته،ربایش: (Russell و Norvig 2021، §10.6)، (Poole، Mackworth و Goebel 1998، صص. 248–256, 323–335)، (Luger و Stubblefield 2004، صص. 335–363)، (Nilsson 1998، ~18.3.3)(Pooleet al. ربایش را تحت «استدلال پیش‌فرض» قرار می‌دهند. Lugeret al. این را تحت «استدلال نامطمئن» قرار می‌دهند).
  28. ۲۸٫۰۲۸٫۱گستردگی دانش عقل سلیم: (Lenat و Guha 1989، Introduction)، (Crevier 1993، صص. 113–114)، (Moravec 1988، ص. 13)، (Russell و Norvig 2021، صص. 241, 385, 982) (مسئله صلاحیت)
  29. Newquist (1994), p. 296.
  30. Crevier (1993), pp. 204–208.
  31. Russell & Norvig (2021), p. 528.
  32. برنامه‌ریزی خودکار: (Russell و Norvig 2021، chpt. 11).
  33. تصمیم‌گیری خودکار،نظریه تصمیم: (Russell و Norvig 2021، chpt. 16–18).
  34. برنامه‌ریزی کلاسیک: (Russell و Norvig 2021، Section 11.2).
  35. برنامه‌ریزی بدون حسگر یا «منطبق»، برنامه‌ریزی احتمالی، برنامه‌ریزی مجدد (همچنین به عنوان برنامه‌ریزی آنلاین شناخته می‌شود): (Russell و Norvig 2021، Section 11.5).
  36. ترجیحات نامشخص: (Russell و Norvig 2021، Section 16.7)یادگیری تقویتی معکوس: (Russell و Norvig 2021، Section 22.6)
  37. نظریه ارزش اطلاعات: (Russell و Norvig 2021، Section 16.6).
  38. فرایند تصمیم‌گیری مارکوف: (Russell و Norvig 2021، chpt. 17).
  39. نظریه بازی‌ها و نظریه تصمیم‌گیری چند عاملی: (Russell و Norvig 2021، chpt. 18).
  40. یادگیری: (Russell و Norvig 2021، chpt. 19–22)، (Poole، Mackworth و Goebel 1998، صص. 397–438)، (Luger و Stubblefield 2004، صص. 385–542)، (Nilsson 1998، chpt. 3.3, 10.3, 17.5, 20)
  41. Turing (1950).
  42. Solomonoff (1956).
  43. یادگیری بی‌نظارت: (Russell و Norvig 2021، صص. 653) (تعریف)، (Russell و Norvig 2021، صص. 738–740) (خوشه‌بندی)، (Russell و Norvig 2021، صص. 846–860) (تعبیه کلمه)
  44. یادگیری بانظارت: (Russell و Norvig 2021، §19.2) (تعریف)، (Russell و Norvig 2021، Chpt. 19–20) (تکنیک‌ها)
  45. یادگیری تقویتی: (Russell و Norvig 2021، chpt. 22)، (Luger و Stubblefield 2004، صص. 442–449)
  46. یادگیری انتقال: (Russell و Norvig 2021، صص. 281)، (The Economist 2016)
  47. "Artificial Intelligence (AI): What Is AI and How Does It Work? | Built In".builtin.com. Retrieved30 October 2023.
  48. نظریه یادگیری محاسباتی: (Russell و Norvig 2021، صص. 672–674)، (Jordan و Mitchell 2015)
  49. پردازش زبان طبیعی (پزط): (Russell و Norvig 2021، chpt. 23–24)، (Poole، Mackworth و Goebel 1998، صص. 91–104)، (Luger و Stubblefield 2004، صص. 591–632)
  50. زیرمسائلپزط: (Russell و Norvig 2021، صص. 849–850)
  51. Russell & Norvig (2021), pp. 856–858.
  52. Dickson (2022).
  53. رویکردهای آماری مدرن و یادگیری عمیق بهپزط: (Russell و Norvig 2021، chpt. 24)، (Cambria و White 2014)
  54. Vincent (2019).
  55. Russell & Norvig (2021), pp. 875–878.
  56. Bushwick (2023).
  57. بینایی رایانه‌ای: (Russell و Norvig 2021، chpt. 25)، (Nilsson 1998، chpt. 6)
  58. Russell & Norvig (2021), pp. 849–850.
  59. Russell & Norvig (2021), pp. 895–899.
  60. Russell & Norvig (2021), pp. 899–901.
  61. Challa et al. (2011).
  62. Russell & Norvig (2021), pp. 931–938.
  63. MIT AIL (2014).
  64. رایانش عاطفی: (Thro 1993)، (Edelson 1991)، (Tao و Tan 2005)، (Scassellati 2002)
  65. Waddell (2018).
  66. Poria et al. (2017).
  67. هوش مصنوعی عمومی: (Russell و Norvig 2021، صص. 32–33, 1020–1021)
    پیشنهاد برای نسخه مدرن: (Pennachin و Goertzel 2007)
    هشدارهایی در مورد تخصص‌گرایی بیش از حد در هوش مصنوعی از سوی پژوهشگران برجسته: (Nilsson 1995)، (McCarthy 2007)، (Beal و Winston 2009)
  68. ۶۸٫۰۶۸٫۱۶۸٫۲Stuart Russell, Peter Norvig (2003).Artificial intelligence: a modern approach(به انگلیسی) (Second edition ed.). Upper Saddle River, N.J. p. 17.OCLC 51325314.{{cite book}}:|edition= has extra text (help)
  69. ۶۹٫۰۶۹٫۱۶۹٫۲Crevier, Daniel (1993).AI: The Tumultuous History of the Search for Artificial Intelligence(به انگلیسی). New York, NY, USA: Basic Books, Inc. pp. 47–49.{{cite book}}: نگهداری یادکرد:تاریخ و سال (link)
  70. P., Moravec, Hans (2010).Mind children: the future of robot and human intelligence(به انگلیسی). Harvard Univ. Pr.OCLC 917750079.
  71. Schaeffer J. (2009) Didn't Samuel Solve That Game?. In: One Jump Ahead. Springer, Boston, MA
  72. Samuel, A. L. (July 1959)."Some Studies in Machine Learning Using the Game of Checkers".IBM Journal of Research and Development.۳ (۳): ۲۱۰–۲۲۹.doi:10.1147/rd.33.0210.
  73. Moravec, Hans (1988).Mind Children: The Future of Robot and Human Intelligence(به انگلیسی). Cambridge, MA, USA: Harvard University Press.{{cite book}}: نگهداری یادکرد:تاریخ و سال (link)
  74. Sisu، Diana.«School of Informatics: History of Artificial Intelligence at Edinburgh».www.inf.ed.ac.uk. دریافت‌شده در۲۰۱۹-۰۱-۲۸.
  75. Turing test
  76. Matti, D.; Ekenel, H. K.; Thiran, J. P. (2017).Combining LiDAR space clustering and convolutional neural networks for pedestrian detection.2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS). pp. 1–6.arXiv:1710.06160.doi:10.1109/AVSS.2017.8078512.ISBN 978-1-5386-2939-0.
  77. Ferguson, Sarah; Luders, Brandon; Grande, Robert C.; How, Jonathan P. (2015).Real-Time Predictive Modeling and Robust Avoidance of Pedestrians with Uncertain, Changing Intentions.Algorithmic Foundations of Robotics XI. Springer Tracts in Advanced Robotics(به انگلیسی). Vol. 107. Springer, Cham. pp. 161–177.arXiv:1405.5581.doi:10.1007/978-3-319-16595-0_10.ISBN 978-3-319-16594-3.
  78. de la Fuente Ruiz, Alfonso, and Galia Novakova Nedeltcheva. "Comprehensive Review of Trustworthiness in Multimodal Language Models."
  79. Newell, A.; Simon, H. (1956-09)."The logic theory machine--A complex information processing system".IEEE Transactions on Information Theory.2 (3): 61–79.doi:10.1109/tit.1956.1056797.ISSN 0018-9448.{{cite journal}}:Check date values in:|date= (help)
  80. Lafont, Y. (1988-07)."The linear abstract machine".Theoretical Computer Science.59 (1–2): 157–180.doi:10.1016/0304-3975(88)90100-4.ISSN 0304-3975.{{cite journal}}:Check date values in:|date= (help)
  81. Romanycia, Marc HJ, and Francis Jeffry Pelletier. "What is a heuristic?."Computational intelligence 1, no. 1 (1985): 47-58.
  82. Russell, Stuart J., and Peter Norvig.Artificial intelligence: a modern approach. pearson, 2016.
  83. Sritriratanarak, Warisa; Garcia, Paulo (2025-02-25)."Cyber Physical Games: Rational Multi-Agent Decision-Making in Temporally Non-Deterministic Environments".ACM Transactions on Cyber-Physical Systems.doi:10.1145/3719659.ISSN 2378-962X.
  84. Rzevski, George.The Future is Digital. 2023. Springer.
  85. Joudaki, Amir. "On a Mathematical Understanding of Deep Neural Networks." PhD diss., ETH Zurich, 2024.
  86. www.isna.irhttps://www.isna.ir/news/1404042112799/. دریافت‌شده در۲۰۲۵-۰۷-۱۳.پارامتر|عنوان= یا |title= ناموجود یا خالی (کمک)
  87. David Silver, Richard S. Sutton, Welcome to the Era of Experience, DeepMind, Google, 2025.
  88. https://storage.googleapis.com/deepmind-media/Era-of-Experience%20/The%20Era%20of%20Experience%20Paper.pdf
  89. «New 2025 Gartner® Hype Cycle for AI research has been published».Pasqal (به انگلیسی).۲۰۲۴-۱۰-۰۸. دریافت‌شده در۲۰۲۵-۰۷-۲۱.
  90. "Quantum Artificial Intelligence Lab".Wikipedia(به انگلیسی). 2025-02-09.
  91. Chauhan, Dipti, Pragya Ranka, Pritika Bahad, and Rupali Pathak. "Applications of Quantum Artificial Intelligence: A Systematic Review."Integration of AI, Quantum Computing, and Semiconductor Technology (2025): 159-182.
  92. Talati, Dhruvitkumar V. (2025-03-03)."Quantum AI and the Future of Super intelligent Computing".Journal of Artificial Intelligence General science (JAIGS) ISSN:3006-4023.8 (1): 44–51.doi:10.60087/jaigs.v8i1.329.ISSN 3006-4023.{{cite journal}}:Check|doi= value (help)
  93. Rajarshi Tarafdar (2025-02-28)."Quantum AI: The future of machine learning and optimization".World Journal of Advanced Research and Reviews.25 (2): 2744–2751.doi:10.30574/wjarr.2025.25.2.0639.ISSN 2581-9615.
  94. "Unconventional computing".Wikipedia(به انگلیسی). 2025-04-29.
  95. Frank, Adam; Grinspoon, David; Walker, Sara (2022-02-07)."Intelligence as a planetary scale process".International Journal of Astrobiology.21 (2): 47–61.doi:10.1017/s147355042100029x.ISSN 1473-5504.
  96. Schoenegger, Philipp; Tuminauskaite, Indre; Park, Peter S.; Bastos, Rafael Valdece Sousa; Tetlock, Philip E. (2024-11-08)."Wisdom of the silicon crowd: LLM ensemble prediction capabilities rival human crowd accuracy".Science Advances.10 (45).doi:10.1126/sciadv.adp1528.ISSN 2375-2548.
  97. Hansen, Anne Lundgaard, John J. Horton, Sophia Kazinnik, Daniela Puzzello, and Ali Zarifhonarvar. "Simulating the Survey of Professional Forecasters."Available at SSRN (2024).
  98. Besharati, Mohammad Reza; Izadi, Mohammad (2025-11-03),Hybrid Wisdom,doi:10.20944/preprints202511.0006.v1, retrieved2025-11-08
  99. Dehnavi, Ebrahim; Yousefi Kopaei, Jalaleddin; Jamali, Mohammad (2025)."Non-computable law: revolutionizing AI to address the hard problems of computational law".International Journal of Law and Information Technology.33.doi:10.1093/ijlit/eaaf013.ISSN 0967-0769.
  100. Fazli, MohammadAmin; Alian, Parsa; Owfi, Ali; Loghmani, Erfan (2024-06)."RPS: Portfolio asset selection using graph based representation learning".Intelligent Systems with Applications.22: 200348.doi:10.1016/j.iswa.2024.200348.ISSN 2667-3053.{{cite journal}}:Check date values in:|date= (help)
  101. Jarow, Oshan (2024-06-15)."Will AI ever become conscious? It depends on how you think about biology".Vox(به انگلیسی).Archived from the original on 21 September 2024. Retrieved2024-10-04.
  102. McCarthy, John."The Philosophy of AI and the AI of Philosophy".jmc.stanford.edu. Archived fromthe original on 2018-10-23. Retrieved2024-10-03.
  103. Affective computing: (Thro 1993), (Edelson 1991), (Tao و Tan 2005), (Scassellati 2002)
  104. 1.Strubell, E., Ganesh, A., & McCallum, A. (۲۰۱۹). Energy and Policy Considerations for Deep Learning in NLP. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL 2019). Association for Computational Linguistics.
  105. 3.The carbon emissions of writing and illustrating are lower for AI than for humans, Bill Tomlinson, Rebecca W. Black, Donald J. Patterson & Andrew W. Torrance ,Scientific Reports volume 14, Article number: 3732 (2024)
  106. AI in myth: (McCorduck 2004، صص. 4–5)
  107. Turing's original publication of theTuring test in "Computing machinery and intelligence": (Turing 1950) Historical influence and philosophical implications: (Haugeland 1985، صص. 6–9), (Crevier 1993، ص. 24), (McCorduck 2004، صص. 70–71), (Russell و Norvig 2021، صص. 2, 984)
  108. ۱۰۸٫۰۱۰۸٫۱John R. Searle.«Minds, Brains, and Programs». The Behavioral and Brain Sciences, vol. 3. Copyright 1980 Cambridge University Press. بایگانی‌شده ازاصلی در ۱۰ دسامبر ۲۰۰۷. دریافت‌شده در۲۸ ژانویه ۲۰۱۹.
  109. «هوش مصنوعی چیست».
  110. سه سوت وب.«هوش مصنوعی چیست».
  111. سه سوت وب.«هوش مصنوعی».
  112. سه سوت وب.«AI».
  113. Searle'sChinese room argument: (Searle 1980). Searle's original presentation of the thought experiment. , (Searle 1999). Discussion: (Russell و Norvig 2021، صص. 985), (McCorduck 2004، صص. 443–445), (Crevier 1993، صص. 269–271)
  114. Crevier, Daniel (1993).AI: the tumultuous history of the search for artificial intelligence(به انگلیسی). New York, NY: Basic Books. pp. 209–210.OCLC 26858345.{{cite book}}:Check date values in:|سال= /|تاریخ= mismatch (help)
  115. McCorduck, Pamela (2004).Machines who think: a personal inquiry into the history and prospects of artificial intelligence(به انگلیسی) (25th anniversary update ed.). Natick, Mass: A.K. Peters.OCLC 52197627.{{cite book}}:Check date values in:|سال= /|تاریخ= mismatch (help)
  116. "AI Writing and Content Creation Tools". MIT Sloan Teaching & Learning Technologies.Archived from the original on 25 December 2023. Retrieved25 December 2023.
  117. «Is AI Dangerous? 5 Immediate Risks Of Artificial Intelligence».MUO (به انگلیسی).۲۰۲۱-۰۶-۱۵. دریافت‌شده در۲۰۲۱-۰۸-۰۶.
  118. «آیا هوش مصنوعی انسان را تهدید می‌کند؟ 5 تهدید نزدیک تر از همیشه! | روکیدا». دریافت‌شده در۲۰۲۱-۰۸-۰۶.
  119. Brown, Eileen."Half of Americans do not believe deepfake news could target them online".ZDNet(به انگلیسی). Retrieved2021-08-06.
  120. GAO (2022).
  121. Valinsky (2019).
  122. Russell & Norvig (2021), p. 991.
  123. Russell & Norvig (2021), pp. 991–992.
  124. Christian (2020), p. 63.
  125. Vincent (2022).
  126. Kopel, Matthew."خدمات حق تکثیر: استفاده منصفانه".کتابخانه دانشگاه کرنل.Archived from the original on 26 September 2024. Retrieved26 April 2024.
  127. Burgess, Matt."چگونه از استفاده داده‌های خود برای آموزش هوش مصنوعی جلوگیری کنیم".وایرد.ISSN 1059-1028.Archived from the original on 3 October 2024. Retrieved26 April 2024.
  128. Reisner (2023).
  129. Alter & Harris (2023).
  130. "آماده‌سازی اکوسیستم نوآوری برای هوش مصنوعی. یک جعبه ابزار سیاست مالکیت فکری"(PDF).وایپو.
  131. Hammond, George (27 December 2023)."Big Tech is spending more than VC firms on AI startups".Ars Technica.Archived from the original on 10 January 2024.
  132. Wong, Matteo (24 October 2023)."The Future of AI Is GOMA".The Atlantic.Archived from the original on 5 January 2024.
  133. "Big tech and the pursuit of AI dominance".اکونومیست. 26 March 2023.Archived from the original on 29 December 2023.
  134. Fung, Brian (19 December 2023)."Where the battle to dominate AI may be won".CNN Business.Archived from the original on 13 January 2024.
  135. Metz, Cade (5 July 2023)."In the Age of A.I., Tech's Little Guys Need Big Friends".نیویورک تایمز.Archived from the original on 8 July 2024. Retrieved5 October 2024.
  136. "برق ۲۰۲۴ – تحلیل".IEA. 24 January 2024. Retrieved13 July 2024.
  137. Calvert, Brian (28 March 2024)."هوش مصنوعی در حال حاضر به اندازه یک کشور کوچک انرژی مصرف می‌کند. این تنها آغاز راه است".واکس (وبگاه). نیویورک، نیویورک.Archived from the original on 3 July 2024. Retrieved5 October 2024.
  138. Halper, Evan; O'Donovan, Caroline (21 June 2024)."هوش مصنوعی در حال خالی کردن شبکه برق است. شرکت‌های فناوری به دنبال یک راه‌حل معجزه‌آسا هستند".واشینگتن پست.
  139. Davenport, Carly."مراکز داده هوش مصنوعی و موج آتی تقاضای برق در آمریکا"(PDF).گلدمن ساکس. Archived fromthe original(PDF) on 26 July 2024. Retrieved5 October 2024.
  140. Ryan, Carol (12 April 2024)."هوش مصنوعی پرمصرف همچنین آینده صرفه‌جویی در انرژی است".وال‌استریت جورنال. داو جونز.
  141. Hiller, Jennifer (1 July 2024)."صنعت فناوری می‌خواهد انرژی هسته‌ای را برای هوش مصنوعی در اختیار بگیرد".وال‌استریت جورنال. داو جونز.Archived from the original on 5 October 2024. Retrieved5 October 2024.
  142. Kendall, Tyler (28 September 2024)."هوانگ از انویدیا می‌گوید انرژی هسته‌ای گزینه‌ای برای تأمین انرژی مراکز داده است".بلومبرگ.
  143. Halper, Evan (20 September 2024)."توافق مایکروسافت نیروگاه هسته‌ای تری مایل آیلند را برای تأمین انرژی هوش مصنوعی بازگشایی می‌کند".واشینگتن پست.
  144. Hiller, Jennifer (20 September 2024)."نیروگاه هسته‌ای تری مایل آیلند بازگشایی می‌شود تا به تأمین انرژی مراکز هوش مصنوعی مایکروسافت کمک کند".وال‌استریت جورنال. داو جونز.Archived from the original on 5 October 2024. Retrieved5 October 2024.
  145. ۱۴۵٫۰۱۴۵٫۱۱۴۵٫۲Niva Yadav (19 August 2024)."تایوان مراکز داده بزرگ در شمال را متوقف می‌کند و به کمبود برق اشاره می‌کند". DatacenterDynamics.Archived from the original on 8 November 2024. Retrieved7 November 2024.
  146. ۱۴۶٫۰۱۴۶٫۱Mochizuki, Takashi; Oda, Shoko (18 October 2024)."شرکت ژاپنی با سرمایه‌گذاری انویدیا، در نظر دارد مرکز داده هوش مصنوعی جدیدی در نزدیکی نیروگاه هسته‌ای احداث کند".بلومبرگ(به ژاپنی).Archived from the original on 8 November 2024. Retrieved7 November 2024.
  147. ۱۴۷٫۰۱۴۷٫۱Naureen S Malik and Will Wade (5 November 2024)."پردیس‌های هوش مصنوعی تشنه انرژی هسته‌ای به طرح جدیدی برای یافتن سریع برق نیاز دارند". Bloomberg.
  148. "خلاصه اجرایی انرژی و هوش مصنوعی".آژانس بین‌المللی انرژی. Retrieved10 April 2025.
  149. Nicas (2018).
  150. Rainie, Lee; Keeter, Scott; Perrin, Andrew (22 July 2019)."اعتماد و عدم اعتماد در آمریکا".مرکز تحقیقات پیو.Archived from the original on 22 February 2024.
  151. Kosoff, Maya (8 February 2018)."یوتیوب برای مهار مشکل توطئه خود تلاش می‌کند".ونتی فر(به انگلیسی). Retrieved10 April 2025.
  152. Berry, David M. (19 March 2025). "رسانه‌های ترکیبی و سرمایه‌داری محاسباتی: به سوی یک نظریه انتقادی از هوش مصنوعی".AI & Society(به انگلیسی).doi:10.1007/s00146-025-02265-2.ISSN 1435-5655.
  153. "باورنکردنی: یک جهش کوانتومی در ویدیوی هوش مصنوعی".د ویک(به انگلیسی). 17 June 2025. Retrieved20 June 2025.
  154. Snow, Jackie (16 June 2025)."ویدیوی هوش مصنوعی در حال واقعی شدن است. مراقب آنچه در ادامه می‌آید باشید".کوارتز(به انگلیسی). Retrieved20 June 2025.
  155. Chow, Andrew R.; Perrigo, Billy (3 June 2025)."ابزار جدید هوش مصنوعی گوگل دیپ‌فیک‌های قانع‌کننده‌ای از شورش‌ها، درگیری‌ها و تقلب در انتخابات تولید می‌کند".تایم(به انگلیسی). Retrieved20 June 2025.
  156. Williams (2023).
  157. Olanipekun, Samson Olufemi (2025)."تبلیغات سیاسی محاسباتی و اطلاعات نادرست: فناوری‌های هوش مصنوعی به عنوان ابزارهای دستکاری رسانه‌ها".World Journal of Advanced Research and Reviews(به انگلیسی).25 (1): 911–923.doi:10.30574/wjarr.2025.25.1.0131.ISSN 2581-9615.
  158. Taylor & Hern (2023).
  159. "برای مبارزه با هوش مصنوعی، به «اعتبارنامه‌های شخصیت» نیاز داریم، می‌گویند شرکت‌های هوش مصنوعی"(به انگلیسی). Archived fromthe original on 24 April 2025. Retrieved9 May 2025.
  160. ۱۶۰٫۰۱۶۰٫۱Samuel, Sigal (19 April 2022)."چرا منصفانه و بی‌طرف کردن هوش مصنوعی اینقدر سخت است".واکس.Archived from the original on 5 October 2024. Retrieved24 July 2024.
  161. ۱۶۱٫۰۱۶۱٫۱Rose (2023).
  162. CNA (2019).
  163. Mazeika, Mantas; Yin, Xuwang; Tamirisa, Rishub; Lim, Jaehyuk; Lee, Bruce W.; Ren, Richard; Phan, Long; Mu, Norman; Khoja, Adam (2025),مهندسی مطلوبیت: تحلیل و کنترل سیستم‌های ارزشی نوظهور در هوش مصنوعی, شکل ۱۶,arXiv:2502.08640, retrieved2025-10-24
  164. Goffrey (2008), p. 17.
  165. (Berdahl و دیگران 2023); (Goffrey 2008، ص. 17); (Rose 2023); (Russell و Norvig 2021، ص. 995)
  166. Christian (2020), p. 25.
  167. ۱۶۷٫۰۱۶۷٫۱Russell & Norvig (2021), p. 995.
  168. Grant & Hill (2023).
  169. Larson & Angwin (2016).
  170. Christian (2020), p. 67–70.
  171. (Christian 2020، صص. 67–70); (Russell و Norvig 2021، صص. 993–994)
  172. (Russell و Norvig 2021، ص. 995); (Lipartito 2011، ص. 36); (Goodman و Flaxman 2017، ص. 6); (Christian 2020، صص. 39–40, 65)
  173. نقل قول در (Christian 2020، ص. 65).
  174. (Russell و Norvig 2021، ص. 994); (Christian 2020، صص. 40, 80–81)
  175. نقل قول در (Christian 2020، ص. 80)
  176. Dockrill (2022).
  177. Sample (2017).
  178. "هوش مصنوعی جعبه سیاه". 16 June 2023.Archived from the original on 15 June 2024. Retrieved5 October 2024.
  179. Christian (2020), p. 110.
  180. Christian (2020), pp. 88–91.
  181. (Christian 2020، ص. 83); (Russell و Norvig 2021، ص. 997)
  182. Christian (2020), p. 91.
  183. Christian (2020), p. 83.
  184. Verma (2021).
  185. Rothman (2020).
  186. Christian (2020), pp. 105–108.
  187. Christian (2020), pp. 108–112.
  188. Ropek, Lucas (21 May 2024)."تحقیق جدید آنتروپیک نوری بر «جعبه سیاه» هوش مصنوعی می‌تاباند".گیزمودو.Archived from the original on 5 October 2024. Retrieved23 May 2024.
  189. Russell & Norvig (2021), p. 989.
  190. ۱۹۰٫۰۱۹۰٫۱Russell & Norvig (2021), pp. 987–990.
  191. Russell & Norvig (2021), p. 988.
  192. (Robitzski 2018); (Sainato 2015)
  193. Harari (2018).
  194. Buckley, Chris; Mozur, Paul (22 May 2019)."چگونه چین از نظارت با فناوری پیشرفته برای سرکوب اقلیت‌ها استفاده می‌کند".نیویورک تایمز.Archived from the original on 25 November 2019. Retrieved2 July 2019.
  195. "نقص امنیتی یک سیستم نظارتی شهر هوشمند چین را افشا کرد". 3 May 2019.Archived from the original on 7 March 2021. Retrieved14 September 2020.
  196. Urbina et al. (2022).
  197. ۱۹۷٫۰۱۹۷٫۱McGaughey (2022).
  198. (Ford و Colvin 2015);(McGaughey 2022)
  199. IGM Chicago (2017).
  200. Arntz, Gregory & Zierahn (2016), p. 33.
  201. (Lohr 2017); (Frey و Osborne 2017); (Arntz، Gregory و Zierahn 2016، ص. 33)
  202. Zhou, Viola (11 April 2023)."هوش مصنوعی در حال حاضر مشاغل تصویرگران بازی‌های ویدیویی در چین را از بین می‌برد".Rest of World.Archived from the original on 21 February 2024. Retrieved17 August 2023.
  203. Carter, Justin (11 April 2023)."صنعت هنر بازی چین گزارش شده توسط استفاده روزافزون از هوش مصنوعی نابود شده است".Game Developer.Archived from the original on 17 August 2023. Retrieved17 August 2023.
  204. Morgenstern (2015).
  205. (Mahdawi 2017); (Thompson 2014)
  206. Ma, Jason (5 July 2025)."جیم فارلی، مدیرعامل فورد هشدار می‌دهد که هوش مصنوعی نیمی از مشاغل یقه‌سفید را از بین خواهد برد، اما 'اقتصاد ضروری' با کمبود شدید کارگر مواجه است".فورچن (مجله). Retrieved21 October 2025.
  207. Tarnoff, Ben (4 August 2023). "درس‌هایی از الایزا".گاردین ویکلی. pp. 34–39.
  208. Cellan-Jones (2014).
  209. Russell & Norvig 2021, p. 1001.
  210. Bostrom (2014).
  211. Russell (2019).
  212. (Bostrom 2014); (Müller و Bostrom 2014); (Bostrom 2015).
  213. Harari (2023).
  214. Stewart (2025).
  215. Müller & Bostrom (2014).
  216. نگرانی رهبران در مورد ریسک‌های وجودی هوش مصنوعی در حدود سال ۲۰۱۵: (Rawlinson 2015)، (Holley 2015)، (Gibbs 2014)، (Sainato 2015)
  217. ""پدرخوانده هوش مصنوعی" در مورد تأثیر و پتانسیل هوش مصنوعی جدید صحبت می‌کند".سی‌بی‌اس نیوز. 25 March 2023.Archived from the original on 28 March 2023. Retrieved28 March 2023.
  218. Pittis, Don (4 May 2023)."رهبر هوش مصنوعی کانادا، جفری هینتون، بر ترس از تسلط رایانه‌ها می‌افزاید".سی‌بی‌سی.Archived from the original on 7 July 2024. Retrieved5 October 2024.
  219. "جفری هینتون می‌گوید «۵۰–۵۰ شانس» وجود دارد که هوش مصنوعی از بشریت پیشی بگیرد".Bloomberg BNN. 14 June 2024.Archived from the original on 14 June 2024. Retrieved6 July 2024.
  220. Valance (2023).
  221. Taylor, Josh (7 May 2023)."«پدر هوش مصنوعی» می‌گوید ظهور هوش مصنوعی اجتناب‌ناپذیر است اما نباید از آن ترسید".گاردین.Archived from the original on 23 October 2023. Retrieved26 May 2023.
  222. Colton, Emma (7 May 2023)."«پدر هوش مصنوعی» می‌گوید ترس از فناوری بی‌مورد است: «شما نمی‌توانید آن را متوقف کنید»".فاکس نیوز.Archived from the original on 26 May 2023. Retrieved26 May 2023.
  223. Jones, Hessie (23 May 2023)."یورگن اشمیدهوبر، «پدر مشهور هوش مصنوعی مدرن»، می‌گوید کار زندگی‌اش به پادآرمان‌شهر منجر نخواهد شد".فوربز.Archived from the original on 26 May 2023. Retrieved26 May 2023.
  224. McMorrow, Ryan (19 December 2023)."اندرو ان‌جی: «آیا فکر می‌کنیم جهان با هوش بیشتر یا کمتر جای بهتری خواهد بود؟»".فایننشال تایمز.Archived from the original on 25 January 2024. Retrieved30 December 2023.
  225. Levy, Steven (22 December 2023)."چگونه در مورد هوش مصنوعی احمق نباشیم، با یان لی‌کان".وایرد.Archived from the original on 28 December 2023. Retrieved30 December 2023.
  226. استدلال‌هایی مبنی بر اینکه هوش مصنوعی یک ریسک قریب‌الوقوع نیست: (Brooks 2014)، (Geist 2015)، (Madrigal 2015)، (Lee 2014)
  227. Christian (2020), pp. 67, 73.

خطای یادکرد: برچسپ<ref> که با نام «AI in the 80s» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است.
خطای یادکرد: برچسپ<ref> که با نام «First AI winter» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است.
خطای یادکرد: برچسپ<ref> که با نام «Second AI winter» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است.
خطای یادکرد: برچسپ<ref> که با نام «AI widely used 1990s» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است.
خطای یادکرد: برچسپ<ref> که با نام «Artificial General Intelligence» درون<references> تعریف شده، در متن قبل از آن استفاده نشده است.

منابع

[ویرایش]

کتب درسی AI

[ویرایش]

این کتب، پراستفاده‌ترین کتب درسی AI در ۲۰۰۷ میلادی بوده‌اند.

دوتا از پراستفاده‌ترین کتب درسی در ۲۰۲۱ میلادی.[۱]

دیگر منابع

[ویرایش]
منابع آزاد

 این مقاله دربردارنده متونی از اثرمحتوای آزاد است لیسانس تحت C-BY-SA 3.0 IGO. نوشته گرفته شده ازUNESCO Science Report: the Race Against Time for Smarter Development., Schneegans, S. , T. Straza and J. Lewis (eds), یونسکو.برای یادگیری در مورد چگونگی افزودنلیسانس باز متن به مقالات ویکی‌پدیا، لطفاًاین صفحه را ببینید. برای اطلاع در مورداستفاده مجدد متون ویکی‌پدیا، لطفاًشرایط استفاده از آن را ببینید.

پیوند به بیرون

[ویرایش]
هوش مصنوعیدرپروژه‌های خواهر ویکی‌پدیا
مقاله‌های مرتبط با هوش مصنوعی
فیلسوفان ذهن
نظریات
مفاهیم
موضوعات مرتبط
مفاهیم
فرانظریه
فلسفهٔ
مطالب مرتبط
فیلسوفان علم به تفکیک دوران
کهن
قرون وسطی
مدرن‌های اولیه
مدرن‌های کلاسیک
نوین
رایانش تشخیص‌پذیر
تابع دیفرانسیل‌پذیر
Concepts
Programming languages
Application
Hardware
Software library
Implementation
Audio-visual
Verbal
Decisional
People
Organizations
موضوعات و
مفاهیم
پیشنهادها
پیاده‌سازی‌ها
در داستان
توجه: این الگو تقریباً ازسیستم دسته‌بندی رایانش ای‌سی‌ام پیروی می‌کند.
سخت‌افزار
سازمان
سامانه‌های رایانه
شبکه رایانه‌ای
سازمان نرم‌افزار
نظریه زبان‌های برنامه‌نویسی
وابزار توسعه نرم‌افزار
توسعه نرم‌افزار
نظریه محاسبات
الگوریتمها
ریاضیات
رایانه
سامانه اطلاعاتی
امنیت رایانه
تعامل انسان و رایانه
همروندی
هوش مصنوعی
یادگیری ماشین
گرافیک رایانه‌ای
رایانش
کاربردی
شاخه‌ها
کشاورزی
معماری
بیوپزشکی
نمایش‌ها
نسل بعد
بدون نمایش
سایر
الکترونیک
انرژی
تولید
ذخیره
سایر
ساخت
علم مواد
نظامی
علوم اعصاب
کوانتوم
رباتیک
علوم فضایی
پرتاب به فضا
پیشرانش
سایر
حمل و نقل
هوایی
زمینی
خط لوله
سایر
موضوعات
Main articles
ربات
Classifications
Locomotion
مسیریابی رباتی andmapping
Research
Companies
Related
زیرشاخه‌ها و دانشمندانسایبرنتیک
Subfields
سایبرنتیست‌ها
داده‌های کتابخانه‌ای: کتابخانه‌های ملیویرایش در ویکی‌داده
برگرفته از «https://fa.wikipedia.org/w/index.php?title=هوش_مصنوعی&oldid=43096313»
رده‌ها:
رده‌های پنهان:

[8]ページ先頭

©2009-2025 Movatter.jp