خطر وجودی از هوش عمومی مصنوعی
این مقاله، خطر وجودی از هوش عمومی مصنوعی، اخیراً بهواسطهٔ فرایند ایجاد مقاله ایجاد شدهاست. بازبینیکننده در حال بستن درخواست است و این برچسب احتمالاً بهزودی برداشته میشود.
ابزارهای بازبینی: پیشبارگیری بحث اعلان به نگارنده |
خطای اسکریپتی: پودمان «AfC submission catcheck» وجود ندارد.
الگو:Artificial intelligence این مقاله در دست ترجمه است
خطر وجودی از هوش عمومی مصنوعی فرضی است که می گوید پیشرفت بیش از حد در هوش عمومی مصنوعی امکان دارد زمانی به منقرض شدن انسان بیانجامد یا حتی منجر به عوامل غیر قابل جبران مانند فاجعه جهانی [۱][۲] شود. و نتیجه میشود که گونه های انسانی در حال حاضر غالب گونه های دیگر هستند به دلیل این که مغز انسان بعضی از قابلیت هایی را دارند که حیوان های دیگر ندارند. اگر هوش مصنوعی در هوش عمومی از بشریت پیشی بگیرد و به "فوق هوشمند" تبدیل شود در این صورت کنترل برای انسان سخت یا امکان ناپذیر میشود. همانطور که آینده کوه گوریل به حسن نیت آدمیت بستگی دارد پس امکان دارد آینده ی بشریت به اعمال یک ابر هوش ماشین وابسته باشد.
احتمال این دست از سناریوها به میزان گسترده ای مورد بحث است و تا حدی به سناریوهای متفاوت برای پیشرفت آینده در علوم کامپیوتر وابسنه است. زمانی که حوزه منحصر به فرد از داستان های علمی تخیلی, نگرانی ها در مورد ابرهوش در دهه 2010 به جریان اصلی تبدیل شد و توسط چهره های عمومی مانند استیون هاوکینگ, بیل گیتس و ایلان ماسک. عمومیت یافت[۳]
یک دلیلی از نگرانی این است که کنترل کردن یک ماشین ابر هوشمند یا القا کردن آن با ارزشهای سازگاری انسان ممکن است مشکلی سخت تر از آن چیزی باشد که تصور میشد. محقق های زیادی بر این باورند که یک ابر هوش به طور طبیعی در برابر تلاش برای خاموش کردن یا تغییر هدفهای خود مقاومت می کند-اصلی به نام همگرایی ابزاری- و این برنامه ریزی از پیش تعیین شده یک ابر هوش با مجموعه ای کامل از ارزش های انسانی ثابت خواهد کرد که یک کار فنی بسیار دشوار است.[۴][۵] در مقابل, شک و تردید دانشمند هایی مانند دانشمند کامپیوتر یان لکان بحث میکنند که ماشین های ابر هوشمند هیچ تمایلی به حفظ خود نخواهند داشت.[۶]
یک منبع نگرانی دوم این است که یک " انفجار اطلاعاتی " ناگهانی و غیر قابل انتظار امکان دارد نژاد انسانی نا آماده را غافلگیر کند. برای نشان دادن، اگر اولین نسل از یک برنامه کامپیوتری که بتواند به طور گسترده با اثر گذاری یک محقق هوش مصنوعی تطابق داشته باشد، بتواند الگوریتم های خود را دوباره نویسی کند و سرعت یا توانایی های خود را در شش ماه دوبرابر کند، انتظار می رود که برنامه نسل دوم سه ماه تقویمی طول بکشد. برای انجام یک تکه کار مشابه در این سناریو زمان برای هر نسل همچنان کاهش مییابد، و سیستم در یک بازه زمانی کوتاه تحت تعداد بیسابقهای از نسلها بهتر می شود، و از عملکرد مافوق انسانی در بسیاری از حوزه ها به کارکرد فرا انسانی در همه زمینه های مربوطه میپرد. [۴] از نظر تجربی، نمونههایی مانند AlphaZero در حوزه Go نشان میدهند که سیستمهای AI بعضی اوقات میتوانند از توانایی محدود در سطح انسانی به توانایی مافوق بشری خیلی سریع پیشرفت کنند. [۷] رده:سناریوهای آخرالزمانی رده:خطرهای فناوری رده:انقراض نسل بشر رده:خطاهای بدون هدف Harv و Sfn رده:پیوندهای ویبک الگوی بایگانی اینترنت
This article "خطر وجودی از هوش عمومی مصنوعی" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:خطر وجودی از هوش عمومی مصنوعی. Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.
- ↑ Bostrom, Nick (2002). "Existential risks". Journal of Evolution and Technology. 9 (1): 1–31.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ Parkin, Simon (14 June 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (به English). Retrieved 5 February 2018.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۴٫۰ ۴٫۱ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value). خطای یادکرد: برچسب
<ref>
نامعتبر؛ نام «yudkowsky-global-risk» چندین بار با محتوای متفاوت تعریف شده است - ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value)., cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. Future of Life Institute. January 2015. Retrieved 2019-08-09.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Dowd, Maureen (April 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (به English). Retrieved 27 November 2017.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Graves, Matthew (8 November 2017). "Why We Should Be Concerned About Artificial Superintelligence". Skeptic (US magazine). 22 (2). Retrieved 27 November 2017.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.