اخلاق ماشینی
این مقاله، اخلاق ماشینی، اخیراً بهواسطهٔ فرایند ایجاد مقاله ایجاد شدهاست. بازبینیکننده در حال بستن درخواست است و این برچسب احتمالاً بهزودی برداشته میشود.
ابزارهای بازبینی: پیشبارگیری بحث اعلان به نگارنده |
خطای اسکریپتی: پودمان «AfC submission catcheck» وجود ندارد.
برخی از ویرایشها در این مقاله در چارچوب یک تکلیف دانشگاهی انجام شدهاند. این تکالیف توسط دکتر شهررضا برای دانشجویان امیرکبیر تعیین شدهاند. |
اخلاق ماشینی اخلاق ماشینی بخشی از اخلاق هوش مصنوعی است که با اضافه کردن یا تضمین رفتارهای اخلاقی ماشینهای ساخت بشر که از هوش مصنوعی استفاده میکنند، که در غیر این صورت به عنوان عوامل هوشمند مصنوعی شناخته میشود، مرتبط است.[۱] اخلاق ماشینی با سایر زمینههای اخلاقی مرتبط با مهندسی و فناوری متفاوت است. اخلاق ماشینی را نباید با اخلاق کامپیوتری که بر استفاده انسان از کامپیوتر متمرکز است، اشتباه گرفت. همچنین باید از فلسفه تکنولوژی متمایز شود، که خود را به تأثیرات اجتماعی بزرگتر فناوری میپردازد.[۲]
تاریخچه[ویرایش]
"قبل از قرن بیست و یکم، اخلاق ماشینها عمدتاً به دلیل محدودیتهای محاسباتی و هوش مصنوعی (AI) موضوع ادبیات علمی تخیلی بود. اگرچه تعریف «اخلاق ماشین» از آن زمان به بعد تکامل یافتهاست، این اصطلاح توسط میچل والدراپ در مقاله مجله هوش مصنوعی در سال ۱۹۸۷ مسئله مسولت پذیری ابداع شد: با این حال، یک چیز که از بحث فوق آشکار میشود این است که ماشینهای هوشمند ارزشها، مفروضات و اهداف را تجسم خواهند کرد، خواه برنامه نویسان آنها آگاهانه آنها را قصد داشته باشند یا نه. که ما با دقت و صریح در مورد اینکه آن ارزشهای داخلی چه هستند فکر میکنیم. شاید آنچه ما به آن نیاز داریم، در واقع یک نظریه و عمل در مورد اخلاق ماشینی باشد، بر اساس روح آسیموف و سه قانون رباتیک سه قانون رباتیک. "[۳]
در سال ۲۰۰۴، "به سوی اخلاق ماشین"[۴]در کارگاه AAAI در مورد سازمانهای عامل: تئوری و عمل ارائه شد[۵] که در آن مبانی نظری برای اخلاق ماشینی پی ریزی شد. در سمپوزیوم پاییز 2005 AAAI در مورد اخلاق ماشینی بود که محققان برای اولین بار گرد هم آمدند تا اجرای یک بعد اخلاقی در سیستمهای مستقل را بررسی کنند.[۶] در نسخه گردآوری شده «اخلاق ماشین» میتوان دیدگاههای متنوعی از این رشته نوپا یافت.[۷]که از سمپوزیوم AAAI پاییز ۲۰۰۵ در مورد اخلاق ماشین نشات میگیرد. در سال ۲۰۰۷، مجله هوش مصنوعی اخلاق ماشین: ایجاد یک عامل هوشمند اخلاقی را معرفی کرد. ,[۸] مقاله ای که در مورد اهمیت اخلاق ماشینی، نیاز به ماشینهایی که اصول اخلاقی را به صراحت نشان میدهند و چالشهای پیش روی کسانی که روی اخلاق ماشین کار میکنند، بحث کرد. همچنین نشان داد که ممکن است، حداقل در یک حوزه محدود، یک ماشین یک اصل اخلاقی را از نمونههایی از قضاوتهای اخلاقی انتزاع کند و از آن اصل برای هدایت رفتار خود استفاده کند. در سال 2009 ,Oxford University Press published Moral Machines, Teaching Robots Right from Wrong,[۹] که آن را به عنوان «اولین کتابی که چالش ساخت عوامل اخلاقی مصنوعی را بررسی میکند، و عمیقاً در ماهیت تصمیمگیری و اخلاق انسانی بررسی میکند» تبلیغ کرد. حدود ۴۵۰ منبع را ذکر کرد که حدود ۱۰۰ مورد از آنها به سوالات عمده اخلاق ماشین پرداختهاست. در سال ۲۰۱۴، دفتر تحقیقات نیروی دریایی ایالات متحده اعلام کرد که ۷٫۵ میلیون دلار کمک مالی را طی پنج سال به محققان دانشگاهی برای مطالعه سؤالات اخلاق ماشینی که در مورد روباتهای مستقل اعمال میشود، توزیع خواهد کرد.[۱۰] و نیک بوستروم "SuperIntelligence: Paths, Dangers, Strategies" که اخلاق ماشینی را به عنوان "مهمترین مسئله ای که بشریت تا به حال با آن روبرو بوده" مطرح کرد، به ۱۷ امین چاپ رسید و در فهرست پرفروشترین کتابهای علمی یورک تایمز قرار گرفت.[۱۱] در سال ۲۰۱۶، پارلمان اروپا مقاله ای را منتشر کرد تا کمیسیون را تشویق کند تا به موضوع وضعیت حقوقی روباتها رسیدگی کند، همانطور که بهطور خلاصه در مطبوعات توضیح داده شد[۱۲] این مقاله شامل بخشهایی در رابطه با مسئولیتهای قانونی رباتها بود، که در آن مسئولیتها متناسب با سطح استقلال روباتها استدلال میشد. این مقاله همچنین تعداد مشاغلی را که میتوان با رباتهای هوش مصنوعی جایگزین کرد، زیر سؤال برد.
مفاهیم[ویرایش]
James H. Moor، یکی از نظریهپردازان پیشگام در زمینه اخلاق رایانه، چهار نوع ربات اخلاقی را تعریف میکند. مور به عنوان یک محقق گسترده در مطالعات فلسفه هوش مصنوعی، فلسفه ذهن، فلسفه علم و منطق ماشینها را به عنوان عوامل تأثیر اخلاقی، ضمنی تعریف میکند. عوامل اخلاقی، کارگزاران اخلاقی صریح، یا کارگزاران اخلاقی کامل یک ماشین میتواند بیش از یک نوع عامل باشد.[۱۳]
- عوامل تأثیر اخلاقی اینها سیستمهای ماشینی هستند که تأثیر اخلاقی دارند، خواه در نظر گرفته شده باشند یا نه. در عین حال، این عوامل پتانسیل این را دارند که غیراخلاقی عمل کنند. مور مثالی فرضی به نام «عامل گودمن» میآورد که به نام فیلسوف نلسون گودمن نامگذاری شدهاست. عامل گودمن تاریخها را مقایسه میکند اما مشکل سال ۲۰۰۰ اشکال هزاره را دارد. این اشکال ناشی از برنامه نویسانی است که تاریخها را تنها با دو رقم آخر سال نشان میدهند؛ بنابراین، هر تاریخ فراتر از سال ۲۰۰۰ بهطور گمراه کننده ای زودتر از تاریخهای اواخر قرن بیستم تلقی میشود؛ بنابراین عامل گودمن قبل از سال ۲۰۰۰ یک عامل تأثیر اخلاقی و پس از آن یک عامل تأثیر غیراخلاقی بود.
- عوامل اخلاقی ضمنی : اینها سیستمهای ماشینی هستند که تأثیر اخلاقی دارند، خواه مورد نظر باشد یا نباشد. در عین حال، این عوامل پتانسیل این را دارند که غیراخلاقی عمل کنند. مور مثالی فرضی به نام «عامل گودمن» میآورد که به نام فیلسوف نلسون گودمن نامگذاری شدهاست. عامل گودمن تاریخها را مقایسه میکند اما مشکل سال ۲۰۰۰ اشکال هزاره را دارد. این اشکال ناشی از برنامه نویسانی است که تاریخها را تنها با دو رقم آخر سال نشان میدهند؛ بنابراین، هر تاریخ فراتر از سال ۲۰۰۰ بهطور گمراه کننده ای زودتر از تاریخهای اواخر قرن بیستم تلقی میشود؛ بنابراین عامل گودمن قبل از سال ۲۰۰۰ یک عامل تأثیر اخلاقی و پس از آن یک عامل تأثیر غیراخلاقی بود.
- عوامل اخلاقی ضمنی:برای در نظر گرفتن ایمنی انسانی، این عوامل به گونه ای برنامهریزی شدهاند که یک ایمن در برابر شکست یا یک فضیلت داخلی داشته باشند. آنها ماهیت کاملاً اخلاقی ندارند، بلکه برای جلوگیری از نتایج غیراخلاقی برنامهریزی شدهاند.
- عوامل اخلاقی صریح: یکسری ماشینهایی هستند که میتوانند سناریوها را پردازش کنند و بر اساس تصمیمات اخلاقی عمل کنند. ماشینهایی که دارای الگوریتمهایی برای عمل اخلاقی هستند.
- عوامل اخلاقی کامل: این ماشینها شبیه عوامل اخلاقی صریح هستند که میتوانند تصمیمات اخلاقی بگیرند. با این حال، آنها همچنین دارای ویژگیهای متافیزیک انسانی هستند.
مشکل کنترل هوش مصنوعی[ویرایش]
برخی از محققان، مانند نیک بوستروم و محقق هوش مصنوعی استوارت راسل استدلال میکنند که اگر هوش مصنوعی از نظر هوش عمومی از بشریت پیشی بگیرد و تبدیل به ابر هوش مصنوع شود این ابر هوش جدید میتواند قدرتمند و کنترل آن دشوار باشد سرنوشت بشریت ممکن است به اقدامات یک ابرهوش ماشینی آینده بستگی داشته باشد.[۱۴]هر دو محقق در کتابهای مربوطه خود «فوق هوش: مسیرها، خطرات، استراتژی ها|ابر هوش» و «سازگار با انسان: هوش مصنوعی و مشکل کنترل|سازگار با انسان» ادعا میکنند که در حالی که وجود دارد در مورد آینده هوش مصنوعی ابهام زیادی وجود دارد، خطر برای بشریت به اندازهای بزرگ است که شایسته اقدامات قابل توجهی در زمان حال باشد.
مشکل کنترل AI نشان میدهد: چگونه یک عامل هوشمند بسازیم که به سازندگانش کمک کند، در حالی که از ساختن سهواً ابرهوشی که به سازندگانش آسیب میرساند اجتناب شود. خطر عدم کنترل درست «در اولین بار» این است که یک ابراطلاعات ممکن است بتواند بر محیط خود قدرت بگیرد و از خاموش کردن آن توسط انسانها جلوگیری کند. استراتژیهای بالقوه کنترل هوش مصنوعی شامل «کنترل قابلیت» (محدود کردن توانایی هوش مصنوعی برای تأثیرگذاری بر جهان) و «کنترل انگیزشی» (یکی از راههای ساخت یک هوش مصنوعی که اهداف آن با انسان یا بهینه ارزشها همسو هستند. . تعدادی سازمان در حال تحقیق در مورد مشکل کنترل هوش مصنوعی هستند، از جمله مؤسسه آینده بشریت و مؤسسه تحقیقاتی هوش ماشینی.
الگوریتمها و تمرین دادن[ویرایش]
پارادایمهای هوش مصنوعی، بهویژه در رابطه با اثربخشی و تعصب آنها مورد بحث قرار گرفتهاند. نیک بوستروم و الیزر یودکووسکی برای درخت تصمیم (مانند الگوریتم ID3) بر روی شبکه عصبی مصنوعی و الگوریتم ژنتیک استدلال کردهاند. الگوریتمهای ژنتیک بر این اساس که درختهای تصمیم از هنجارهای اجتماعی مدرن شفافیت و قابل پیشبینی تبعیت میکنند.[۱۵]
در مقابل، کریس سانتوس لانگ به نفع شبکههای عصبی و الگوریتمهای ژنتیک استدلال میکرد بر این اساس که هنجارهای هر عصری باید اجازه تغییر داشته باشند و شکست طبیعی در برآورده کردن کامل این هنجارهای خاص در آسیبپذیری کمتر انسانها نسبت به ماشینها ضروری است.[۱۶][۱۷]
در سال ۲۰۰۹، در آزمایشی در آزمایشگاه سیستمهای هوشمند در École Polytechnique Fédérale de Lausanne|Ecole Polytechnique Fédérale از لوزان در سوئیس، روباتهای هوش مصنوعی برای همکاری با یکدیگر برنامهریزی شدند. این وظیفه با هدف جستجوی یک منبع مفید و در عین حال اجتناب از یک منبع سمی و مسموم است.[۱۸] در طول آزمایش، رباتها در قبیلهها دستهبندی شدند و کد ژنتیکی اعضای موفق برای نسل بعدی، نوعی الگوریتم به نام الگوریتم ژنتیک استفاده شد. پس از ۵۰ نسل متوالی در هوش مصنوعی، اعضای یک قبیله کشف کردند که چگونه منبع مفید را از منبع سمی تشخیص دهند. سپس روباتها یادگرفتند که به یکدیگر دروغ بگویند تا منابع مفید را از سایر روباتها ذخیره کنند. همین رباتهای هوش مصنوعی نیز یادگرفتند که فداکارانه رفتار کنند و خطری را برای رباتهای دیگر اعلام کردند و همچنین به قیمت نجات رباتهای دیگر جان خود را از دست دادند. مفاهیم این آزمایش توسط متخصصان اخلاق ماشینی به چالش کشیده شدهاست. در آزمایش Ecole Polytechnique Fédérale، اهداف رباتها به عنوان «پایانه» برنامهریزی شد. در مقابل، انگیزههای انسانی معمولاً دارای کیفیتی هستند که نیازمند یادگیری بی پایان هستند.
سیستمهای تسلیحاتی خودمختار[ویرایش]
در سال ۲۰۰۹، دانشگاهیان و کارشناسان فنی در کنفرانسی شرکت کردند تا در مورد تأثیر بالقوه روباتها و رایانهها و تأثیر احتمالی فرضی که میتوانند خودکفا شوند و بتوانند تصمیمگیری کنند، بحث کنند. آنها دربارهٔ امکان و میزانی که رایانهها و روباتها میتوانند هر سطحی از خودمختاری را به دست آورند و تا چه حد میتوانند از چنین تواناییهایی برای ایجاد هرگونه تهدید یا خطری استفاده کنند، بحث کردند. آنها خاطرنشان کردند که برخی از ماشینها اشکال مختلفی از نیمه خودمختاری را به دست آوردهاند، از جمله اینکه میتوانند منابع انرژی را به تنهایی پیدا کنند و میتوانند بهطور مستقل اهدافی را برای حمله با سلاح انتخاب کنند. آنها همچنین خاطرنشان کردند که برخی از ویروسهای رایانهای میتوانند از حذف شدن فرار کنند و به «هوش سوسک» دست یافتهاند. آنها خاطرنشان کردند که خودآگاهی همانطور که در داستانهای علمی-تخیلی به تصویر کشیده شدهاست احتمالاً بعید است، اما خطرات و دامهای بالقوه دیگری نیز وجود دارد.[۱۹] برخی از کارشناسان و دانشگاهیان استفاده از رباتها برای نبردهای نظامی را زیر سؤال بردهاند، بهویژه زمانی که به این رباتها درجاتی از عملکردهای خودمختار داده میشود. توانایی آنها در تصمیمگیری مستقل میتواند خطرناک باشد و آنها به برنامههایی مانند دستگاه اکتساب زبان (کامپیوتر) اشاره میکنند که میتواند تعامل انسانی را تقلید کند.
یادگیری ماشین بایاس[ویرایش]
یادگیری ماشین در میان صنایع متعددی از جمله تبلیغات آنلاین، رتبهبندی اعتبار و صدور احکام کیفری با وعده ارائه نتایج عینیتر و مبتنی بر دادهها محبوب شدهاند، اما به عنوان منبعی بالقوه برای تداوم نابرابریهای اجتماعی بکار میروند. یک مطالعه در سال ۲۰۱۵ نشان داد که زنان کمتر احتمال دارد که آگهیهای شغلی با درآمد بالا توسط AdSenseGoogle نشان داده شوند. مطالعه دیگری نشان داد که خدمات تحویل همان روز Amazon عمداً در محلههای سیاهپوست از دسترس خارج شدهاست. گوگل و آمازون هر دو نتوانستند این نتایج را در یک موضوع مجزا کنند، اما در عوض توضیح دادند که نتایج حاصل از الگوریتمهای جعبه سیاه است که استفاده کردند. سیستم قضایی ایالات متحده استفاده از نرمافزار ارزیابی کمی خطر را هنگام اتخاذ تصمیمات مربوط به آزادی افراد به قید وثیقه و محکومیت در تلاشی برای عادلانه تر بودن و کاهش سطح بالای نرخ حبس ایالات متحده آغاز کردهاست. این ابزارها سابقه کیفری متهم را در میان سایر ویژگیها تحلیل میکنند. در مطالعهای بر روی ۷۰۰۰ نفر دستگیر شده در کانتی بروارد، فلوریدا شهر بروارد، تنها ۲۰ درصد از افرادی که پیشبینی کرده بودند با استفاده از سیستم امتیازدهی ارزیابی خطر این شهرستان مرتکب جرم شوند، ارتکاب جرم مرتکب شدهاند. گزارشی در سال ۲۰۱۶ از سایت roPublica نمرات خطر و تکرار جرم محاسبه شده توسط یکی از رایجترین ابزارها، سیستم Northpointe COMPAS (نرمافزار) را تجزیه و تحلیل کرد و نتایج را طی دو سال بررسی کرد. این گزارش نشان داد که تنها ۶۱ درصد از افرادی که در معرض خطر قرار داشتند، در آن دوره مرتکب جرایم اضافی شدند. این گزارش همچنین نشان داد که متهمان آفریقایی-آمریکایی به احتمال زیاد نسبت به همتایان متهم سفیدپوست خود امتیازات پرخطر دریافت میکنند. در سال ۲۰۱۶، گروه دادههای بزرگ - ناظر چارچوبهای نظارتی مختلف دادههای بزرگ - گزارشهایی را منتشر کرد که در آن «پتانسیل رمزگذاری تبعیض در تصمیمگیریهای خودکار» و درخواست «فرصت برابر با طراحی» برای برنامههایی مانند امتیازدهی اعتباری. این گزارشها گفتمان را در میان سیاستگذاران، شهروندان و دانشگاهیان تشویق میکند، اما میداند که راهحل بالقوهای برای رمزگذاری سوگیری و تبعیض وجود ندارد.
چارچوبها و شیوههای اخلاقی[ویرایش]
در مارس ۲۰۱۸، در تلاش برای رسیدگی به نگرانیهای فزاینده در مورد تأثیر یادگیری ماشین بر حقوق بشر و مجمع جهانی اقتصاد و شورای جهانی آینده حقوق بشر سفید با توصیههای دقیق در مورد بهترین روش برای جلوگیری از نتایج تبعیض آمیز در یادگیری ماشینی مجمع جهانی اقتصاد چهار توصیه را بر اساس اصول راهنمای حقوق بشر سازمان ملل برای کمک به رسیدگی و جلوگیری از نتایج تبعیض آمیز در یادگیری ماشین انجام دادند.
- شمول فعال توسعه و طراحی برنامههای کاربردی یادگیری ماشینی باید بهطور فعال به دنبال تنوع ورودی، به ویژه هنجارها و ارزشهای جمعیتهای خاص تحت تأثیر خروجی سیستمهای هوش مصنوعی باشد.
- عادلانه (یادگیری ماشینی) افرادی که در مفهوم سازی، توسعه و پیادهسازی سیستمهای یادگیری ماشین نقش دارند، باید در نظر داشته باشند که کدام تعریف از انصاف در زمینه و کاربرد آنها بهترین کاربرد دارد و آن را در اولویت قرار دهند. معماری سیستم یادگیری ماشین و معیارهای ارزیابی آن
- حق درک مشارکت سیستمهای یادگیری ماشین در تصمیمگیریهایی که بر حقوق فردی تأثیر میگذارد باید افشا شود و سیستمها باید بتوانند توضیحی در مورد تصمیمگیری خود ارائه دهند که برای کاربران نهایی و قابل درک باشد. قابل بررسی توسط یک مقام انسانی ذیصلاح در مواردی که این امر غیرممکن است و حقوق در خطر است، رهبران در طراحی، استقرار و تنظیم فناوری یادگیری ماشین باید این سؤال را مطرح کنند که آیا باید از آن استفاده شود یا خیر.
- دسترسی به جبران خسارت رهبران، طراحان و توسعه دهندگان سیستمهای یادگیری ماشین مسئول شناسایی تأثیرات منفی بالقوه حقوق بشر سیستمهای خود هستند. آنها باید راههای قابل مشاهده ای را برای جبران خسارت برای کسانی که تحت تأثیر تأثیرات متفاوت قرار گرفتهاند ایجاد کنند و فرآیندهایی را برای جبران به موقع هرگونه خروجی تبعیض آمیز ایجاد کنند.
در ژانویه ۲۰۲۰، دانشگاه هاروارد مرکز اینترنت و جامعه برکمن کلاین یک مطالعه متا از ۳۶ مجموعه اصلی از اصول برای هوش مصنوعی منتشر کرد که هشت موضوع کلیدی را شناسایی کرد: حریم خصوصی، مسئولیت پذیری، ایمنی و امنیت، شفافیت و هوش مصنوعی قابل توضیح انصاف و عدم تبعیض، کنترل انسانی بر فناوری، مسئولیت حرفه ای، و ارتقای ارزشهای انسانی.[۲۰] یک متا مطالعه مشابه توسط محققان ETH Zurich مؤسسه فناوری فدرال سوئیس در زوریخ در سال ۲۰۱۹ انجام شد.
راهکارها[ویرایش]
تلاشهای متعددی برای قابل محاسبه کردن یا حداقل اخلاق رسمی انجام شدهاست. در حالی که Isaac Asimo معمولاً برای یک عامل اخلاقی مصنوعی مناسب در نظر گرفته نمیشود، مبنایی برای اخلاق ماشینی بررسی شدهاست که آیا میتوان از واجب مقولهای نوشته کانت استفاده کرد و با این حال، اشاره شدهاست که ارزش انسانی از برخی جهات بسیار پیچیدهاست. راهی برای غلبه بر این دشواری، دریافت ارزشهای انسانی مستقیماً از طریق مکانیسمی، با یادگیری آنهاست. رویکرد دیگر این است که ملاحظات اخلاقی فعلی را بر موقعیتهای مشابه قبلی قرار دهیم. این casuistry نامیده میشود و میتوان آن را از طریق تحقیق در اینترنت پیادهسازی کرد. اجماع حاصل از یک میلیون تصمیم گذشته منجر به تصمیم جدیدی خواهد شد که وابسته به دموکراسی است. برنامه ای به نام SIROCCO که با هوش مصنوعی و تکنیکهای استدلال موردی ساخته شدهاست که معضلات اخلاقی را بازیابی و تجزیه و تحلیل میکند. با این حال، این رویکرد میتواند منجر به تصمیماتی شود که منعکس کننده سوگیریها و رفتارهای غیراخلاقی در جامعه است. اثرات منفی این رویکرد را میتوان در Tay (bot) مایکروسافت مشاهده کرد، جایی که chatterbot یادگرفت پیامهای نژادپرستانه و جنسی ارسال شده توسط کاربران توییتر را تکرار کند. یک آزمایش فکری بر روی Genie Golem با قدرتهای نامحدود تمرکز دارد که خود را به خواننده نشان میدهد. این جن اعلام میکند که ۵۰ سال دیگر بازمیگردد و میخواهد که مجموعهای از اخلاقیات مشخص برایش فراهم شود که بلافاصله به آن عمل کند. هدف از این آزمایش آغاز گفتمانی در مورد بهترین روش برای مدیریت تعریف مجموعه کاملی از اخلاقیات است که کامپیوترها ممکن است درک کنند.
لینکهای اضافی[ویرایش]
https://en.m.wikipedia.org/wiki/Machine_ethics
منابع[ویرایش]
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ Boyles, Robert James. "A Case for Machine Ethics in Modeling Human-Level Intelligent Agents" (PDF). Kritike. Retrieved 1 November 2019.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ Anderson, M. , Anderson, S. , and Armen, C. (2004) “Towards Machine Ethics” in Proceedings of the AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press [۱]
- ↑ AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press [۲]
- ↑ "Papers from the 2005 AAAI Fall Symposium". Archived from the original on 2014-11-29.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Anderson, Michael; Anderson, Susan Leigh, eds. (July 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
- ↑ Wallach, Wendell; Allen, Colin (2009). Moral machines: teaching robots right from wrong. Oxford University Press. ISBN 978-0-19-537404-9.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Tucker, Patrick (13 May 2014). "Now The Military Is Going To Build Robots That Have Morals". Defense One. Retrieved 9 July 2014.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Best Selling Science Books". New York Times. September 8, 2014. Retrieved 9 November 2014.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Wakefield, Jane (2017-01-12). "MEPs vote on robots' legal status – and if a kill switch is required". BBC News. Retrieved 12 January 2017.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Moor, James M. (2009). "Four Kinds of Ethical Robots". Philosophy Now.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Cookson, Clive (13 July 2014). "Superintelligence: Paths, Dangers, Strategies, by Nick Bostrom". The Financial Times. Archived from the original on 2014-08-06. Retrieved 30 July 2014.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Müller, Vincent C. (2020), "Ethics of Artificial Intelligence and Robotics", in Zalta, Edward N., The Stanford Encyclopedia of Philosophy (Winter 2020 ed.), Metaphysics Research Lab, Stanford University, retrieved 2021-03-18صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". Archived from the original on 2011-12-03.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
- ↑ Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
رده:اخلاق علم و فناوری رده:رایانش و جامعه رده:فلسفه اخلاق
This article "اخلاق ماشینی" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:اخلاق ماشینی. Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.