You can edit almost every page by Creating an account. Otherwise, see the FAQ.

اخلاق ماشینی

از EverybodyWiki Bios & Wiki
پرش به:ناوبری، جستجو

خطای اسکریپتی: پودمان «AfC submission catcheck» وجود ندارد.

اخلاق ماشینی اخلاق ماشینی بخشی از اخلاق هوش مصنوعی است که با اضافه کردن یا تضمین رفتارهای اخلاقی ماشین‌های ساخت بشر که از هوش مصنوعی استفاده می‌کنند، که در غیر این صورت به عنوان عوامل هوشمند مصنوعی شناخته می‌شود، مرتبط است.[۱] اخلاق ماشینی با سایر زمینه‌های اخلاقی مرتبط با مهندسی و فناوری متفاوت است. اخلاق ماشینی را نباید با اخلاق کامپیوتری که بر استفاده انسان از کامپیوتر متمرکز است، اشتباه گرفت. همچنین باید از فلسفه تکنولوژی متمایز شود، که خود را به تأثیرات اجتماعی بزرگتر فناوری می‌پردازد.[۲]

تاریخچه[ویرایش]

"قبل از قرن بیست و یکم، اخلاق ماشین‌ها عمدتاً به دلیل محدودیت‌های محاسباتی و هوش مصنوعی (AI) موضوع ادبیات علمی تخیلی بود. اگرچه تعریف «اخلاق ماشین» از آن زمان به بعد تکامل یافته‌است، این اصطلاح توسط میچل والدراپ در مقاله مجله هوش مصنوعی در سال ۱۹۸۷ مسئله مسولت پذیری ابداع شد: با این حال، یک چیز که از بحث فوق آشکار می‌شود این است که ماشین‌های هوشمند ارزش‌ها، مفروضات و اهداف را تجسم خواهند کرد، خواه برنامه نویسان آنها آگاهانه آنها را قصد داشته باشند یا نه. که ما با دقت و صریح در مورد اینکه آن ارزش‌های داخلی چه هستند فکر می‌کنیم. شاید آنچه ما به آن نیاز داریم، در واقع یک نظریه و عمل در مورد اخلاق ماشینی باشد، بر اساس روح آسیموف و سه قانون رباتیک سه قانون رباتیک. "[۳]

در سال ۲۰۰۴، "به سوی اخلاق ماشین"[۴]در کارگاه AAAI در مورد سازمان‌های عامل: تئوری و عمل ارائه شد[۵] که در آن مبانی نظری برای اخلاق ماشینی پی ریزی شد. در سمپوزیوم پاییز 2005 AAAI در مورد اخلاق ماشینی بود که محققان برای اولین بار گرد هم آمدند تا اجرای یک بعد اخلاقی در سیستم‌های مستقل را بررسی کنند.[۶] در نسخه گردآوری شده «اخلاق ماشین» می‌توان دیدگاه‌های متنوعی از این رشته نوپا یافت.[۷]که از سمپوزیوم AAAI پاییز ۲۰۰۵ در مورد اخلاق ماشین نشات می‌گیرد. در سال ۲۰۰۷، مجله هوش مصنوعی اخلاق ماشین: ایجاد یک عامل هوشمند اخلاقی را معرفی کرد. ,[۸] مقاله ای که در مورد اهمیت اخلاق ماشینی، نیاز به ماشین‌هایی که اصول اخلاقی را به صراحت نشان می‌دهند و چالش‌های پیش روی کسانی که روی اخلاق ماشین کار می‌کنند، بحث کرد. همچنین نشان داد که ممکن است، حداقل در یک حوزه محدود، یک ماشین یک اصل اخلاقی را از نمونه‌هایی از قضاوت‌های اخلاقی انتزاع کند و از آن اصل برای هدایت رفتار خود استفاده کند. در سال 2009 ,Oxford University Press published Moral Machines, Teaching Robots Right from Wrong,[۹] که آن را به عنوان «اولین کتابی که چالش ساخت عوامل اخلاقی مصنوعی را بررسی می‌کند، و عمیقاً در ماهیت تصمیم‌گیری و اخلاق انسانی بررسی می‌کند» تبلیغ کرد. حدود ۴۵۰ منبع را ذکر کرد که حدود ۱۰۰ مورد از آنها به سوالات عمده اخلاق ماشین پرداخته‌است. در سال ۲۰۱۴، دفتر تحقیقات نیروی دریایی ایالات متحده اعلام کرد که ۷٫۵ میلیون دلار کمک مالی را طی پنج سال به محققان دانشگاهی برای مطالعه سؤالات اخلاق ماشینی که در مورد روبات‌های مستقل اعمال می‌شود، توزیع خواهد کرد.[۱۰] و نیک بوستروم "SuperIntelligence: Paths, Dangers, Strategies" که اخلاق ماشینی را به عنوان "مهمترین مسئله ای که بشریت تا به حال با آن روبرو بوده" مطرح کرد، به ۱۷ امین چاپ رسید و در فهرست پرفروش‌ترین کتاب‌های علمی یورک تایمز قرار گرفت.[۱۱] در سال ۲۰۱۶، پارلمان اروپا مقاله ای را منتشر کرد تا کمیسیون را تشویق کند تا به موضوع وضعیت حقوقی روبات‌ها رسیدگی کند، همان‌طور که به‌طور خلاصه در مطبوعات توضیح داده شد[۱۲] این مقاله شامل بخش‌هایی در رابطه با مسئولیت‌های قانونی ربات‌ها بود، که در آن مسئولیت‌ها متناسب با سطح استقلال روبات‌ها استدلال می‌شد. این مقاله همچنین تعداد مشاغلی را که می‌توان با ربات‌های هوش مصنوعی جایگزین کرد، زیر سؤال برد.

مفاهیم[ویرایش]

James H. Moor، یکی از نظریه‌پردازان پیشگام در زمینه اخلاق رایانه، چهار نوع ربات اخلاقی را تعریف می‌کند. مور به عنوان یک محقق گسترده در مطالعات فلسفه هوش مصنوعی، فلسفه ذهن، فلسفه علم و منطق ماشین‌ها را به عنوان عوامل تأثیر اخلاقی، ضمنی تعریف می‌کند. عوامل اخلاقی، کارگزاران اخلاقی صریح، یا کارگزاران اخلاقی کامل یک ماشین می‌تواند بیش از یک نوع عامل باشد.[۱۳]

  • عوامل تأثیر اخلاقی این‌ها سیستم‌های ماشینی هستند که تأثیر اخلاقی دارند، خواه در نظر گرفته شده باشند یا نه. در عین حال، این عوامل پتانسیل این را دارند که غیراخلاقی عمل کنند. مور مثالی فرضی به نام «عامل گودمن» می‌آورد که به نام فیلسوف نلسون گودمن نامگذاری شده‌است. عامل گودمن تاریخ‌ها را مقایسه می‌کند اما مشکل سال ۲۰۰۰ اشکال هزاره را دارد. این اشکال ناشی از برنامه نویسانی است که تاریخ‌ها را تنها با دو رقم آخر سال نشان می‌دهند؛ بنابراین، هر تاریخ فراتر از سال ۲۰۰۰ به‌طور گمراه کننده ای زودتر از تاریخ‌های اواخر قرن بیستم تلقی می‌شود؛ بنابراین عامل گودمن قبل از سال ۲۰۰۰ یک عامل تأثیر اخلاقی و پس از آن یک عامل تأثیر غیراخلاقی بود.
  • عوامل اخلاقی ضمنی : اینها سیستم‌های ماشینی هستند که تأثیر اخلاقی دارند، خواه مورد نظر باشد یا نباشد. در عین حال، این عوامل پتانسیل این را دارند که غیراخلاقی عمل کنند. مور مثالی فرضی به نام «عامل گودمن» می‌آورد که به نام فیلسوف نلسون گودمن نامگذاری شده‌است. عامل گودمن تاریخ‌ها را مقایسه می‌کند اما مشکل سال ۲۰۰۰ اشکال هزاره را دارد. این اشکال ناشی از برنامه نویسانی است که تاریخ‌ها را تنها با دو رقم آخر سال نشان می‌دهند؛ بنابراین، هر تاریخ فراتر از سال ۲۰۰۰ به‌طور گمراه کننده ای زودتر از تاریخ‌های اواخر قرن بیستم تلقی می‌شود؛ بنابراین عامل گودمن قبل از سال ۲۰۰۰ یک عامل تأثیر اخلاقی و پس از آن یک عامل تأثیر غیراخلاقی بود.
  • عوامل اخلاقی ضمنی:برای در نظر گرفتن ایمنی انسانی، این عوامل به گونه ای برنامه‌ریزی شده‌اند که یک ایمن در برابر شکست یا یک فضیلت داخلی داشته باشند. آنها ماهیت کاملاً اخلاقی ندارند، بلکه برای جلوگیری از نتایج غیراخلاقی برنامه‌ریزی شده‌اند.
  • عوامل اخلاقی صریح: یکسری ماشین‌هایی هستند که می‌توانند سناریوها را پردازش کنند و بر اساس تصمیمات اخلاقی عمل کنند. ماشین‌هایی که دارای الگوریتم‌هایی برای عمل اخلاقی هستند.
  • عوامل اخلاقی کامل: این ماشین‌ها شبیه عوامل اخلاقی صریح هستند که می‌توانند تصمیمات اخلاقی بگیرند. با این حال، آنها همچنین دارای ویژگی‌های متافیزیک انسانی هستند.

مشکل کنترل هوش مصنوعی[ویرایش]

برخی از محققان، مانند نیک بوستروم و محقق هوش مصنوعی استوارت راسل استدلال می‌کنند که اگر هوش مصنوعی از نظر هوش عمومی از بشریت پیشی بگیرد و تبدیل به ابر هوش مصنوع شود این ابر هوش جدید می‌تواند قدرتمند و کنترل آن دشوار باشد سرنوشت بشریت ممکن است به اقدامات یک ابرهوش ماشینی آینده بستگی داشته باشد.[۱۴]هر دو محقق در کتاب‌های مربوطه خود «فوق هوش: مسیرها، خطرات، استراتژی ها|ابر هوش» و «سازگار با انسان: هوش مصنوعی و مشکل کنترل|سازگار با انسان» ادعا می‌کنند که در حالی که وجود دارد در مورد آینده هوش مصنوعی ابهام زیادی وجود دارد، خطر برای بشریت به اندازه‌ای بزرگ است که شایسته اقدامات قابل توجهی در زمان حال باشد.

مشکل کنترل AI نشان می‌دهد: چگونه یک عامل هوشمند بسازیم که به سازندگانش کمک کند، در حالی که از ساختن سهواً ابرهوشی که به سازندگانش آسیب می‌رساند اجتناب شود. خطر عدم کنترل درست «در اولین بار» این است که یک ابراطلاعات ممکن است بتواند بر محیط خود قدرت بگیرد و از خاموش کردن آن توسط انسان‌ها جلوگیری کند. استراتژی‌های بالقوه کنترل هوش مصنوعی شامل «کنترل قابلیت» (محدود کردن توانایی هوش مصنوعی برای تأثیرگذاری بر جهان) و «کنترل انگیزشی» (یکی از راه‌های ساخت یک هوش مصنوعی که اهداف آن با انسان یا بهینه ارزش‌ها همسو هستند. . تعدادی سازمان در حال تحقیق در مورد مشکل کنترل هوش مصنوعی هستند، از جمله مؤسسه آینده بشریت و مؤسسه تحقیقاتی هوش ماشینی.

الگوریتم‌ها و تمرین دادن[ویرایش]

پارادایم‌های هوش مصنوعی، به‌ویژه در رابطه با اثربخشی و تعصب آن‌ها مورد بحث قرار گرفته‌اند. نیک بوستروم و الیزر یودکووسکی برای درخت تصمیم (مانند الگوریتم ID3) بر روی شبکه عصبی مصنوعی و الگوریتم ژنتیک استدلال کرده‌اند. الگوریتم‌های ژنتیک بر این اساس که درخت‌های تصمیم از هنجارهای اجتماعی مدرن شفافیت و قابل پیش‌بینی تبعیت می‌کنند.[۱۵]

در مقابل، کریس سانتوس لانگ به نفع شبکه‌های عصبی و الگوریتم‌های ژنتیک استدلال می‌کرد بر این اساس که هنجارهای هر عصری باید اجازه تغییر داشته باشند و شکست طبیعی در برآورده کردن کامل این هنجارهای خاص در آسیب‌پذیری کمتر انسان‌ها نسبت به ماشین‌ها ضروری است.[۱۶][۱۷]

در سال ۲۰۰۹، در آزمایشی در آزمایشگاه سیستم‌های هوشمند در École Polytechnique Fédérale de Lausanne|Ecole Polytechnique Fédérale از لوزان در سوئیس، روبات‌های هوش مصنوعی برای همکاری با یکدیگر برنامه‌ریزی شدند. این وظیفه با هدف جستجوی یک منبع مفید و در عین حال اجتناب از یک منبع سمی و مسموم است.[۱۸] در طول آزمایش، ربات‌ها در قبیله‌ها دسته‌بندی شدند و کد ژنتیکی اعضای موفق برای نسل بعدی، نوعی الگوریتم به نام الگوریتم ژنتیک استفاده شد. پس از ۵۰ نسل متوالی در هوش مصنوعی، اعضای یک قبیله کشف کردند که چگونه منبع مفید را از منبع سمی تشخیص دهند. سپس روبات‌ها یادگرفتند که به یکدیگر دروغ بگویند تا منابع مفید را از سایر روبات‌ها ذخیره کنند. همین ربات‌های هوش مصنوعی نیز یادگرفتند که فداکارانه رفتار کنند و خطری را برای ربات‌های دیگر اعلام کردند و همچنین به قیمت نجات ربات‌های دیگر جان خود را از دست دادند. مفاهیم این آزمایش توسط متخصصان اخلاق ماشینی به چالش کشیده شده‌است. در آزمایش Ecole Polytechnique Fédérale، اهداف ربات‌ها به عنوان «پایانه» برنامه‌ریزی شد. در مقابل، انگیزه‌های انسانی معمولاً دارای کیفیتی هستند که نیازمند یادگیری بی پایان هستند.

سیستم‌های تسلیحاتی خودمختار[ویرایش]

در سال ۲۰۰۹، دانشگاهیان و کارشناسان فنی در کنفرانسی شرکت کردند تا در مورد تأثیر بالقوه روبات‌ها و رایانه‌ها و تأثیر احتمالی فرضی که می‌توانند خودکفا شوند و بتوانند تصمیم‌گیری کنند، بحث کنند. آنها دربارهٔ امکان و میزانی که رایانه‌ها و روبات‌ها می‌توانند هر سطحی از خودمختاری را به دست آورند و تا چه حد می‌توانند از چنین توانایی‌هایی برای ایجاد هرگونه تهدید یا خطری استفاده کنند، بحث کردند. آنها خاطرنشان کردند که برخی از ماشین‌ها اشکال مختلفی از نیمه خودمختاری را به دست آورده‌اند، از جمله اینکه می‌توانند منابع انرژی را به تنهایی پیدا کنند و می‌توانند به‌طور مستقل اهدافی را برای حمله با سلاح انتخاب کنند. آنها همچنین خاطرنشان کردند که برخی از ویروس‌های رایانه‌ای می‌توانند از حذف شدن فرار کنند و به «هوش سوسک» دست یافته‌اند. آنها خاطرنشان کردند که خودآگاهی همان‌طور که در داستان‌های علمی-تخیلی به تصویر کشیده شده‌است احتمالاً بعید است، اما خطرات و دام‌های بالقوه دیگری نیز وجود دارد.[۱۹] برخی از کارشناسان و دانشگاهیان استفاده از ربات‌ها برای نبردهای نظامی را زیر سؤال برده‌اند، به‌ویژه زمانی که به این ربات‌ها درجاتی از عملکردهای خودمختار داده می‌شود. توانایی آنها در تصمیم‌گیری مستقل می‌تواند خطرناک باشد و آنها به برنامه‌هایی مانند دستگاه اکتساب زبان (کامپیوتر) اشاره می‌کنند که می‌تواند تعامل انسانی را تقلید کند.

یادگیری ماشین بایاس[ویرایش]

یادگیری ماشین در میان صنایع متعددی از جمله تبلیغات آنلاین، رتبه‌بندی اعتبار و صدور احکام کیفری با وعده ارائه نتایج عینی‌تر و مبتنی بر داده‌ها محبوب شده‌اند، اما به عنوان منبعی بالقوه برای تداوم نابرابری‌های اجتماعی بکار می‌روند. یک مطالعه در سال ۲۰۱۵ نشان داد که زنان کمتر احتمال دارد که آگهی‌های شغلی با درآمد بالا توسط AdSenseGoogle نشان داده شوند. مطالعه دیگری نشان داد که خدمات تحویل همان روز Amazon عمداً در محله‌های سیاه‌پوست از دسترس خارج شده‌است. گوگل و آمازون هر دو نتوانستند این نتایج را در یک موضوع مجزا کنند، اما در عوض توضیح دادند که نتایج حاصل از الگوریتم‌های جعبه سیاه است که استفاده کردند. سیستم قضایی ایالات متحده استفاده از نرم‌افزار ارزیابی کمی خطر را هنگام اتخاذ تصمیمات مربوط به آزادی افراد به قید وثیقه و محکومیت در تلاشی برای عادلانه تر بودن و کاهش سطح بالای نرخ حبس ایالات متحده آغاز کرده‌است. این ابزارها سابقه کیفری متهم را در میان سایر ویژگی‌ها تحلیل می‌کنند. در مطالعه‌ای بر روی ۷۰۰۰ نفر دستگیر شده در کانتی بروارد، فلوریدا شهر بروارد، تنها ۲۰ درصد از افرادی که پیش‌بینی کرده بودند با استفاده از سیستم امتیازدهی ارزیابی خطر این شهرستان مرتکب جرم شوند، ارتکاب جرم مرتکب شده‌اند. گزارشی در سال ۲۰۱۶ از سایت roPublica نمرات خطر و تکرار جرم محاسبه شده توسط یکی از رایج‌ترین ابزارها، سیستم Northpointe COMPAS (نرم‌افزار) را تجزیه و تحلیل کرد و نتایج را طی دو سال بررسی کرد. این گزارش نشان داد که تنها ۶۱ درصد از افرادی که در معرض خطر قرار داشتند، در آن دوره مرتکب جرایم اضافی شدند. این گزارش همچنین نشان داد که متهمان آفریقایی-آمریکایی به احتمال زیاد نسبت به همتایان متهم سفیدپوست خود امتیازات پرخطر دریافت می‌کنند. در سال ۲۰۱۶، گروه داده‌های بزرگ - ناظر چارچوب‌های نظارتی مختلف داده‌های بزرگ - گزارش‌هایی را منتشر کرد که در آن «پتانسیل رمزگذاری تبعیض در تصمیم‌گیری‌های خودکار» و درخواست «فرصت برابر با طراحی» برای برنامه‌هایی مانند امتیازدهی اعتباری. این گزارش‌ها گفتمان را در میان سیاست‌گذاران، شهروندان و دانشگاهیان تشویق می‌کند، اما می‌داند که راه‌حل بالقوه‌ای برای رمزگذاری سوگیری و تبعیض وجود ندارد.

چارچوب‌ها و شیوه‌های اخلاقی[ویرایش]

در مارس ۲۰۱۸، در تلاش برای رسیدگی به نگرانی‌های فزاینده در مورد تأثیر یادگیری ماشین بر حقوق بشر و مجمع جهانی اقتصاد و شورای جهانی آینده حقوق بشر سفید با توصیه‌های دقیق در مورد بهترین روش برای جلوگیری از نتایج تبعیض آمیز در یادگیری ماشینی مجمع جهانی اقتصاد چهار توصیه را بر اساس اصول راهنمای حقوق بشر سازمان ملل برای کمک به رسیدگی و جلوگیری از نتایج تبعیض آمیز در یادگیری ماشین انجام دادند.

  1. شمول فعال توسعه و طراحی برنامه‌های کاربردی یادگیری ماشینی باید به‌طور فعال به دنبال تنوع ورودی، به ویژه هنجارها و ارزش‌های جمعیت‌های خاص تحت تأثیر خروجی سیستم‌های هوش مصنوعی باشد.
  2. عادلانه (یادگیری ماشینی) افرادی که در مفهوم سازی، توسعه و پیاده‌سازی سیستم‌های یادگیری ماشین نقش دارند، باید در نظر داشته باشند که کدام تعریف از انصاف در زمینه و کاربرد آنها بهترین کاربرد دارد و آن را در اولویت قرار دهند. معماری سیستم یادگیری ماشین و معیارهای ارزیابی آن
  3. حق درک مشارکت سیستم‌های یادگیری ماشین در تصمیم‌گیری‌هایی که بر حقوق فردی تأثیر می‌گذارد باید افشا شود و سیستم‌ها باید بتوانند توضیحی در مورد تصمیم‌گیری خود ارائه دهند که برای کاربران نهایی و قابل درک باشد. قابل بررسی توسط یک مقام انسانی ذیصلاح در مواردی که این امر غیرممکن است و حقوق در خطر است، رهبران در طراحی، استقرار و تنظیم فناوری یادگیری ماشین باید این سؤال را مطرح کنند که آیا باید از آن استفاده شود یا خیر.
  4. دسترسی به جبران خسارت رهبران، طراحان و توسعه دهندگان سیستم‌های یادگیری ماشین مسئول شناسایی تأثیرات منفی بالقوه حقوق بشر سیستم‌های خود هستند. آنها باید راه‌های قابل مشاهده ای را برای جبران خسارت برای کسانی که تحت تأثیر تأثیرات متفاوت قرار گرفته‌اند ایجاد کنند و فرآیندهایی را برای جبران به موقع هرگونه خروجی تبعیض آمیز ایجاد کنند.

در ژانویه ۲۰۲۰، دانشگاه هاروارد مرکز اینترنت و جامعه برکمن کلاین یک مطالعه متا از ۳۶ مجموعه اصلی از اصول برای هوش مصنوعی منتشر کرد که هشت موضوع کلیدی را شناسایی کرد: حریم خصوصی، مسئولیت پذیری، ایمنی و امنیت، شفافیت و هوش مصنوعی قابل توضیح انصاف و عدم تبعیض، کنترل انسانی بر فناوری، مسئولیت حرفه ای، و ارتقای ارزش‌های انسانی.[۲۰] یک متا مطالعه مشابه توسط محققان ETH Zurich مؤسسه فناوری فدرال سوئیس در زوریخ در سال ۲۰۱۹ انجام شد.

راهکارها[ویرایش]

تلاش‌های متعددی برای قابل محاسبه کردن یا حداقل اخلاق رسمی انجام شده‌است. در حالی که Isaac Asimo معمولاً برای یک عامل اخلاقی مصنوعی مناسب در نظر گرفته نمی‌شود، مبنایی برای اخلاق ماشینی بررسی شده‌است که آیا می‌توان از واجب مقوله‌ای نوشته کانت استفاده کرد و با این حال، اشاره شده‌است که ارزش انسانی از برخی جهات بسیار پیچیده‌است. راهی برای غلبه بر این دشواری، دریافت ارزش‌های انسانی مستقیماً از طریق مکانیسمی، با یادگیری آنهاست. رویکرد دیگر این است که ملاحظات اخلاقی فعلی را بر موقعیت‌های مشابه قبلی قرار دهیم. این casuistry نامیده می‌شود و می‌توان آن را از طریق تحقیق در اینترنت پیاده‌سازی کرد. اجماع حاصل از یک میلیون تصمیم گذشته منجر به تصمیم جدیدی خواهد شد که وابسته به دموکراسی است. برنامه ای به نام SIROCCO که با هوش مصنوعی و تکنیک‌های استدلال موردی ساخته شده‌است که معضلات اخلاقی را بازیابی و تجزیه و تحلیل می‌کند. با این حال، این رویکرد می‌تواند منجر به تصمیماتی شود که منعکس کننده سوگیری‌ها و رفتارهای غیراخلاقی در جامعه است. اثرات منفی این رویکرد را می‌توان در Tay (bot) مایکروسافت مشاهده کرد، جایی که chatterbot یادگرفت پیام‌های نژادپرستانه و جنسی ارسال شده توسط کاربران توییتر را تکرار کند. یک آزمایش فکری بر روی Genie Golem با قدرت‌های نامحدود تمرکز دارد که خود را به خواننده نشان می‌دهد. این جن اعلام می‌کند که ۵۰ سال دیگر بازمی‌گردد و می‌خواهد که مجموعه‌ای از اخلاقیات مشخص برایش فراهم شود که بلافاصله به آن عمل کند. هدف از این آزمایش آغاز گفتمانی در مورد بهترین روش برای مدیریت تعریف مجموعه کاملی از اخلاقیات است که کامپیوترها ممکن است درک کنند.

لینک‌های اضافی[ویرایش]

https://en.m.wikipedia.org/wiki/Machine_ethics

منابع[ویرایش]

  1. خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
  2. Boyles, Robert James. "A Case for Machine Ethics in Modeling Human-Level Intelligent Agents" (PDF). Kritike. Retrieved 1 November 2019.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  3. خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
  4. Anderson, M. , Anderson, S. , and Armen, C. (2004) “Towards Machine Ethics” in Proceedings of the AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press [۱]
  5. AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press [۲]
  6. "Papers from the 2005 AAAI Fall Symposium". Archived from the original on 2014-11-29.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  7. Anderson, Michael; Anderson, Susan Leigh, eds. (July 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  8. Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  9. Wallach, Wendell; Allen, Colin (2009). Moral machines: teaching robots right from wrong. Oxford University Press. ISBN 978-0-19-537404-9.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  10. Tucker, Patrick (13 May 2014). "Now The Military Is Going To Build Robots That Have Morals". Defense One. Retrieved 9 July 2014.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  11. "Best Selling Science Books". New York Times. September 8, 2014. Retrieved 9 November 2014.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  12. Wakefield, Jane (2017-01-12). "MEPs vote on robots' legal status – and if a kill switch is required". BBC News. Retrieved 12 January 2017.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  13. Moor, James M. (2009). "Four Kinds of Ethical Robots". Philosophy Now.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  14. Cookson, Clive (13 July 2014). "Superintelligence: Paths, Dangers, Strategies, by Nick Bostrom". The Financial Times. Archived from the original on 2014-08-06. Retrieved 30 July 2014.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  15. Müller, Vincent C. (2020), "Ethics of Artificial Intelligence and Robotics", in Zalta, Edward N., The Stanford Encyclopedia of Philosophy (Winter 2020 ed.), Metaphysics Research Lab, Stanford University, retrieved 2021-03-18صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  16. Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". Archived from the original on 2011-12-03.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  17. خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
  18. Evolving Robots Learn To Lie To Each Other, Popular Science, August 18, 2009
  19. Scientists Worry Machines May Outsmart Man By JOHN MARKOFF, NY Times, July 26, 2009.
  20. خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).

رده:اخلاق علم و فناوری رده:رایانش و جامعه رده:فلسفه اخلاق



This article "اخلاق ماشینی" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:اخلاق ماشینی. Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.



Read or create/edit this page in another language[ویرایش]