اخلاق ربات
اخلاق ربات ، که گاهی اوقات به عنوان " روبوتیک " شناخته می شود ، مربوط به مشکلات و مسایل اخلاقی است که در رابطه با ربات ها رخ می دهد ، مسایلی مانند این که آیا ربات ها در طولانی مدت یا کوتاه مدت تهدیدی برای انسان به حساب می آیند ، آیا بعضی از کاربرد های ربات ها مشکل ساز هستند (مانند استفاده از ربات ها در بهداشت و درمان یا به عنوان "ربات های قاتل" در جنگ) ، و ربات ها چگونه باید طراحی شوند که "اخلاقی" عمل کنند (موضوع اخری که مطرح شد اخلاق ماشینی نیز نامیده می شود). متناوباً ، روبوتیک به طور خاص به اصول اخلاقی رفتار انسان نسبت به ربات ها اشاره دارد ، زیرا ربات ها مدام وبه طور فزاینده ای در حال پیشرفت هستند. [۱] اخلاق ربات زیرمجموعه ای از اخلاق فناوری ، به ویژه فناوری اطلاعات است و ارتباط تنگاتنگی با موضوعات حقوقی و همچنین اقتصادی-اجتماعی دارد. محققان از مناطق مختلف شروع به حل مسایل اخلاقی در مورد ایجاد فناوری رباتیک و پیاده سازی آن در جوامع می کنند ، به روشی که هنوز امنیت نژاد بشر را تضمین می کند. [۲]
در حالی که این موضوعات به اندازه کلمه ربات قدیمی هستند ، بحث های جدی آکادمیک از سال 2000 آغاز شد. اخلاق ربات نیاز به تعهد مجموعه ای از متخصصان چندین رشته دارد ،متخصصانی که باید قوانین و مقررات را با مشکلات ناشی از دستاوردهای علمی و فناوری در رباتیک و هوش مصنوعی تنظیم کنند. زمینه های اصلی دخیل در اخلاق ربات عبارتند از: رباتیک ، علوم کامپیوتر ، هوش مصنوعی ، فلسفه ، اخلاق ، الهیات ، زیست شناسی ، فیزیولوژی ، علوم شناختی ، علوم اعصاب ، حقوق ، جامعه شناسی ، روانشناسی و طراحی صنعتی .
تاریخ و وقایع[ویرایش]
برخی از بحثهای اصلی اخلاق در رابطه باپرداختن به مسایل غیر انسانی یا غیر بیولوژیکی و "معنویت" بالقوه آنها میباشد. موضوع اصلی دیگر ، مربوط به توسعه ماشین آلات و سرانجام ربات ها است ، این فلسفه در مورد رباتیک نیز استفاده شده است. یکی از اولین نشریاتی که به طور مستقیم به آن پرداخته و بنیان اخلاقی ربات را پایه گذاری کرده است، دوراهی (داستان) است ، یک داستان کوتاه علمی تخیلی که توسط آیزاک آسیموف در سال 1942 نوشته شده و شامل سه قانون رباتیک معروف است . نوشته شده و شامل سه قانون رباتیک معروف است . این سه قانون به طور مداوم توسط آسیموف تغییر می یافت ، و قانون چهارم یا صفر در نهایت به سه قانون اول ، در متن کارهای علمی تخیلی او ، اضافه شد. اصطلاح کوتاه "روبوتیک" به احتمال زیاد توسط جانمارکو وروجیو ابداع شده است.
یک رویداد مهم که نگرانی روبوتیک را برانگیخت ، اولین همایش بین المللی روباتیک در سال 2004 با تلاش مشترک Scuola di Robotica ، آزمایشگاه هنر Scuola Superiore Sant'Anna ، پیزا ، و موسسه الهیات Pontificia Accademia della Santa Croce ، رم. [۳] "پس از دو روز بحث شدید ، انسان شناس Daniela Cerqui سه موضع اخلاقی اصلی را که ناشی از دو روز مناظره پرتنش وشدید بود را شناسایی کرد:
- کسانی که علاقه ای به اخلاق ندارند. آنها فکر می کنند که اقداماتشان کاملاً فنی است و فکر نمی کنند مسئولیت اجتماعی یا اخلاقی در کارشان داشته باشد.
- کسانی که به سوالات اخلاقی کوتاه علاقه مند هستند. مطابق این مشخصات ، سوالات به صورت "خوب" یا "بد" بیان می شوند و به برخی از ارزشهای فرهنگی اشاره دارند. به عنوان مثال ، آنها احساس می کنند که ربات ها باید به قراردادهای اجتماعی پایبند باشند. این شامل "احترام" و کمک به انسان در زمینه های مختلف مانند اجرای قوانین یا کمک به افراد مسن است. (چنین ملاحظاتی مهم است ، اما باید بخاطر داشته باشیم که مقادیر استفاده شده برای تعریف "بد" و "خوب" نسبی هستند. آنها ارزشهای معاصر کشورهای صنعتی هستند).
- کسانی که در مورد سوالات اخلاقی بلند و مفصل فکر می کنند ، مثلاً درباره "شکاف دیجیتالی" بین جنوب و شمال ، یا پیر و جوان. آنها از شکاف بین کشورهای صنعتی و فقیر آگاه هستند ، و تعجب می کنند که آیا کشورهای صنعتی نباید روش خود را در توسعه رباتیک تغییر دهند تا برای جنوب مفیدتر باشد. آنها سوالات را به طور صریح بیان نمی کنند، اما ما می توانیم آن هارا به صورت التزامی و مفهومی بررسی کنیم ". [۴]
در قسمت زیر برخی از پروژه ها و رویداد های مهم در رابطه با اخلاق ربات اورده شده است.رویدادهای بیشتر در این زمینه توسط گروه مباحث euRobotics ELS و توسط RoboHub اعلام شده است:
- 1942: داستان کوتاه " دوراهی " آسیموف که برای اولین بار به وضوح سه قانون او را بیان می کند. این "قوانین" در کارهای بعدی داستان علمی مربوط به ربات توسط آسیموف مورد استفاده مجدد قرار خواهد گرفت.
- 2004: اولین همایش بین المللی روبوتیک ، که توسط دانشکده رباتیک برگزار شد ، جایی که کلمه روبوتیک برای اولین بار به طور رسمی استفاده می شود (30 – 31 ژانویه 2004 ، ویلا نوبل ، سانرمو ، ایتالیا ).
- 2004: IEEE-RAS کمیته فنی درباره روباتیک را تأسیس کرد .
- 2004: اعلامیه جهانی ربات Fukuoka (25 فوریه 2004 ، Fukuoka ، ژاپن ).
- 2005: IEEE RAS TC در زمینه رباتیک ، ICRA05 (کنفرانس بین المللی رباتیک و اتوماسیون) ، کارگاه آموزشی در مورد روباتیک ، (18 آوریل 2005 ، بارسلون ، اسپانیا ) را برگزار می کند.
- 2005 – 2006: آتلیه EC Euron Roboethics . پروژه یورون ، با هماهنگی دانشکده رباتیک ، شامل تعداد زیادی از رباتیک ها و دانشمندان علوم انسانی بود که اولین نقشه راه برای اخلاق رباتیک را تولید کردند (فوریه / مارس 2006 ، جنوا ، ایتالیا )
- 2006: BioRob2006 ، اولین کنفرانس بین المللی IEEE / RAS-EMBS در زمینه رباتیک پزشکی و بیومکاترونیک ؛ سمپوزیوم کوتاه در مورد روباتیک (20 فوریه 2006 ، پیزا ، ایتالیا ).
- 2006: کارگاه بین المللی "اخلاق تعامل انسان با سیستمهای رباتیک ، بیونیک و هوش مصنوعی: مفاهیم و سیاستها" ؛ تحت حمایت پروژه اروپایی ETHICBOTS – 18 اکتبر 2006 ، ناپل ، ایتالیا ).
- 2007: IEEE RAS TC در زمینه روباتیک کارگاه آموزشی دیگری درباره روبوتیک ، ICRA07 (کنفرانس بین المللی رباتیک و اتوماسیون) ، (14 آوریل 2007 ، رم ، ایتالیا ) برگزار می کند.
- 2007: ICAIL'07 ، کنفرانس بین المللی هوش مصنوعی و قانون ، (4-8 ژوئن 2007 ، دانشگاه استنفورد ، پالو آلتو ، کالیفرنیا ، ایالات متحده آمریکا ).
- 2007: کنفرانس بین المللی اروپایی محاسبات و فلسفه E-CAP '07 ، آهنگ: "روبوثیک" (21 – 23 ژوئن 2007 ، دانشگاه توئنته ، هلند ).
- 2007: تحقیق فلسفی اخلاق رایانه CEPE '07 ، موضوع: "روبوتیک" (12 – 14 جولای 2007 ، دانشگاه سن دیگو ، کالیفرنیا ، ایالات متحده آمریکا ).
- 2008: ربات های هم اندیشی بین المللی: علوم جدید (20 فوریه 2008 ، از طریق della Lungara 10 ، رم ، ایتالیا ).
- 2009: IEEE RAS TC در زمینه روباتیک کارگاه آموزشی دیگری درباره روبوتیک ، ICRA09 (کنفرانس بین المللی رباتیک و اتوماسیون) ، (17 مه 2009 ، کوبه ، ژاپن ) برگزار می کند.
- 2012: We Robot 2012 ( دانشگاه میامی ، فلوریدا ، ایالات متحده آمریکا ).
- 2013: کارگاه آموزشی اخلاق ربات (فوریه 2013 ، دانشگاه شفیلد ، یورکشایر جنوبی ، انگلیس ).
- 2013: We Robot 2013 - شروع به کار ( دانشگاه استنفورد ، پالو آلتو ، کالیفرنیا ، ایالات متحده ).
- 2014: We Robot 2014 - خطرات و فرصت ها ( دانشگاه میامی ، فلوریدا ، ایالات متحده آمریکا ).
- 2016: ملاحظات اخلاقی و اخلاقی در عوامل غیر انسانی ، سمپوزیوم استنفورد بهار ، انجمن AAAI برای پیشرفت هوش مصنوعی [۱] ( دانشگاه استنفورد ، پالو آلتو ، کالیفرنیا ، ایالات متحده ).
- 2017: اجلاس سرمایه گذاری آینده در ریاض ؛ تابعیت عربستان سعودی به رباتی ( به اسم صوفیا که مونث است) اعطا می شود و اولین رباتی است که تابعیت دارد. [۵] [۶] این موضوع به دلیل ابهام در مورد چندین مسیله ، بحث برانگیز شد ، به عنوان مثال آیا سوفیا می تواند رأی دهد یا ازدواج کند ، یا اینکه خاموش کردن عمدی سیستم قتل محسوب می شود. علاوه بر این ، کنار هم قرار دادن حقوقی که زنان سعودی در برابر شهروندی ربات برای شهروندی سعودی در نظر می گیرند ، به زودی انتقاد مطبوعات را به دنبال خواهد داشت [۷] [۸] (25 اکتبر 2017 ، ریاض ، عربستان سعودی).
- 2017: موسسه AI Now (AI Now) در NYU ، یک موسسه تحقیقاتی که پیامدهای اجتماعی هوش مصنوعی را بررسی می کند ، تشکیل شد (15 نوامبر 2017 ، New York CIty ، NY ، USA ).
دانشمند کامپیوتر ،ویرجینیا دینگوم، در شماره اخلاق و فناوری اطلاعات در مارس 2018 اظهار داشت که نگرش عمومی جامعه نسبت به هوش مصنوعی ، در دوران مدرن ، از مشاهده آن به عنوان ابزار و دیدن آن به عنوان یک "هم تیمی"هوشمند دور شده است. در همان مقاله ، وی با توجه به هوش مصنوعی بررسی كرد كه ، متفكران اخلاق سه هدف دارند كه به عقیده او در دوران مدرن هریک می تواند با تأمل و تفكر دقیق محقق شود. [۹] [۱۰] [۱۱] [۱۲] [۱۳] سه هدف اخلاقی به شرح زیر است:
- اخلاق با طراحی (ادغام فنی / الگوریتمی توانایی استدلال اخلاقی به عنوان بخشی از رفتار سیستم خودمختار مصنوعی - به اخلاق ماشین مراجعه کنید) ؛
- اخلاق در طراحی (روشهای نظارتی و مهندسی که از تجزیه و تحلیل و ارزیابی پیامدهای اخلاقی سیستمهای هوش مصنوعی پشتیبانی می کنند زیرا اینها ساختارهای اجتماعی سنتی را یکپارچه یا جایگزین می کنند) ؛ و
- اخلاق برای طراحی (کدهای رفتاری ، استانداردها و فرایندهای صدور گواهینامه که از یکپارچگی توسعه دهندگان و کاربران هنگام تحقیق ، طراحی ، ساخت ، بکارگیری و مدیریت سیستم های هوشمند مصنوعی اطمینان می یابد - به اخلاق و قانون ربات در زیر مراجعه کنید). [۱۴]
در فرهنگ عامه[ویرایش]
روبوتیک به عنوان یک موضوع علمی یا فلسفی ، موضوعی رایج در ادبیات و فیلم های علمی تخیلی است. فیلم ماتریکس یکی از فیلمهایی است که می توان ادعا کرد در فرهنگ پاپ ریشه دارد که ژانر ویرانشهر در آینده را که بااستفاده از هوش مصنوعی رباتیک رخ میدهد به تصویر میکشد ، در این فیلم انسانها و هوش مصنوعی آگاهانه برای کنترل سیاره زمین تلاش می کنند و منجر به نابودی بیشتر نژاد بشر می شود. . انیماتریکس ،یک فیلم انیمیشن براساس ماتریکس است که به شدت بر روی مسائل اخلاقی و ناامنی های بین انسان و ربات متمرکز شده است. این فیلم به داستانهای کوتاه تبدیل شده است. انیمیشن های کوتاه انیماتریکس نیز به نام داستانهای آیزاک آسیموف نامگذاری شده اند.
وجه دیگر اخلاق در ربات که در فیلم ها و نمایش های تلویزیونی متعددی مورد بررسی قرار گرفته است به طور خاص مربوط به رفتار انسانها با ربات ها میباشد. یک نمونه از این موارد فیلم پیشتازان فضا میباشد که در این فیلم نسل بعدی دارای یک اندروید انسان نما به نام دیتا است که دیتا به عنوان یکی از شخصیت های اصلی فیلم است. در بیشتر موارد ، در انجام ماموریت های حیاتی و حساس او به عنوان یک فرد مورد اعتماد است ، اما توانایی او در تطابق با موجودات زنده دیگر اغلب زیر سوال می رود. [۱۵] اخیراً ، فیلم اکس ماکینا(فراماشین) و نمایش تلویزیونی وست ورلد(سریال جهان غرب) با به تصویر کشیدن ربات های واقع گرایانه که انسانها با آنها به عنوان کالاهای بی ارزش رفتار می کنند ، به طور مستقیم این سوالات اخلاقی رابه کار گرفته اند. [۱۶] [۱۷] سوالات پیرامون رفتار موجودات مهندسی شده نیز بیش از 50 سال است که جز کلید اصلی بلید رانر (حق رای دادن) است. [۱۸] فیلم هایی مانند او حتی با حذف جنبه فیزیکی و تمرکز بر احساسات ، رابطه انسان با ربات ها را بیشتر استخراج کرده اند.
رفتار اخلاقی ربات ها اگرچه به خودی خود بخشی از روبوتیک نیست ، اما در فرهنگ عامه موضوعی الحاقی در روبتیک است. مجموعه نابودگر روی ربات هاییکه توسط یک برنامه آگاهانه هوش مصنوعی اجرا می شوند و هیچ محدودیتی در خاتمه دادن به دشمنان ندارند تمرکز دارذ. این مجموعه نیز دارای همان الگوهای سزیال ماتریکس است ، که ربات ها کنترل را به دست گرفته اند. یکی دیگر از موارد مشهور فرهنگ پاپ ربات ها یا هوش مصنوعی بدون اخلاق و اخلاق برنامه ریزی شده ، هال 9000 در مجموعه ادیسه فضایی است ، جایی که هال (رایانه ای با قابلیت های پیشرفته هوش مصنوعی است که در ایستگاه فضایی به انسان نظارت و کمک می کند) برای اطمینان از موفقیت درمأموریت تعیین شده پس از تهدید حیات خود همه انسانهای موجود در آن ایستگاه فضایی را می کشد .
اخلاق و قانون ربات[ویرایش]
با مطرح شدن مسائل فن آوری معاصر همزمان با فشار جامعه ، یکی از موضوعاتی که نیاز به تأمل و تفکر کامل دارد ، اخلاق ربات در رابطه با قانون است. دانشگاهیان درباره روند چگونگی ایجاد قانون گذاری دولتمردان در رابطه با اخلاق و قانون ربات بحث کرده اند. دو دانشمندی که این سوالات را پرسیده اند عبارتند از: نیل ریچاردز ، استاد حقوق در دانشگاه واشنگتن در سنت لوئیس و همچنین ویلیام دی. اسمارت ، دانشیار علوم کامپیوتر در دانشگاه واشنگتن در سنت لوئیس. آنها در مقاله خود با عنوان "چگونه ربات ها باید درباره قانون فكر كنند" چهار ادعای اصلی در مورد اخلاق و قانون ربات مطرح می كنند. اساس استدلال آنها تعریف ربات به عنوان "عوامل خودمختار غیر بیولوژیکی است که فکر می کنیم جوهره چالش های نظارتی و فناوری موجود در ربات ها را شامل می شود و می توانند اساس مقررات آن باشند."است. ادعای دوم ، ظرفیت های پیشرفته آینده ربات ها را در مدت زمان حدود یک دهه بررسی می کند. ادعای سوم آنها در رابطه با مسائل حقوقی اخلاق ربات و تجارب حقوقی با تجارب حقوقی قانون سایبری را بحث می کند. به این معنی که قوانین اخلاق ربات می تواند به دنبال قانون سایبری برای راهنمایی باشد. "درسی" که از قانون سایبری یاد گرفته میشود ، اهمیت استعاره هایی است که در مسائل نوظهور در فناوری می فهمیم. این امر بر این اساس استوار است که اگر استعاره را اشتباه بفهمیم ، قانونگذاری پیرامون مسئله فناوری نوظهور به احتمال زیاد نادرست است. چهارمین ادعایی که آنها علیه آن استدلال می کنند استعاره ای است که این دو دانشمند به عنوان "مغالطه اندروید" تعریف می کنند. آنها علیه این ادعا بحث می کنند که این ادعا بیان میکند انسان ها و موجودات غیر بیولوژیکی "دقیقاً مانند مردم" هستند.
همچنین ببینید[ویرایش]
- اخلاق ماشینی
- حقوق ربات
یادداشت[ویرایش]
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ "Robot Ethics". IEEE Robotics and Automation Society (به English). Retrieved 2017-06-26.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "ROBOETHICS Cover". www.roboethics.org. Retrieved 2020-09-29.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ http://www.roboethics.org/icra2005/veruggio.pdf
- ↑ "Saudi Arabia gives citizenship to a non-Muslim, English-Speaking robot". Newsweek. 26 October 2017.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Saudi Arabia bestows citizenship on a robot named Sophia". TechCrunch. October 26, 2017. Retrieved October 27, 2016.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Saudi Arabia takes terrifying step to the future by granting a robot citizenship". AV Club. October 26, 2017. Retrieved October 28, 2017.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Saudi Arabia criticized for giving female robot citizenship, while it restricts women's rights - ABC News". Abcnews.go.com. Retrieved 2017-10-28.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ Staff, Pacific Standard. "Can 'Westworld' Give Us New Ways of Talking About Slavery?". Pacific Standard (به English). Retrieved 2019-09-16.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Parker, Laura (2015-04-15). "How 'Ex Machina' Stands Out for Not Fearing Artificial Intelligence". The Atlantic (به English). Retrieved 2019-09-16.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Kilkenny, Katie. "The Meaning of Life in 'Blade Runner 2049'". Pacific Standard (به English). Retrieved 2019-09-16.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
منابع[ویرایش]
- لوی ، دیوید (نوامبر ، 2008). عشق و رابطه جنسی با روبات ها: تکامل روابط انسان و ربات . هارپر چند ساله
- ریچاردز ، نیل م. اسمارت ، ویلیام دی. (2013). چگونه باید قانون در مورد روبات فکر می کنم ؟: https://papers.ssrn.com/sol3/papers.cfm؟abstract_id=2263363
بیشتر خواندن[ویرایش]
- لین ، پاتریک / آبنی ، کیت / بیکی ، جورج آ. (دسامبر ، 2011). اخلاق ربات: پیامدهای اخلاقی و اجتماعی رباتیک . مطبوعات MIT .
- 978-3-319-21713-0
لینک های خارجی[ویرایش]
- PhilPapers - کتابشناسی استاندارد roboethics روشن است
- اخلاق + گروه علوم نوظهور
- مرکز اخلاق کاربردی مارکولا در دانشگاه سانتا کلارا ، ایالات متحده آمریکا
- لیست سازمان ها و کنفرانس ها از گروه مباحث euRobotics "مسائل اخلاقی ، حقوقی و اقتصادی اجتماعی" (ELS)
- لیست کنفرانس در وب سایت "Roboethics" (تا سال 2009)
- کمیته فنی رباتیک در IEEE
- گروه مباحث euRobotics "مسائل اخلاقی ، حقوقی و اجتماعی" (ELS)
- انجمن بین المللی اخلاق و فناوری اطلاعات
- حرفه ای کامپیوتر برای مسئولیت اجتماعی
- رباتیک مسئول
- موسسه بین المللی حقوق بشردوستانه
- اتحادیه دانشمندان نگران
- بانک اطلاعات Roboethics
- مرکز بین المللی اخلاق اطلاعات
- زندگی ایمن با ربات ها ، فراتر از قوانین آسیموف ، PhysOrg.com ، 22 ژوئن 2009.
- Plug & Pray ، فیلم مستند درباره اخلاق رباتیک و هوش مصنوعی (با حضور جوزف وایزنباوم و ری کورزویل)
- پروفسور برونو سیسیلیو ، سردبیر مشترک کتاب رباتیک Springer ، در مورد روبوتیک به عنوان بخشی از سخنرانی خود در TEDx بحث می کند.
- [۲]
This article "اخلاق ربات" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:اخلاق ربات. Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.