لیگ عدالت الگوریتمی
کوتهنوشت | AJL |
---|---|
بنیانگذاری | 2016 |
بنیانگذاران | Joy Buolamwini |
مکان | |
وبگاه |
لیگ عدالت الگوریتمی ( AJL ) یک سازمان غیرانتفاعی مدافع دیجیتال واقع در کمبریج، ماساچوست است. AJL که در سال 2016 توسط دانشمند کامپیوتر جوی بولاموینی تأسیس شد، از تحقیقات، آثار هنری و خط مشی جانبدارانه برای افزایش آگاهی جامعه نسبت به استفاده از هوش مصنوعی (AI) در جامعه و آسیبها و سوگیریهایی که هوش مصنوعی میتواند برای جامعه ایجاد کند، استفاده میکند. [۱] AJL در انواع سمینارهای آزاد آنلاین، رسانه ها و طرح های حامی فناوری برای برقراری ارتباط و تبادل اطلاعات در مورد سوگیری در سیستم های هوش مصنوعی و ترویج اقدامات صنایع و دولت در راستای کاهش ایجاد و گسترش سیستم های هوش مصنوعی مغرضانه شرکت کرده است. در سال 2021، شرکت Fast ، AJL را به عنوان یکی از 10 شرکت نوآورانه هوش مصنوعی در جهان معرفی کرد. [۲] [۳]
پیشینه[ویرایش]
بولاموینی لیگ عدالت الگوریتمی یا AJL را در سال 2016 زمانی که از آزمایشگاه رسانه MIT به عنوان دانشجوی کارشناسی ارشد فارغ التحصیل شد تاسیس کرد. او هنگامی که در تحقیقات خود از نرم افزار تشخیص چهره برای آزمایش استفاده می کرد، متوجه شد که این نرم افزار نمی تواند چهره "به شدت ملانی" او را تا زمانی که یک ماسک سفید نزند تشخیص دهد.[۴] لذا ،این حادثه بولاموینی را برانگیخت، تا AJL را جهت جلب توجه عمومی به وجود سوگیری در هوش مصنوعی و تهدیدی که می تواند برای حقوق شهروندی ایجاد کند، تاسیس کند [۴] اولین کمپین های AJL در درجه اول بر وجود تعصب در نرم افزار تشخیص چهره متمرکز بود اما کمپین های اخیر به طور گسترده تری با مسائل مربوط به برابری و پاسخگویی در هوش مصنوعی، از جمله تعصب الگوریتمی ، تصمیم گیری الگوریتمی ، حاکمیت الگوریتمی و حسابرسی الگوریتمی سروکار داشته اند.
از این گذشته مجموعه ای از سازمان های دیگر از جمله داده ها و جامعه، داده ها برای زندگی سیاه پوستان،مؤسسه تحقیقاتی هوش مصنوعی توزیع شده (DAIR)، و مبارزه برای آینده وجود دارند که در راستای اهداف مشابه AJL کار می کنند . [۵] [۶] [۷]
کارهای قابل توجه[ویرایش]
تشخیص چهره[ویرایش]
بولاموینی، بنیانگذار AJL با Timnit Gebru اخلاق دان هوش مصنوعی برای انتشار مطالعه ای در سال 2018 باموضوع تعصب نژادی وجنسیتی در الگوریتم های تشخیص چهره ی مورد استفاده توسط سیستم های تجاری مایکروسافت ، IBM ، و Face++ همکاری داشت. تحقیقات آنها با عنوان" سایه های جنسیتی" نشان داد که مدل های یادگیری ماشین منتشر شده توسط IBMو ماکروسافت در تجزیه و تحلیل چهره هایی با پوست تیره و زنانه در مقایسه با عملکرد آنها روی چهره هایی با پوست روشن ومردانه دقت کمتری دارد. [۸][۹][۱۰] مقاله "سایه های جنسیتی" با تعهد راه اندازی چهره ایمن همراه شد، ابتکاری که با مرکز حریم خصوصی و فناوری جورج تاون طراحی شد و از سازمان های فناوری و دولت خواست که استفاده مرگبار از فناوری های تشخیص چهره را ممنوع اعلام کنند.[۱۱] پروژه ی سایه های جنستی و حمایت های بعدی که توسط AJL و گروه های مشابه انجام شد، چندین شرکت فناوری از جمله آمازون و IBM را به مقابله با سو گیری ها در توسعه الگوریتم های خود و حتی ممنوعیت موقت استفاده از محصولات خود توسط پلیس در سال 2020 سوق داد. [۱۲][۱۳]
بولاموینی و AJL در مستند نتفلیکس 2020 Coded Bias که برای اولین بار در جشنواره فیلم ساندنس به نمایش گذاشته شد، حضور داشتند. [۲] [۱۴] [۱۵] این مستند تلاش های تحقیقاتی و حمایتی AJL برای گسترش آگاهی نسبت به سوگیری الگوریتمی در سیستم های تشخیص چهره را هدف قرار داده و بر روی آن متمرکز بود. [۴] [۱۵]
AJL در یک همکاری تحقیقاتی در ماه می یک مقاله سفید منتشر کرد که در آن خواستار ایجاد یک اداره جدید دولت فدرال ایالت متحده برای تنظیم و رسیدگی به امور توسعه و استقرار فناوری های تشخیص چهره شد [۱۶] این مقاله بیان کرد که ایجاد یک اداره جدید دولت فدرال برای این منطقه به کاهش خطرات نظارت انبوه و سوگیری ناشی از فناوری های تشخیص چهره برای جمعیت های آسیب پذیر کمک می کند. [۱۷]
سوگیری در تشخیص گفتار[ویرایش]
AJL ابتکارات و راهکارهایی را برای افزایش آگاهی عمومی نسبت به تعصب و نابرابری الگوریتمی در عملکرد سیستم های هوش مصنوعی برای مدل سازی گفتار و زبان در بین جمعیتهای جنسیتی و نژادی به کار گرفته است. کار AJL در این فضا بر برجسته کردن تفاوتهای جنسیتی و نژادی در عملکرد سیستمهایبازشناسی گفتار تجاری و پردازش زبان طبیعی متمرکز بود، که نشان دهنده عملکرد ضعیف این سیستم ها برای اقلیتهای نژادی و برجسته کردن کلیشه های نژادی است.[۱۸][۱۹][۲۰]
در مارس سال 2020، AJL یک قطعه هنری به زبان گفتاری با عنوان پاک کردن صدا منتشر کرد. که آگاهی عمومی را نسبت به تعصب نژادی در سیستمهای تشخیص گفتار خودکار (ASR) را افزایش داد. [۲۱] [۲۲] این قطعه توسط محققان زن و افراد متعددی با جنسیت کوئیر یا نانباینری در این زمینه از جمله Ruha Benjamin ، Sasha Costanza-Chock، Safiya Noble و Kimberlé Crenshaw اجرا شد. [۲۲] [۲۱] AJL "پاک کردن صدا" را بر اساس یک مقاله PNAS در سال 2020 با عنوان "اختلافات نژادی در تشخیص خودکار گفتار"که تفاوت های نژادی را در عملکرد پنج سیستم تجاری ASR شناسایی می کند،توسعه داد.[۲۰]
حاکمیت الگوریتمی[ویرایش]
در سال 2019، بولاموینی نماینده ی AJL در جلسه استماع کنگره ی کمیته علم، فضا و فناوری مجلس نمایندگان آمریکا بود تا در مورد کاربردهای فناوریهای تشخیص چهره به صورت تجاری و دولتی صحبت کند [۲۳] [۲۴] بولاموینی در این جلسه به عنوان شاهد حاضر شد و در مورد عملکرد ضعیف فناوریهای تشخیص چهره در شناسایی افراد با پوست تیرهتر و ویژگیهای زنانه صحبت کرد و با تحقیقات پروژه "AJL "Gender Shades از موضع خود حمایت کرد. [۲۴] [۲۵] [۲۶]
در ژانویه 2022، AJL با مبارزه برای آینده و مرکز اطلاعات حریم خصوصی الکترونیکی همکاری کرد تا یک دادخواست آنلاین به نام DumpID.me منتشر کند و از IRS خواست استفاده از ID.me ، که یک فناوری تشخیص چهره است که آنها برای کاربرانی که وارد می شوند استفاده میکردند، متوقف سازد.[۷] AJL و سایر سازمان ها نامه هایی به قانونگذاران ارسال کردند و از آنها خواستند که IRS را تشویق کنند تا برنامه ی استفاده از تکنولوژی تشخیص چهره را متوقف کند. [۲۷] در فوریه 2022، IRS موافقت کرد که برنامه ID.me و استفاده از فناوری تشخیص چهره را متوقف کند. اکنون AJL تلاشهای خود را برای متقاعد کردن سایر سازمانهای دولتی برای توقف استفاده از فناوری تشخیص چهره تغییر داده است. از مارس سال 2022، دادخواست DumpID.me برای توقف استفاده از ID.me در همه سازمانهای دولتی مطرح شده است.[۲۸]
Olay رمزگشایی کمپین تعصب[ویرایش]
درسپتامبر 2021، Olay برای انجام کمپین Decode the Bias با AJL و O'Neil Risk Consulting & Algorithmic Auditing (ORCAA) همکاری کرد، که شامل ممیزی می شد که بررسی می کرد آیا سیستم Olay Skin Advisor (OSA) شامل سوگیری علیه زنان رنگین پوست می شود یا خیر. [۲۹] AJL به دلیل تعهد Olay نسبت به کسب رضایت مشتری برای استفاده از سلفی و داده های پوستی آنها در این ممیزی، تصمیم به همکاری با Olay گرفت. [۳۰] ممیزی AJL و ORCAA نشان داد که سیستم OSA دارای سوگیری در عملکرد خود در رنگ پوست و سن شرکت کنندگان است. [۳۰] سیستم OSA برای شرکتکنندگان با رنگ پوست روشنتر، بر اساس Fitzpatrick نوع پوست و مقیاسهای طبقهبندی زاویه ی گونه شناسی فردی، دقت بالاتری را نشان داد. سیستم OSA همچنین دقت بالاتری را برای شرکت کنندگان 30 تا 39 ساله نشان داد.[۳۱] Olay از آن زمان اقداماتی را برای ممیزی داخلی و کاهش تعصبات سیستم OSA انجام داده است. [۳۰] Olay همچنین به 1000 دختر کمک مالی کرده است تا در اردوی Black Girls Code شرکت کنند تا دختران آفریقایی-آمریکایی را تشویق کند تا مشاغل STEM را دنبال کنند.[۳۰]
پروژه CRASH[ویرایش]
در ژوئیه 2020، پروژه گزارش جامعه از آسیب های سیستم الگوریتمی (CRASH) توسط AJL راه اندازی شد. [۳۲] این پروژه در سال 2019 زمانی که بولاموینی و محقق امنیت دیجیتال کامیل فرانسوا در برنامه اقامت مرکز Bellagio به میزبانی بنیاد راکفلر ملاقات کردند، آغاز شد. از آن زمان به بعد، این پروژه توسط استاد MIT و مدیر تحقیقات AJL ، ساشا کوستانزا-چاکنیز رهبری شده است. پروژه CRASH بر ایجاد چارچوبی برای توسعه برنامههای باگ_باونتی (BBPs) متمرکز بود که افراد را تشویق میکرد تا نمونههایی از سوگیری الگوریتمی در فناوریهای هوش مصنوعی را کشف و گزارش کنند. [۳۲] [۳۳] پس از انجام مصاحبه با شرکتکنندگان BBP و مطالعه موردی برنامه BBP توییتر، [۳۴] محققان AJL چارچوبی مفهومی برای طراحی برنامههای BBP ایجاد و پیشنهاد کردند که برای تشویق افراد به یافتن و افشای وجود سوگیری در سیستمهای هوش مصنوعی است. [۳۵] AJL قصد دارد با چارچوب CRASH امکان گزارش آسیبهای الگوریتمی و تشدید شدن تغییر در فناوریهای هوش مصنوعی که توسط شرکتها، بهویژه افرادی که به طور سنتی از طراحی این فناوریهای AI مستثنی شدهاند را برای اشخاص فراهم کند [20، گزارش DataSociety]. [۳۶] [۳۷]
پشتیبانی و حضور در رسانه ها[ویرایش]
ابتکارات AJL توسط بنیاد فورد ، بنیاد مک آرتور ، بنیاد آلفرد پی اسلون ، بنیاد راکفلر ، بنیاد موزیلا و اهداکنندگان خصوصی تامین شده است. [۳۶] [۳۸] کمپانی Fast لیگ عدالت الگوریتمی AJL را به عنوان یکی از 10 شرکت نوآورانه هوش مصنوعی در سال 2021 به رسمیت شناخت [۲] علاوه بر این، مکان هایی مانند مجله تایم ، نیویورک تایمز ، NPR و CNN کار بولاموینی با AJL را در چندین مصاحبه و مقاله به نمایش گذاشته اند. [۷] [۲۴] [۳۹]
بیشتر[ویرایش]
- تنظیم الگوریتم ها
- شفافیت الگوریتمی
- حقوق دیجیتال
- تعصب الگوریتمی
- اخلاق هوش مصنوعی
- انصاف (یادگیری ماشینی)
- دبورا راجی
- امیلی ام. بندر
- جوی بولاموینی
- ساشا کوستانزا-چاک
- تیمنیت گبرو
- مارگارت میچل (دانشمند)
منابع[ویرایش]
- ↑ "Learn More". The Algorithmic Justice League. Archived from the original on March 29, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۲٫۰ ۲٫۱ ۲٫۲ "The 10 most innovative companies in artificial intelligence". Fast Company. March 9, 2021. Archived from the original on April 7, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Villoro, Elías (16 February 2023). "Coded Bias and the Algorithm Justice League". Boing Boing.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۴٫۰ ۴٫۱ ۴٫۲ "Documentary 'Coded Bias' Unmasks The Racism Of Artificial Intelligence". WBUR-FM. Archived from the original on January 4, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ "DAIR". Distributed AI Research Institute. Archived from the original on April 7, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۷٫۰ ۷٫۱ ۷٫۲ Metz, Rachel (March 7, 2022). "Activists pushed the IRS to drop facial recognition. They won, but they're not done yet". CNN. Archived from the original on March 31, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Buolamwini, Joy; Gebru,Timnit (2018). "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification" (PDF). Proceedings of the 1st Conference on Fairness, Accountability and Transparency. 81: 77–91. Archived from the original (PDF) on December 12, 2020. Retrieved December 12, 2020 – via December 12, 2020. صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Gender Shades". gendershades.org. Archived from the original on May 29, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Buell, Spencer (February 23, 2018). "MIT Researcher: AI Has a Race Problem, and We Need to Fix It". Boston. Archived from the original on April 7, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Announcement - Safe Face Pledge". January 20, 2021. Archived from the original on January 20, 2021. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "The two-year fight to stop Amazon from selling face recognition to the police". MIT Technology Review (به English). Archived from the original on April 7, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "IBM pulls out of facial recognition, fearing racial profiling and mass surveillance". Fortune (به English). Archived from the original on April 7, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Lee, Jennifer 8 (February 8, 2020). "When Bias Is Coded Into Our Technology". NPR (به English). Archived from the original on March 26, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۱۵٫۰ ۱۵٫۱ "Watch Coded Bias | Netflix". www.netflix.com (به English). Archived from the original on March 24, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Burt, | Chris (June 8, 2020). "Biometrics experts call for creation of FDA-style government body to regulate facial recognition | Biometric Update". www.biometricupdate.com (به English). Archived from the original on April 7, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Miller, Erik Learned ; Ordóñez, Vicente ; Morgenstern, Jamie ; Buolamwini, Joy (2020). "Facial Recognition Technologies in the Wild: A Call for a Federal Office" (PDF). White Paper: 3–49. Archived from the original (PDF) on January 21, 2022. Retrieved April 8, 2022. صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ ۲۰٫۰ ۲۰٫۱ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ ۲۱٫۰ ۲۱٫۱ "Voicing Erasure". www.ajl.org. Archived from the original on April 11, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۲۲٫۰ ۲۲٫۱ "Algorithmic Justice League protests bias in voice AI and media coverage". VentureBeat (به English). April 1, 2020. Archived from the original on March 31, 2022. Retrieved April 7, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Quach, Katyanna (22 May 2019). "We listened to more than 3 hours of US Congress testimony on facial recognition so you didn't have to go through it". The Register (به English). Archived from the original on January 21, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۲۴٫۰ ۲۴٫۱ ۲۴٫۲ "Artificial Intelligence: Societal and Ethical Implications". House Committee on Science, Space and Technology (به English). June 26, 2019. Archived from the original on March 15, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Rodrigo, Chris Mills (July 2, 2020). "Dozens of advocacy groups push for Congress to ban facial recognition technology". The Hill (به English). Archived from the original on April 8, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "U.S. government study finds racial bias in facial recognition tools". Reuters (به English). December 19, 2019. Archived from the original on April 8, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Rachel Metz (February 7, 2022). "IRS halts plan to require facial recognition for logging in to user accounts". CNN. Archived from the original on April 8, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Demand All Government Agencies Drop ID.me". Fight for the Future (به English). Archived from the original on April 26, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Decode the Bias & Face Anything | Women in STEM | OLAY". www.olay.com (به English). Archived from the original on April 11, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۳۰٫۰ ۳۰٫۱ ۳۰٫۲ ۳۰٫۳ Shacknai, Gabby (September 14, 2021). "Olay Teams Up With Algorithmic Justice Pioneer Joy Buolamwini To #DecodetheBias In Beauty". Forbes (به English). Archived from the original on March 28, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "ORCAA's Report". www.olay.com (به English). Archived from the original on April 11, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۳۲٫۰ ۳۲٫۱ "Algorithmic Vulnerability Bounty Project (AVBP)". www.ajl.org. Archived from the original on March 18, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Laas, Molly (January 27, 2022). "Bug Bounties For Algorithmic Harms? | Algorithmic Justice League". MediaWell (به English). Archived from the original on January 18, 2023. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Vincent, James (August 10, 2021). "Twitter's photo-cropping algorithm prefers young, beautiful, and light-skinned faces". The Verge (به English). Archived from the original on April 8, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "AJL Bug Bounties Report.pdf". Google Docs. Archived from the original on January 31, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۳۶٫۰ ۳۶٫۱ League, Algorithmic Justice (August 4, 2021). "Happy Hacker Summer Camp Season!". Medium (به English). Archived from the original on November 16, 2021. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Ellis, Ryan Ellis; Stevens, Yuan (January 2022). "Bounty Everything: Hackers and the Making of the Global Bug Marketplace" (PDF). Data Society: 3–86. Archived from the original (PDF) on February 24, 2022. Retrieved April 8, 2022. صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "AJL Bug Bounties Report.pdf". Google Docs. Archived from the original on April 8, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Joy Buolamwini: How Do Biased Algorithms Damage Marginalized Communities?". NPR. Archived from the original on April 3, 2022. Retrieved April 8, 2022.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
لینک های خارجی[ویرایش]
This article "لیگ عدالت الگوریتمی" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:لیگ عدالت الگوریتمی. Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.