تشخیص محتوای تولید شده توسط هوش مصنوعی
هدف نرم افزار تشخیص محتوای تولید شده توسط هوش مصنوعی این است که تعیین کند آیا محتوایی (متن، تصویر، ویدیو یا صدا) با استفاده از هوش مصنوعی (AI)تولید شده است یا خیر.
با این حال، قابل اعتماد بودن چنین نرم افزار هایی محل بحث است،[۱] و نگرانی هایی در مورد سوءاستفاده احتمالی از نرم افزار تشخیص هوش مصنوعی توسط مربیان وجود دارد.
دقت پایین[ویرایش]
چندین ابزار تشخیص هوش مصنوعی در تشخیص دقیق و جامع متن تولید شده توسط هوش مصنوعی غیرقابل اعتماد نشان داده شده اند. در پژوهشی که توسط وبر-وولف و همکارانش انجام شد، و در سال 2023 منتشر شد ، محققان 14 ابزار تشخیص شامل Turnitin و GPT Zero را ارزیابی کردند، و دریافتند که " همه ی آن ها کمتر از 80% دقت داشتند و تنها 5 تا از آن ها بالای 70% بودند."[۲]
تشخیص متن[ویرایش]
برای متن، این کار معمولا برای جلوگیری از ادعای سرقت ادبی انجام می شود، اغلب با تشخیص تکرار کلمات به عنوان نشانه های واضحی که یک متن توسط هوش مصنوعی تولید شده است ( شامل توهمات هوش مصنوعی ). این ابزار ها اغلب توسط معلمان برای تصحیح تکالیف دانش آموزان ، به صورت موردی استفاده می شوند. پس از انتشار Chat GPT و نرم افزار های مشابه تولید متن توسط هوش مصنوعی، بسیاری از مؤسسات آموزشی بخشنامه هایی را علیه استفاده از هوش مصنوعی توسط دانش آموزان ابلاغ کرده اند.[۳] نرم افزار تشخیص متن تولید شده توسط هوش مصنوعی همچنین توسط کسانی که متقاضیان شغلی را بررسی می کنند و نیز موتور های جست و جو آنلاین استفاده می شود.[۴]
تشخیص گر های فعلی ممکن است گاهی اوقات غیر اعتماد باشند و کار های تولید شده توسط انسان را به اشتباه به عنوان کار تولید شده توسط هوش مصنوعی[۵][۶][۷] تعیین کنند در حالی که در موارد دیگر در تشخیص متن تولید شده توسط هوش مصنوعی ناموفق هستند.[۸] مجله MIT Technology Review بیان کرد که این تکنولوژی" در تشخیص متن های تولید شده توسط ChatGPT که اندکی توسط انسان ها تغییر کرده اند یا با ابزارهای بازنویسی مبهم شده اند به مشکل خورده است".[۹] نرم افزار تشخیص متن تولید شده توسط هوش مصنوعی همچنین نشان داده است که نسبت به کسانی که زبان مادری شان انگلیسی نیست تبعیض قائل می شود.[۴]
دو دانشجو از دانشگاه کالیفرنیا، دیویس، پس از آن که استادانشان مقاله هایشان را با ابزار تشخیص متنی به نام تورنیتین اسکن کردند نزدیک بود اخراج شوند، زیرا این ابزار تشخیص داده بود که این مقاله ها توسط هوش مصنوعی تولید شده اند. با این حال، به دنبال پوشش رسانه ای،[۱۰] و یک تحقیق کامل، دانشجویان از هر گونه تخلفی تبرئه شدند.[۱۱][۱۲]
در آوریل 2023، دانشگاه کمبریج و اعضای دیگر گروه راسل از دانشگاه های در بریتانیا پس از ابزار نگرانی هایی در مورد قابل اعتماد نبودن نرم افزار تشخیص متن هوش مصنوعی تورنتین ، ترجیح دادند دیگر از این ابزار استفاده نکنند.[۱۳] شیش ماه بعد دانشگاه تگزاس در آستین نیز استفاده از این سیستم را کنار گذاشت.[۱۴]
در می 2023 ، یک استاد در دانشگاه تگزاس ای اند ام – کامرس از Chat GPT برای تشخیص اینکه آیا محتوای دانشجویانش توسط آن نوشته شده است یا نه استفاده کرد، که Chat GPT بیان کرد اینطور است. از این رو، او تهدید کرد که کل دانشجویان کلاس را مردود می کند با وجود اینکه Chat GPT توانایی تشخیص نوشته تولید شده توسط هوش مصنوعی را ندارد.[۱۵] از فارغ التحصیلی هیچ دانشجویی به خاطر این مسئله جلوگیری نشد، به جز یک دانشجو( که به استفاده از این نرم افزار اعتراف کرد) و همه از اتهام استفاده از Chat GPT در محتوایشان تبرئه شدند.[۱۶]
دور زدن تشخیص متن[ویرایش]
نرم افزار هایی وجود دارند که برای دور زدن تشخیص متن توسط هوش مصنوعی طراحی شده اند.[۱۷]
در آگوست 2023 ، تحقیقی توسط تالونی و همکارانش در دانشگاه مگنا گراسیا و کالج سلطنتی چشم پزشکان انجام شد ، تا تشخیص متن توسط هوش مصنوعی را بررسی کنند.[۱۸]این پژوهش یک ابزار تشخیص هوش مصنوعی به نام Originality.ai را بررسی کرد، و دریافت که این ابزار GPT-4 را با دقت متوسط 91.3% تشخیص می دهد.[۱۹][۲۰]
با این حال، وقتی که این ابزار از طریق نرم افزار دیگری به نام Undetectable.ai دوباره پردازش شد، دقت تشخیص Originality.ai به طور میانگین به 27.8% کاهش یافت.[۱۸][۷]
پژوهش تالونی و همکارانش 20 خلاصه از مقالات منتشر شده در مجله Eye را تحلیل کرد، که سپس با استفاده از GPT-4.0 بازنویسی شدند. خلاصه های بازنویسی شده توسط هوش مصنوعی با استفاده از QueText برای بررسی سرقت ادبی، و با استفاده از Originality.ai برای تشخیص محتوای تولید شده توسط هوش مصنوعی مورد بررسی قرار گرفتند. این متن ها سپس از طریق یک نرم افزار خصمانه به نام Undetectable.ai مجددا پردازش شدند به منظور اینکه امتیاز تشخیص هوش مصنوعی کاهش یابد.[۱۸][۲۱][۲۲]
همچنین برخی کارشناسان بر این باورند که شیوه هایی مانند واتر مارک بی نتیجه هستند زیرا آن ها می توانند حذف شوند یا آن ها را میتوان به گونه ای اضافه شوند که منجر به نتایج مثبت کاذب شوند.[۲۳]
شناسایی تصویر، ویدیو و صدا[ویرایش]
چندین نرم افزار مدعی بر تشخیص تصویر هوش مصنوعی وجود دارند، که تصاویر تولید شده توسط هوش مصنوعی را شناسایی می کنند( برای مثال، تصاویر تولید شده توسط میدجرنی یا دال-ئی). این نرم افزار ها کاملا قابل اعتماد نیستند.[۲۴][۲۵]
نرم افزار های دیگری ادعا میکنند که دیپ فیک های ویدیویی و تصویری را شناسایی می کنند، اما این تکنولوژی نیز هنوز به طور کامل قابل اعتماد نیست.
به رغم بحث هایی که در مورد کارایی واترمارک وجود دارد، Google Deepmind به طور فعال در حال توسعه یک نرم افزار تشخیص به نام SynthID است، که با وارد کردن یک واتر مارک دیجیتالی که برای چشم انسان نامرئی است در پیکسل های یک تصویر کار میکند.[۲۶][۲۷]
مقاله های مشابه[ویرایش]
منابع[ویرایش]
This article "تشخیص محتوای تولید شده توسط هوش مصنوعی" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:تشخیص محتوای تولید شده توسط هوش مصنوعی. Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.
- ↑ "'Don't use AI detectors for anything important,' says the author of the definitive 'AI Weirdness' blog. Her own book failed the test". Fortune (به English). Retrieved 2023-10-21.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ Hern, Alex (31 December 2022). "AI-assisted plagiarism? ChatGPT bot says it has an answer for that". The Guardian. Retrieved 11 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۴٫۰ ۴٫۱ Sample, Ian (10 July 2023). "Programs to detect AI discriminate against non-native English speakers, shows study". The Guardian. Retrieved 10 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Fowler, Geoffrey A. (2 June 2023). "Detecting AI may be impossible. That's a big problem for teachers". The Washington Post. Retrieved 10 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Tangermann, Victor (9 January 2023). "There's a Problem With That App That Detects GPT-Written Text: It's Not Very Accurate". Futurism. Retrieved 10 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۷٫۰ ۷٫۱ "We tested a new ChatGPT-detector for teachers. It flagged an innocent student". The Washington Post. 1 April 2023. Retrieved 10 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Taylor, Josh (1 February 2023). "ChatGPT maker OpenAI releases 'not fully reliable' tool to detect AI generated content". The Guardian. Retrieved 11 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Williams, Rhiannon (7 July 2023). "AI-text detection tools are really easy to fool". MIT Technology Review. Retrieved 10 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "AI Detection Apps Keep Falsely Accusing Students of Cheating". Futurism. 6 June 2023. Retrieved 2023-10-21.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Jimenez, Kayla. "Professors are using ChatGPT detector tools to accuse students of cheating. But what if the software is wrong?". USA TODAY (به English). Retrieved 2023-10-21.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Klee, Miles (2023-06-06). "She Was Falsely Accused of Cheating With AI -- And She Won't Be the Last". Rolling Stone (به English). Retrieved 2023-10-21.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Staton, Bethan (3 April 2023). "Universities express doubt over tool to detect AI-powered plagiarism". Financial Times. Retrieved 10 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Carter, Tom. "Some universities are ditching AI detection software amid fears students could be falsely accused of cheating by using ChatGPT". Business Insider (به English). Retrieved 2023-10-21.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Verma, Prashnu (18 May 2023). "A professor accused his class of using ChatGPT, putting diplomas in jeopardy". The Washington Post. Retrieved 10 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "College instructor put on blast for accusing students of using ChatGPT". NBC News. 18 May 2023. Retrieved 10 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ ۱۸٫۰ ۱۸٫۱ ۱۸٫۲ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ Wiggers, Kyle (2023-02-16). "Most sites claiming to catch AI-written text fail spectacularly". TechCrunch (به English). Retrieved 2023-10-21.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "AI Content Checker and Plagiarism Check | GPT-4 | ChatGPT". originality.ai. Retrieved 2023-10-21.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "The Truly Undetectable AI Content Writing Tool". Undetectable AI (به English). Retrieved 2023-12-02.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Thompson, David.(13 Dec 2023). Researchers Say Undetectable.ai Is A Modern Threat To Academia Science Times. Retrieved 13 Dec 2023
- ↑ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ Thompson, Stuart A.; Hsu, Tiffany (28 June 2023). "How Easy Is It to Fool A.I.-Detection Tools?". The New York Times. Retrieved 10 July 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Rizwan, Choudhury (October 15, 2023). "Expert debunks AI tool's claim that Israel's photo is fake". Interesting Engineering. Retrieved October 22, 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Pierce, David (2023-08-29). "Google made a watermark for AI images that you can't edit out". The Verge. Retrieved 2023-10-21.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Wiggers, Kyle (2023-08-29). "DeepMind partners with Google Cloud to watermark AI-generated images". TechCrunch. Retrieved 2023-10-21.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.