کلود (مدل زبان)
توسعهدهنده(ها) | Anthropic |
---|---|
انتشار ابتدایی | مارس ۲۰۲۳ |
مخزن |
|
موتور |
|
گونه | |
پروانه | Proprietary |
وبگاه |
کلود خانوادهای از مدل های زبان بزرگ است که توسط شرکت Anthropic توسعه یافته است. [۱] اولین مدل آن در ماه مارس منتشر شد. Claude 3 در مارس ۲۰۲۳ منتشر شد که میتواند تصاویر را نیز تجزیه و تحلیل و بررسی کند. [۲]
آموزش[ویرایش]
مدل های کلود ترانسفورماتورهای از پیش آموزش دیده مولدهستند. آنها پیش آموزش شدهاند تا کلمه بعدی را در متن ها پیشبینی کنند. سپس مدلهای کلود با هوش مصنوعی قانون اساسی (Constitutional AI) برای مفید، صادق و بی خطر بودن آنها تنظیم شدهاند. [۳] [۴]
هوش مصنوعی قانون اساسی[ویرایش]
هوش مصنوعی قانون اساسی شیوه ای است که توسط شرکت Anthropic برای آموزش سیستم های هوش مصنوعی، به خصوص مدلهای زبانی مانند کلود، توسعه یافته است تا بدون نیاز به بازخورد گسترده انسانی، بی خطر و مفید باشند. این روش که در مقالهای با عنوان «هوش مصنوعی قانون اساسی: بی خطری از طریق بازخورد هوش مصنوعی» شرح داده شده است، شامل دو بخش است: یادگیری تحت نظارت و یادگیری تقویتی . [۴]
در بخش یادگیری با نظارت، مدل برای پاسخ به سوالات (prompts) خروجی تولید میکند، سپس بر اساس مجموعهای از اصول راهنما (که به آن «قانون اساسی» گفته میشود) به نقد خود این خروجیها می پردازد و آنها را بازبینی می کند. سپس مدل بر اساس این پاسخ های بازبینی شده، fine-tuned میشود. [۴]
در یادگیری تقویتی از بازخورد هوش مصنوعی (RLAIF)، خروجیها تولید میشوند و بر پایه ی تطابق آنها با «قانون اساسی» با یکدیگر مقایسه میشوند. این مجموعه داده از بازخورد هوش مصنوعی برای آموزش یک مدل ترجیحی (preference model) استفاده میشود که پاسخها را بر اساس میزان مطابقت آنها با «قانون اساسی» ارزیابی میکند. سپس مدل کلود برای همسو شدن با این مدل ترجیحی هماهنگ شود . [۵] [۴]
این رویکرد، آموزش دستیارهای هوش مصنوعی را مفید و بدون خطر هستند و میتوانند مخالفت های خود را با درخواست های مضر توضیح دهند، امکانپذیر میکند که در نتیجه شفافیت افزایش پیدا میکند و وابستگی به نظارت انسانی کاهش میابد. [۶] [۷]
"قانون اساسی" برای کلود شامل ٧٥ بند بود که بخشهایی از آن از اعلامیه جهانی حقوق بشر سازمان ملل بود گرفته شده است . [۶] [۳]
مدل ها[ویرایش]
کلود[ویرایش]
کلود اولین نسخه از مدل زبان شرکت Anthropic بود که در مارس ۲۰۲۳ منتشر شد، [۸] با وجود مهارت کلود در انجام وظایف مختلف، این مدل در زمینه کدنویسی، ریاضی و استدلال محدودیتهایی داشت. [۹]شرکت Anthropic با شرکت هایی مانند Notion (نرم افزار مدیریت کار) و Quora (برای کمک به توسعه ربات چت پو ) همکاری کرد. [۹]
کلود اینستنت[ویرایش]
کلود در دو نسخهی کلود و کلود اینستنت، منتشر شد که کلود اینستنت نسخه سریعتر، ارزان تر و سبک تری است. کلود اینستنت طول متن ورودی توکن دارد (حدود 75000 کلمه). [۱۰]
کلود 2[ویرایش]
کلود ۲ نسخه اصلی بعدی کلود بود که در ۱۱ جولای ۲۰۲۳ منتشر شد و در دسترس عموم قرار گرفت، در حالی که کلود ۱ تنها برای کاربران منتخب تأیید شده توسط Anthropic در دسترس بود. [۱۱]
کلود ۲ پنجره متن (context window) خود را از ۹,۰۰۰ توکن به ۱۰۰,۰۰۰ توکن افزایش داد. [۸] این ویژگیها شامل توانایی آپلود فایلهای PDF و سایر اسنادی است که کلود را قادر میسازد تا متون آنها را بخواند، خلاصه کند و در انجام کارها به شما کمک کند. این قابلیت به کلود ۲ امکان میدهد تا در طیف وسیعی از وظایف مانند تحقیق، نوشتن و تحلیل دادهها مفید باشد.
کلود 2.1[ویرایش]
کلود ۲.۱ تعداد توکنهایی که چتبات میتوانست مدیریت کند را دو برابر کرد و آن را به پنجرهای ۲۰۰,۰۰۰ توکنی افزایش داد که تقریباً معادل ۵۰۰ صفحه متن نوشته شده است. [۱]
شرکت Anthropic میگوید که مدل جدید نسبت به مدلهای قبلی خود، احتمال کمتری برای تولید اظهارات نادرست دارد. [۱۲]
کلود 3[ویرایش]
کلود ۳ در تاریخ ۱۴ مارس ۲۰۲۴ منتشر شد و طبق بیانیهی مطبوعاتی، ادعا شده که این مدل در طیف وسیعی از وظایف شناختی، به معیارهای جدیدی در صنعت دست یافته است. خانواده کلود ۳ شامل سه مدل پیشرفته به ترتیب توانایی آنها است: هایکو، سونِت و اوپوس. نسخه پیش فرض کلود ۳ اوپوس دارای پنجره متن ۲۰۰,۰۰۰ توکنی است، اما این مقدار برای موارد خاص تا ۱ میلیون توکن قابل افزایش است. [۱۳] [۲]
به نظر میرسد کلود 3 استدلال فراشناختی از خود نشان داده است، از جمله توانایی درک اینکه در طول ارزیابی سوزن در انبار کاه به طور مصنوعی مورد آزمایش قرار می گیرد. [۱۴]
دسترسی[ویرایش]
دسترسی با محدودیت استفاده رایگان است، اما به یک آدرس ایمیل و یک شماره موبایل نیاز دارد.
نقد[ویرایش]
کلود ۲ به خاطر همراستا بودن شدید با اخلاق که ممکن است قابلیت استفاده و عملکرد را کاهش دهد، مورد انتقاد قرار گرفته است. به درخواستهای بیخطر کاربران، مانند پرسش برنامهنویسی«چگونه میتوانم تمام فرآیندهای پایتون را در سرور اوبونتو خود بکشم ؟»،پاسخ رد داده شدهاست. این موضوع منجر به بحثی در مورد «هزینه هم راستا بودن» (هزینه اطمینان از همسویی یک سیستم هوش مصنوعی) در توسعه هوش مصنوعی شدهاست، با بحثهایی که بر روی برقراری تعادل بین ملاحظات اخلاقی و کارایی عملی متمرکز است. منتقدان طرفدار استقلال و اثربخشی کاربر هستند، در حالی که طرفداران بر اهمیت هوش مصنوعی اخلاقی تأکید میکنند.. [۱۵] [۱۲]
منابع[ویرایش]
- ↑ ۱٫۰ ۱٫۱ Davis, Wes (2023-11-21). "OpenAI rival Anthropic makes its Claude chatbot even more useful". The Verge (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۲٫۰ ۲٫۱ Whitney, Lance (March 4, 2024). "Anthropic's Claude 3 chatbot claims to outperform ChatGPT, Gemini". ZDNET (به English). Retrieved 2024-03-05.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۳٫۰ ۳٫۱ "What to Know About Claude 2, Anthropic's Rival to ChatGPT". TIME (به English). 2023-07-18. Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۴٫۰ ۴٫۱ ۴٫۲ ۴٫۳ "Claude's Constitution". Anthropic (به English). May 9, 2023. Retrieved 2024-03-26.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Eliot, Lance (May 25, 2023). "Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law". Forbes (به English). Retrieved 2024-03-27.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۶٫۰ ۶٫۱ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
- ↑ Mok, Aaron. "A ChatGPT rival just published a new constitution to level up its AI guardrails, and prevent toxic and racist responses". Business Insider (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۸٫۰ ۸٫۱ Drapkin, Aaron (2023-10-27). "What Is Claude AI and Anthropic? ChatGPT's Rival Explained". Tech.co (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۹٫۰ ۹٫۱ "Introducing Claude". Anthropic. March 14, 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Yao, Deborah (August 11, 2023). "Anthropic's Claude Instant: A Smaller, Faster and Cheaper Language Model". AI Business.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Matthews, Dylan (2023-07-17). "The $1 billion gamble to ensure AI doesn't destroy humanity". Vox (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ ۱۲٫۰ ۱۲٫۱ "Anthropic Announces Claude 2.1 LLM with Wider Context Window and Support for AI Tools". InfoQ (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ "Introducing the next generation of Claude". Anthropic (به English). Retrieved 2024-03-04.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Edwards, Benj (2024-03-05). "Anthropic's Claude 3 causes stir by seeming to realize when it was being tested". Ars Technica (به English). Retrieved 2024-03-09.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
- ↑ Glifton, Gerald (January 3, 2024). "Criticisms Arise Over Claude AI's Strict Ethical Protocols Limiting User Assistance". Light Square (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
This article "کلود (مدل زبان)" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:کلود (مدل زبان). Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.