You can edit almost every page by Creating an account. Otherwise, see the FAQ.

کلود (مدل زبان)

از EverybodyWiki Bios & Wiki
پرش به:ناوبری، جستجو

Claude
توسعه‌دهنده(ها)Anthropic
انتشار ابتداییمارس ۲۰۲۳؛ ۱ سال پیش (۲۰۲۳-۰۳)
مخزن
موتور
    خطای لوآ در پودمان:Wd در خط 165: attempt to index field 'wikibase' (a nil value).
خطای لوآ در پودمان:EditAtWikidata در خط 37: attempt to index field 'wikibase' (a nil value).
گونه
پروانهProprietary
وبگاه

کلود خانواده‌ای از مدل های زبان بزرگ است که توسط شرکت Anthropic توسعه یافته است. [۱] اولین مدل آن در ماه مارس منتشر شد. Claude 3 در مارس ۲۰۲۳ منتشر شد که می‌تواند تصاویر را نیز تجزیه و تحلیل و بررسی کند. [۲]

آموزش[ویرایش]

مدل های کلود ترانسفورماتورهای از پیش آموزش دیده مولدهستند. آن‌ها پیش‌ آموزش شده‌اند تا کلمه بعدی را در متن ها پیش‌بینی کنند. سپس مدل‌های کلود با هوش مصنوعی قانون اساسی (Constitutional AI) برای مفید، صادق و بی‌ خطر بودن آن‌ها تنظیم شده‌اند. [۳] [۴]

هوش مصنوعی قانون اساسی[ویرایش]

هوش مصنوعی قانون اساسی شیوه ای است که توسط شرکت Anthropic برای آموزش سیستم‌ های هوش مصنوعی، به خصوص مدل‌های زبانی مانند کلود، توسعه یافته است تا بدون نیاز به بازخورد گسترده انسانی، بی‌ خطر و مفید باشند. این روش که در مقاله‌ای با عنوان «هوش مصنوعی قانون اساسی: بی‌ خطری از طریق بازخورد هوش مصنوعی» شرح داده شده است، شامل دو بخش است: یادگیری تحت نظارت و یادگیری تقویتی . [۴]

در بخش یادگیری با نظارت، مدل برای پاسخ به سوالات (prompts) خروجی تولید می‌کند، سپس بر اساس مجموعه‌ای از اصول راهنما (که به آن «قانون اساسی» گفته می‌شود) به نقد خود این خروجی‌ها می‌ پردازد و آن‌ها را بازبینی می‌ کند. سپس مدل بر اساس این پاسخ‌ های بازبینی‌ شده، fine-tuned می‌شود. [۴]

در یادگیری تقویتی از بازخورد هوش مصنوعی (RLAIF)، خروجی‌ها تولید میشوند و بر پایه ی تطابق آن‌ها با «قانون اساسی» با یکدیگر مقایسه می‌شوند. این مجموعه داده از بازخورد هوش مصنوعی برای آموزش یک مدل ترجیحی (preference model) استفاده می‌شود که پاسخ‌ها را بر اساس میزان مطابقت آن‌ها با «قانون اساسی» ارزیابی می‌کند. سپس مدل کلود برای همسو شدن با این مدل ترجیحی هماهنگ شود . [۵] [۴]

این رویکرد، آموزش دستیارهای هوش مصنوعی را مفید و بدون خطر هستند و می‌توانند مخالفت‌ های خود را با درخواست‌ های مضر توضیح دهند، امکان‌پذیر می‌کند که در نتیجه شفافیت افزایش پیدا میکند و وابستگی به نظارت انسانی کاهش میابد. [۶] [۷]

"قانون اساسی" برای کلود شامل ٧٥ بند بود که بخش‌هایی از آن از اعلامیه جهانی حقوق بشر سازمان ملل بود گرفته شده است . [۶] [۳]

مدل ها[ویرایش]

کلود[ویرایش]

کلود اولین نسخه از مدل زبان شرکت Anthropic بود که در مارس ۲۰۲۳ منتشر شد، [۸] با وجود مهارت کلود در انجام وظایف مختلف، این مدل در زمینه کد‌نویسی، ریاضی و استدلال محدودیت‌هایی داشت. [۹]شرکت Anthropic با شرکت هایی مانند Notion (نرم افزار مدیریت کار) و Quora (برای کمک به توسعه ربات چت پو ) همکاری کرد. [۹]

کلود اینستنت[ویرایش]

کلود در دو نسخه‌ی کلود و کلود اینستنت، منتشر شد که کلود اینستنت نسخه سریعتر، ارزان‌ تر و سبک‌ تری است. کلود اینستنت طول متن ورودی توکن دارد (حدود 75000 کلمه). [۱۰]

کلود 2[ویرایش]

کلود ۲ نسخه اصلی بعدی کلود بود که در ۱۱ جولای ۲۰۲۳ منتشر شد و در دسترس عموم قرار گرفت، در حالی که کلود ۱ تنها برای کاربران منتخب تأیید شده توسط Anthropic در دسترس بود. [۱۱]

کلود ۲ پنجره متن (context window) خود را از ۹,۰۰۰ توکن به ۱۰۰,۰۰۰ توکن افزایش داد. [۸] این ویژگی‌ها شامل توانایی آپلود فایل‌های PDF و سایر اسنادی است که کلود را قادر می‌سازد تا متون آن‌ها را بخواند، خلاصه کند و در انجام کارها به شما کمک کند. این قابلیت به کلود ۲ امکان می‌دهد تا در طیف وسیعی از وظایف مانند تحقیق، نوشتن و تحلیل داده‌ها مفید باشد.

کلود 2.1[ویرایش]

کلود ۲.۱ تعداد توکن‌هایی که چت‌بات می‌توانست مدیریت کند را دو برابر کرد و آن را به پنجره‌ای ۲۰۰,۰۰۰ توکنی افزایش داد که تقریباً معادل ۵۰۰ صفحه متن نوشته شده است. [۱]

شرکت Anthropic می‌گوید که مدل جدید نسبت به مدل‌های قبلی خود، احتمال کمتری برای تولید اظهارات نادرست دارد. [۱۲]

کلود 3[ویرایش]

کلود ۳ در تاریخ ۱۴ مارس ۲۰۲۴ منتشر شد و طبق بیانیه‌ی مطبوعاتی، ادعا شده که این مدل در طیف وسیعی از وظایف شناختی، به معیارهای جدیدی در صنعت دست یافته است. خانواده کلود ۳ شامل سه مدل پیشرفته به ترتیب توانایی آن‌ها است: هایکو، سونِت و اوپوس. نسخه پیش فرض کلود ۳ اوپوس دارای پنجره متن ۲۰۰,۰۰۰ توکنی است، اما این مقدار برای موارد خاص تا ۱ میلیون توکن قابل افزایش است. [۱۳] [۲]

به نظر می‌رسد کلود 3 استدلال فراشناختی از خود نشان داده است، از جمله توانایی درک اینکه در طول ارزیابی سوزن در انبار کاه به طور مصنوعی مورد آزمایش قرار می گیرد. [۱۴]

دسترسی[ویرایش]

دسترسی با محدودیت استفاده رایگان است، اما به یک آدرس ایمیل و یک شماره موبایل نیاز دارد.

نقد[ویرایش]

کلود ۲ به خاطر هم‌راستا بودن شدید با اخلاق که ممکن است قابلیت استفاده و عملکرد را کاهش دهد، مورد انتقاد قرار گرفته است. به درخواست‌های بی‌خطر کاربران، مانند پرسش برنامه‌نویسی«چگونه می‌توانم تمام فرآیندهای پایتون را در سرور اوبونتو خود بکشم ؟»،پاسخ رد داده شده‌است. این موضوع منجر به بحثی در مورد «هزینه هم‌ راستا بودن» (هزینه اطمینان از همسویی یک سیستم هوش مصنوعی) در توسعه هوش مصنوعی شده‌است، با بحث‌هایی که بر روی برقراری تعادل بین ملاحظات اخلاقی و کارایی عملی متمرکز است. منتقدان طرفدار استقلال و اثربخشی کاربر هستند، در حالی که طرفداران بر اهمیت هوش مصنوعی اخلاقی تأکید می‌کنند.. [۱۵] [۱۲]

منابع[ویرایش]

  1. ۱٫۰ ۱٫۱ Davis, Wes (2023-11-21). "OpenAI rival Anthropic makes its Claude chatbot even more useful". The Verge (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  2. ۲٫۰ ۲٫۱ Whitney, Lance (March 4, 2024). "Anthropic's Claude 3 chatbot claims to outperform ChatGPT, Gemini". ZDNET (به English). Retrieved 2024-03-05.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  3. ۳٫۰ ۳٫۱ "What to Know About Claude 2, Anthropic's Rival to ChatGPT". TIME (به English). 2023-07-18. Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  4. ۴٫۰ ۴٫۱ ۴٫۲ ۴٫۳ "Claude's Constitution". Anthropic (به English). May 9, 2023. Retrieved 2024-03-26.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  5. Eliot, Lance (May 25, 2023). "Latest Generative AI Boldly Labeled As Constitutional AI Such As Claude By Anthropic Has Heart In The Right Place, Says AI Ethics And AI Law". Forbes (به English). Retrieved 2024-03-27.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  6. ۶٫۰ ۶٫۱ خطای لوآ در پودمان:Citation/CS1/en/Identifiers در خط 47: attempt to index field 'wikibase' (a nil value).
  7. Mok, Aaron. "A ChatGPT rival just published a new constitution to level up its AI guardrails, and prevent toxic and racist responses". Business Insider (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  8. ۸٫۰ ۸٫۱ Drapkin, Aaron (2023-10-27). "What Is Claude AI and Anthropic? ChatGPT's Rival Explained". Tech.co (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  9. ۹٫۰ ۹٫۱ "Introducing Claude". Anthropic. March 14, 2023.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  10. Yao, Deborah (August 11, 2023). "Anthropic's Claude Instant: A Smaller, Faster and Cheaper Language Model". AI Business.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  11. Matthews, Dylan (2023-07-17). "The $1 billion gamble to ensure AI doesn't destroy humanity". Vox (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  12. ۱۲٫۰ ۱۲٫۱ "Anthropic Announces Claude 2.1 LLM with Wider Context Window and Support for AI Tools". InfoQ (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  13. "Introducing the next generation of Claude". Anthropic (به English). Retrieved 2024-03-04.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  14. Edwards, Benj (2024-03-05). "Anthropic's Claude 3 causes stir by seeming to realize when it was being tested". Ars Technica (به English). Retrieved 2024-03-09.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.
  15. Glifton, Gerald (January 3, 2024). "Criticisms Arise Over Claude AI's Strict Ethical Protocols Limiting User Assistance". Light Square (به English). Retrieved 2024-01-23.صفحه پودمان:Citation/CS1/en/styles.css محتوایی ندارد.


This article "کلود (مدل زبان)" is from Wikipedia. The list of its authors can be seen in its historical and/or the page Edithistory:کلود (مدل زبان). Articles copied from Draft Namespace on Wikipedia could be seen on the Draft Namespace of Wikipedia and not main one.



Read or create/edit this page in another language[ویرایش]