جیپیتی ۳
مدل زبانی بزرگ بر پایه ترنسفومر 2020 / From Wikipedia, the free encyclopedia
ترنسفورمر تولیدگر از پیش آموزشدیده ۳ (به انگلیسی: Generative Pre-trained Transformer) (اختصاری GPT-3) یک مدل زبانی خودگرا است که از یادگیری عمیق برای تولید متنی شبیه انسان استفاده میکند.
نویسنده(های) اصلی | اوپنایآی |
---|---|
انتشار اولیه | ۱۱ ژوئن ۲۰۲۰ (بتا) |
مخزن | |
جایگزین برای | جیپیتی ۲ |
جایگزین شده با | جیپیتی ۳.۵ جیپیتی ۴ |
نوع | |
وبگاه | openai |
این سومین مدل پیشبینی زبان در سری GPT-n (و جانشین GPT-2) است که توسط اوپن ایآی ایجاد شدهاست.[1] نسخه کامل GPT-3 دارای ظرفیت ۱۷۵ میلیارد پارامتر یادگیری ماشین است. GPT-3، که در ماه مه ۲۰۲۰ معرفی شد و از ژوئیه ۲۰۲۰ در مرحله آزمایشی قرار دارد،[2] بخشی از روند سیستمهای پردازش زبان طبیعی (NLP) در ارائه زبان از پیش آموزش دیدهاست.
کیفیت متن تولید شده توسط GPT-3 به حدی بالا است که تعیین اینکه آیا توسط انسان نوشته شدهاست یا خیر، اندکی دشوار است، که دارای مزایا و خطرات است. سی و یک محقق و مهندس اوپن ایآی مقاله اصلی خود را در ۲۸ می ۲۰۲۰ معرفی کرد که GPT-3 را معرفی میکرد. آنها در مقاله خود در مورد خطرات احتمالی GPT-3 هشدار دادند و خواستار تحقیق برای کاهش خطر شدند. : 34 دیوید چالمرز، فیلسوف استرالیایی، GPT-3 را «یکی از جالبترین و مهمترین سیستمهای هوش مصنوعی تولید شده تا به حال» توصیف کرد.[3]
مایکروسافت در ۲۲ سپتامبر ۲۰۲۰ اعلام کرد که مجوز استفاده «انحصاری» از GPT-3 را دریافت کردهاست. دیگران هنوز میتوانند از واسط برنامهنویسی کاربردی عمومی برای دریافت خروجی استفاده کنند، اما فقط مایکروسافت به مدل اصلی GPT-3 دسترسی دارد.