Loading AI tools
מודל השפה המשתמש בלמידה עמוקה כדי לייצר טקסט דמוי אדם מוויקיפדיה, האנציקלופדיה החופשית
GPT-3 (ראשי תיבות של: Generative Pre-trained Transformer 3, מילולית בעברית, טרנספורמר מאומן מראש בעל יכולת יצירה הוא מודל שפה אוטורגרסיבי, המשתמש בלמידה עמוקה כדי לייצר טקסט דמוי אנושי (כפי שאדם מוכשר היה מייצר).
מפתח | OpenAI |
---|---|
מחזור חיים | 28 במאי 2020 – הווה (4 שנים) |
גרסה אחרונה | 175B |
סוג רישיון | רישיון קנייני |
קוד מקור | https://github.com/openai/gpt-3 |
arxiv | |
GPT-3 הוא מודל חיזוי השפה מהדור השלישי בסדרת GPT-n (והיורש ל-GPT-2) שנוצר על ידי OpenAI, מעבדת מחקר לבינה מלאכותית בסן פרנסיסקו שנוסדה על ידי אילון מאסק וסם אלטמן.[1] לגרסה המלאה של GPT-3 קיבולת של 175 מיליארד פרמטרים של למידת מכונה. GPT-3, שהוצג במאי 2020, והיה בבדיקת בטא החל מיולי 2020,[2] הוא חלק ממגמה במערכות עיבוד שפות טבעיות (NLP) של ייצוגי שפה שהוכשרו מראש. לפני שחרורו של GPT-3, מודל השפה הגדול ביותר היה Turing NLG של מיקרוסופט, שהוצג בפברואר 2020, עם קיבולת של 17 מיליארד פרמטרים, פחות מעשירית מאשר של GPT-3.
איכות הטקסט שנוצר על ידי GPT-3 כה גבוהה עד שקשה להבדילה מזו שכתב אדם אמיתי. שלושים ואחד חוקרי ומהנדסי OpenAI הציגו את המאמר המקורי ב-28 במאי 2020 שחשף את GPT-3. במאמרם הם הזהירו מפני הסכנות הפוטנציאליות של GPT-3 וקראו למחקר כדי להפחית את הסיכון. דייוויד צ'אלמרס, פילוסוף אוסטרלי, תיאר את GPT-3 כ"אחת ממערכות ה-AI המעניינות והחשובות ביותר שיוצרו אי פעם."[3]
מיקרוסופט הודיעה ב-22 בספטמבר 2020 כי היא רכשה זכויות שימוש בלעדיות בקוד של GPT-3; אחרים עדיין יכולים להשתמש ב-API הציבורי לקבלת פלט, אך רק למיקרוסופט יש גישה לקוד הבסיסי של GPT-3.
בשנת 2022 שוחררה גרסה מתקדמת "GPT-3.5". יש לה תכונות מתקדמות. מנוע חיפוש Perplexity מבוסס על גרסה זו.
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.