LLaMA
ウィキペディア フリーな encyclopedia
LLaMA(ラマ、Large Language Model Meta AI)は、Meta AI が2023年2月に発表した大規模言語モデル(LLM)である[1]。
![]() | この記事は英語版の対応するページを翻訳することにより充実させることができます。(2024年1月) 翻訳前に重要な指示を読むには右にある[表示]をクリックしてください。
|
![]() |
この項目では、大規模言語モデルについて説明しています。その他のラマについては「ラマ」をご覧ください。 |
![]() |
「LaMDA」とは異なります。 |
LLaMA の開発者の論文[2]によれば、70億パラメータ(業界の慣習でこれをBillionのBを使って「7B」と書くことがある。以下同様。)から650億パラメータ(65B)まで、いくつものサイズのモデルが作られた。LLaMA-13Bの性能は、GPT-3-175BをほとんどのNLPベンチマークで上回る。そして、LLaMA-65Bの性能は、GoogleのPaLM-540BやDeepMindのChinchilla(英語版)-70Bなど、最先端モデルに匹敵する。