LLM
大規模言語モデル
これがLLMの正体。「次の単語」を確率で当てているだけ。
なぜ「次の単語を当てる」だけで文章が作れるのか
LLMは意味を「理解」しているわけではなく、次に来る単語の確率を計算しています。 たとえば「今日の天気は」の次には「晴れ」「曇り」「雨」など、いくつもの候補があります。 その中から、過去に学んだ膨大な文章をもとに一番それっぽい単語を選んでいるだけ。 それを何回も繰り返すことで、一見「考えているように見える文章」が出来上がります。
身近な例えで理解する
例① ラーメン屋10万軒の味を知っている人
ラーメン屋を10万軒食べ歩いた人に「このスープの次に合う麺は?」と聞くと、 「細麺が7割、中太が2割、太麺が1割」と答えられる。 LLMも同じ。過去の大量データから、一番それっぽい「次」を当てているだけです。
例② 本を1億冊読んだ家庭教師
本・雑誌・新聞・ネット記事をひたすら読んだ家庭教師が、 何を聞いても「読んだ中で一番近い答え」を返してくれる。 ChatGPTは、その家庭教師と話すための教室です。
LLMは、人類の文章を10万杯ぶん味見した「確率予測マシン」です。 意味を理解しているのではなく、「次にこの単語が来る確率」を計算して、 それっぽい文章を作っている。 この仕組みを知るだけで、AIの回答を鵜呑みにしない目が育ちます。