レビュー
[本137] 岡野原『大規模言語モデルは新たな知能か』

[本137] 岡野原『大規模言語モデルは新たな知能か』

Pocket

様々な分野の人が手に取っている報告を見かけるのでコメント不要かなとも思いつつ、読了。

第5、6章はそれなりにインフォーマティブだったものの、個人的にはだいたい知っていることの範囲で、第3章までは文章自体にChatGPTみがあって(誰に向けて語っているのかよくわからない、まさに機械的なトーンで)読み進めるのになかなか苦労した。

まあ、ほとんど一切の前提知識なくChatGPT等について理解してもらおうとするなら、こういう書き方になるのかな〜と思う一方で、ChatGPTについて知りたい先生方に本書を薦めるかといえばそうでもないというのがおもしろいところ。

一点、「記憶も無尽蔵といってよく、自分との過去の対話をすべて正確に記憶しておいてくれる」(p. 124)とある。1件1件のChatツリーの保存についてはどうかわからないが、一つのやり取りでChat GPTが参照できる長さ(トークン長)には現状では限りがあり、GPT-3.5で4,096トークン、GPT-4で32,768と言うから(後者の場合、大抵は気にならないとしても)、前提知識のない人向けの書籍だとすれば尚更、現状の大規模言語モデルについては正確さを欠く記述ではないだろうか。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です