私たちの社会に革命をもたらす大規模言語モデル(LLM)へと進化することになった初期のニューラルネットワークは、もともと、脳がどのように情報を処理するかを研究する目的で開発されました。皮肉なことに、これらのモデルが洗練されるにつれ、内部の情報処理経路は不透明になっており、現在では何兆もの調整可能なパラメータを持つモデルも登場しています。
しかし、このほど、沖縄科学技術大学院大学(OIST)認知脳ロボティクス研究ユニットの研究チームが、ニューラルネットワークのさまざまな内部状態にアクセスできる新しいアーキテクチャを備えた身体性知能モデルを開発しました。このモデルは、子どもが一般化する方法を学ぶのと同じ方法で学習しているように見えます。