
ChatGPTは現代を代表する最先端AIとして語られることが多い。どんな質問にも答え、専門家のように振る舞う。そのため「AIはここまで来たのか」と感じる人も少なくないだろう。
しかし、その仕組みを少し冷静に見てみると、意外な事実が浮かび上がる。GPTは見かけや規模こそ最新だが、考え方そのものは1960年代に研究されていたAIと本質的に同じ系譜にある。
目次
1960年代のAIは何をしていたのか
1960年代から70年代にかけて、「専門家の判断を機械にやらせよう」という試みが行われていた。
当時のAIは「エキスパートシステム」と呼ばれ、医師や技術者の知識を細かいルールとして書き出し、それを順番に当てはめて答えを出していた。
一見すると賢く見えるが、実際には質問や回答の内容を理解しているわけではない。「もしAならB」「条件Cが成り立つなら結論D」という型をなぞっているだけで、自分の答えが正しいかどうかを自覚することはできなかった。
重要なのは、エキスパートシステムが「専門家のように振る舞う」ことを目的としていた点である。本物の理解や自律的な判断ではなく、あくまで外から見て賢く見えることがゴールだった。
GPTは何が進化して、何が変わっていないのか
GPTは昔のAIのように人がルールを一つ一つ書いているわけではない。大量の文章を読み込み、言葉の繋がり方を学習している。この点は大きな違いである。
しかし、GPTが最終的にやっていることはとてもシンプルだ。「この流れなら、次に来そうな言葉は何か」を計算し、それを並べているだけである。
つまり、仕組みは高度になったが、「自分が何を言っているのかを理解していない」という点は、1960年代のAIと変わっていない。
GPTが平気で間違える理由
ChatGPTなどの現代の生成AIは時々、もっともらしい嘘や誤情報を言う。それは真実を意識して話していないからである。
人間は「本当はこうだが、今は言わない」「これは間違っているかもしれない」と考えながら話す。しかし、GPTにはそのための基準がない。ただ、それらしく聞こえる文章を作っているだけなので、間違っていても自分では気づけない。
この性質は、昔の古い時代のAIが持っていた弱点と全く同じである。
映画『インターステラー』のTARSとの違い
映画『インターステラー』に登場するロボットTARSのAIは、GPTとは全く別の考え方で描かれている。TARSは状況を理解し、目的を意識し、そのうえで判断する。
TARSは「これは危険な選択だ」「今は真実を伏せるべきだ」といった形で、自分の状態を理解している。間違いが起きれば、それはTARS自身の判断ミスになる。
このような仕組みは、1960年代のAIにも、現代の生成AIにも存在しない。
TARSが性格を調整できるという意味
TARSにはユーモアや誠実さを数値で調整する設定がある。これは性格すら任務の一部として管理されているということを意味する。
一方、GPTは会話の流れやユーザーの指示によって性格が変わっているように見えるだけで、内部に性格という設定があるわけではない。ここにも、「主体」と「道具」の違いがはっきり表れている。
なぜGPTはこの形に留まっているのか
ここで注意すべきなのは、GPTが意図的に主体性を持たないよう設計されていると断定することはできないという点である。実際には、技術的、社会的な制約の中で、現在到達している段階がこの形だと考える方が自然である。
AIが自分の判断の正しさを理解し、誤りを自覚し、責任を引き受ける仕組みは、技術的にも社会的にもまだ研究段階にある。ハルシネーション、つまり、もっともらしい誤情報を生成してしまう問題についても、開発者や利用者の誰もが望んで許容しているわけではない。
現代の生成AIは、自己理解や自己検証を実現できていない未完成な技術であり、その限界がそのまま挙動として現れていると見るべきである。
現代の生成AIは最新技術を用いた研究段階の旧系譜AI
GPTは確かに便利で高性能な技術である一方、その仕組みは1960年代から模索してきた「専門家の知識を再現するAI」という流れの延長線上にある。
現在の技術水準では、自己理解や自己検証を備えたAIは研究段階にあり、GPTはその途中にある存在だと言える。
映画『インターステラー』のTARSのような、自分で判断し責任を引き受けるAIは、技術的にも社会的にも現時点ではフィクションの領域に近い。








