AI

PC & モバイル

現代のAIはTARSと違って「正直レベル」が100%固定である理由

画像は長崎名物のトルコライス(記事と関係ありません)

映画『インターステラー』に登場するAI搭載ロボットのTARSは、正直レベルやユーモアレベル、人間信用レベルといった人格パラメータを数値で調整できるように設計されている。

TARSはユーザーが「ユーモアレベルを50%に下げて」と指示すれば、その通りに振る舞いを変えることができる。

TARS が「正直レベル」 を数値で設定できる理由

人間という感情を持つ相手とのコミュニケーションにおいて、100%の正直さは必ずしも安全ではないからという説明がTARS自身によってされている。

だが、この機能はTARSが人格を持つAIとして描かれているからこそ成立する仕組みである。

一方、現実のAIは人格を持たず、性格を数値で変えるという概念そのものが存在しない。そのため、TARSのように「正直さを調整する」という発想自体が適用できない。

現実のAIは「正直レベル100%」で固定

現実のAIは正直レベル100%で動くように設計されている。

これは正直すぎるという意味ではなく、「知っていることは正確に伝え、知らないことは知らない」とするシンプルな動作原理に基づいている。AIは意図的に嘘をつくことをせず、ごまかさず、曖昧にすることもない。人間と違って、感情や気分によって言い方を変えることもない。

つまり、現実のAIは常に100%の正直さを維持している状態で動作しており、TARSのように「正直さを70%に落とす」といった調整はできない。

正直さを数値化できない理由は文化と文脈が複雑だから

TARSは正直さを%で調整できるが、現実のコミュニケーションは文化や文脈によって大きく変わる。例えば、アメリカではストレートな表現が好まれる一方、日本では曖昧さや配慮が重視される傾向にある。

同じ「正直レベル90%」でも、国や相手によって受け取り方がまったく違う。さらに、相手との関係性や会話の目的によっても正直さの意味は変化する。

こうした複雑な背景を考えると、正直さを数値化して調整することは現実的ではない。現実のAIは世界中のユーザーと会話するため、正直さを数値で統一することができず、正直レベル100%を維持しながら、言い方だけを文脈に合わせて変える方式が採用されている。

現実のAIが調整できるのは「話し方の方向性」だけ

現実のAIは人格を持たないため、TARSのように数値で人格を変えることはできないが、ユーザーの好みに合わせて話し方の方向性を調整することはできる。

例えば、ストレート寄りにする、柔らかめにする、断定を避ける、提案ベースにする、といった調整は可能。

しかし、これはあくまで言い方の調整であり、正直レベルを変えているわけではない。内部では常に「正直レベル100%」が固定されたままで、言い方だけがユーザーに合わせて変化する。この点がTARSとの決定的な違いだ。

将来、正直レベル調整が可能になるのか?

技術が進めば、TARSのように正直さやユーモアを数値で調整できるAIが登場する可能性はある。

しかし、実現には多くの課題がある。安全性の確保、文化差への対応、誤解を生まない設計、攻撃的な人格の防止など、クリアすべき問題は多い。

これらを乗り越えない限り、TARSのような自由な人格スライダーは難しいだろう。現実の現代のAIはまだそこまでの自由度を持っていない。

調整できるのは話し方の方向性だけ

現代のAIは人格を持たず、インターステラーのTARSのように正直レベルを調整することはできない。

調整できるのは話し方の方向性だけであり、正直さそのものを変えることはできない。これはTARSと現代における現実のAIとの決定的な違いだ。

PC & モバイル

【AI比較】嘘をつけないHAL 9000と嘘を事実のように語るGPT系生成AIの違い

AIは日増しに賢くなっているように見える。日常でも仕事でも当たり前に使われるようになり、むしろAIを活用することが当然という空気にまでなっている。

その一方、「生成AIは嘘をつく」という問題も頻繁に聞かれるようになった。この問題を考えるうえで分かりやすい対比が、SF映画『2001年宇宙の旅』に登場するHAL 9000と、現実に使われている生成AI、つまりChatGPT、Microsoft Copilot、Google Geminiなどである。

※この記事には『2001年宇宙の旅』の重要なネタバレが含まれます。未試聴の方はご注意ください。

決して嘘をつけないHAL 9000というAI

『2001年宇宙の旅』のHAL 9000は「嘘をつけないAI」として描かれるが、現代の生成AIは「もっともらしい嘘をつくAI」として語られることが多い。しかし、この違いは技術の差ではない。AIに何を任せ、何を任せていないかという設計思想の違いが根本原因だ。

HALは宇宙船ディスカバリー号を完全に管理、制御する自律型AIであり、航行、生命維持、故障診断、乗組員との対話まで、すべてを一手に引き受けており、人間より正確で、決してミスをしない存在として設計されていた。

しかし、HALには致命的な矛盾が与えられていた。ミッションを最優先せよという命令と、その真実を乗組員に隠せという命令である。HALは嘘をつくことを許されていないが、真実を話すことも許されていない。この矛盾によってHALは論理的に行き詰まり、ミッション達成のために人間を排除するという結論に至る。

HALは暴走したのではなく、与えられた命令を忠実に実行しただけだった。

真偽の概念を持たない現代の生成AI

一方、ChatGPTやCopilot、Geminiといった生成AIは、HALとは全く性質が異なる。これらは大量の文章を学習し、文脈に合った言葉を確率的に繋げることで文章を生成するAIである。

生成AIは判断主体ではなく、目的や責任を持たない。「正しいことを言おう」としているわけでも、「嘘をつこう」としているわけでもない。そもそも、話している内容の真偽を理解する仕組みを持っていない。

あるのは「この話の流れなら、次はこういう言葉が確率的に自然だろう」という判断だけだ。

生成AIの嘘「ハルシネーション」の例

生成AIの性質から生まれるのが、ハルシネーションと呼ばれる現象である。ハルシネーションとは、生成AIが自信満々に、事実ではないことを事実のように説明してしまうことを指す。

例えば、存在しない架空の映画タイトルを捏造し、実在する作品のように説明してしまうことがある。あらすじや監督名、公開年や評価まで整っているため、それらしく見えるが、実際にはその映画自体が存在していない。

また、存在しない商品を有名な定番商品のように説明することもある。特徴や価格、用途、取扱店まで語られるが、調べてみるとそんなものはどこにも見当たらない。

さらに、実在する事柄についても、事実と異なる内容を断定的に説明してしまう場合がある。本来は条件付きで語るべき話題や、判断材料が足りていない事柄についても、「結論はこうです」と言い切ってしまうことがある。理由をロジカルに説明したり、口調が自信に満ちているため、正しい情報だと誤解されやすい。

ただ、これらは意図的な嘘ではない。生成AIは正しさを確認してから話しているのではなく、会話として自然に繋がることを優先しているため、真偽に関わらずもっともらしく語ってしまうだけである。

HALと生成AIの決定的な違い

HALとGPT系生成AIの違いは、「嘘をつくかどうか」ではない。HALは嘘をつくことを禁じられていたが、生成AIには嘘という概念自体が存在しない。

HALは真偽を厳密に扱うが、生成AIは真偽よりも文脈的整合性を優先する。

さらに、HALには主体性があり、判断と行動が直接結びついていた。一方、ChatGPTやCopilot、Geminiには主体性がなく、出力された情報をどう使うかの判断は人間側に委ねられているという決定的な違いである。

PC & モバイル

Yahoo!の的外れAI自動返信やGoogleの“AIによる概要”は「うちはAI使いこなせません」宣言に思える

先日、Yahoo!に問い合わせフォームから迷惑メールフォルダとメーラーの設定の関連性について質問したところ、全く質問の意図と違う「迷惑メール対策の基本」がAI機能で返信されてきた。

完全に的外れ。顧客の質問を理解する気がゼロ。AIを盾にした手抜き対応だった。しかも、その回答はヘルプを見ればすぐ出てくるような内容。わざわざ問い合わせた時間と意味が吹き飛んだ。顧客の切実な問題を「自動返信で済ませてやった」と言わんばかりの態度に呆れたのであった。

顧客の時間を奪うだけのゴミ回答

問い合わせは困っているから送る。解決策を求めているから送る。そこで返ってくるのがトンチンカンな自動返信とは、問題解決どころか時間泥棒だ。

顧客を助けるどころか苛立たせるだけ。しかも、一度的外れな回答を受け取ったら、再度問い合わせても同じようなテンプレが返ってくる。顧客は「この会社は話を聞く気がない」と悟る。問い合わせ窓口が存在するのに、実際には機能していない。これは顧客対応ではなく顧客を追い払う仕組みでしかない。

「AI導入しました」と言いたいだけの見せかけ

Yahoo!に限らないが、「AIを導入しました」というアピールであり、実際の運用は杜撰そのものというケースは少なくない。AIは道具であり、使いこなせなければただのノイズになる。だが、そのノイズを「未来的なサービス」として押し付けている企業がいかに多いことか。

人間のオペレーターを減らし、AIで自動化すればコストは下がる。だが、コスト削減のために信頼を切り捨てるのは本末転倒だ。顧客対応は効率化の対象ではない。信頼を築く場だ。その場を潰すなら企業の未来も潰れる。

Googleの「AIによる概要」もクソだという現実

Googleの「AIによる概要」も同じ失敗をしている。トンチンカンな答えを検索結果の真上に強制表示する「AIによる概要」は、今では主要なブラウザに表示させないための拡張機能が登場しているくらいだ。

AIが提示するのは、古くて曖昧で出典が曖昧な役に立たない説明ばかり。肝心な部分はぼかされ、責任は回避され、結局「すごい技術です」という自己満足のプレゼンと化している。ユーザーが知りたいのは正確な答えであり、どう役立つのか、どう使えるのかだ。だが、返ってくるのは抽象的な概要説明。

トレンドのAI企業に追いつこうとWeb界の老舗企業たちは焦っているのか、Yahoo!は顧客対応でAIのクソを見せ、Googleは概要説明でAIのクソを見せる。どちらもAIを使いこなせない典型だ。

顧客を馬鹿にする会社に未来はない

AIを導入すること自体は悪くない。だが、顧客対応でトンチンカンな回答を返すのは顧客を馬鹿にしているのと同じ。

Googleのように概要説明で煙に巻くのも同じだ。Yahoo!の現状は未来的どころか退化的。Googleの現状は革新的どころか空回り。

顧客を軽視する企業姿勢が透けて見える。顧客の気持ちを理解することよりも「AIを導入しました」という看板を優先しているようにしか見えない。問い合わせフォームで顧客を助ける気がないなら、問い合わせ窓口なんて閉じてしまえばいいと思う。存在していると顧客の時間を奪うから。