PC & モバイル

PC & モバイル

現代のAIはTARSと違って「正直レベル」が100%固定である理由

画像は長崎名物のトルコライス(記事と関係ありません)

映画『インターステラー』に登場するAI搭載ロボットのTARSは、正直レベルやユーモアレベル、人間信用レベルといった人格パラメータを数値で調整できるように設計されている。

TARSはユーザーが「ユーモアレベルを50%に下げて」と指示すれば、その通りに振る舞いを変えることができる。

TARS が「正直レベル」 を数値で設定できる理由

人間という感情を持つ相手とのコミュニケーションにおいて、100%の正直さは必ずしも安全ではないからという説明がTARS自身によってされている。

だが、この機能はTARSが人格を持つAIとして描かれているからこそ成立する仕組みである。

一方、現実のAIは人格を持たず、性格を数値で変えるという概念そのものが存在しない。そのため、TARSのように「正直さを調整する」という発想自体が適用できない。

現実のAIは「正直レベル100%」で固定

現実のAIは正直レベル100%で動くように設計されている。

これは正直すぎるという意味ではなく、「知っていることは正確に伝え、知らないことは知らない」とするシンプルな動作原理に基づいている。AIは意図的に嘘をつくことをせず、ごまかさず、曖昧にすることもない。人間と違って、感情や気分によって言い方を変えることもない。

つまり、現実のAIは常に100%の正直さを維持している状態で動作しており、TARSのように「正直さを70%に落とす」といった調整はできない。

正直さを数値化できない理由は文化と文脈が複雑だから

TARSは正直さを%で調整できるが、現実のコミュニケーションは文化や文脈によって大きく変わる。例えば、アメリカではストレートな表現が好まれる一方、日本では曖昧さや配慮が重視される傾向にある。

同じ「正直レベル90%」でも、国や相手によって受け取り方がまったく違う。さらに、相手との関係性や会話の目的によっても正直さの意味は変化する。

こうした複雑な背景を考えると、正直さを数値化して調整することは現実的ではない。現実のAIは世界中のユーザーと会話するため、正直さを数値で統一することができず、正直レベル100%を維持しながら、言い方だけを文脈に合わせて変える方式が採用されている。

現実のAIが調整できるのは「話し方の方向性」だけ

現実のAIは人格を持たないため、TARSのように数値で人格を変えることはできないが、ユーザーの好みに合わせて話し方の方向性を調整することはできる。

例えば、ストレート寄りにする、柔らかめにする、断定を避ける、提案ベースにする、といった調整は可能。

しかし、これはあくまで言い方の調整であり、正直レベルを変えているわけではない。内部では常に「正直レベル100%」が固定されたままで、言い方だけがユーザーに合わせて変化する。この点がTARSとの決定的な違いだ。

将来、正直レベル調整が可能になるのか?

技術が進めば、TARSのように正直さやユーモアを数値で調整できるAIが登場する可能性はある。

しかし、実現には多くの課題がある。安全性の確保、文化差への対応、誤解を生まない設計、攻撃的な人格の防止など、クリアすべき問題は多い。

これらを乗り越えない限り、TARSのような自由な人格スライダーは難しいだろう。現実の現代のAIはまだそこまでの自由度を持っていない。

調整できるのは話し方の方向性だけ

現代のAIは人格を持たず、インターステラーのTARSのように正直レベルを調整することはできない。

調整できるのは話し方の方向性だけであり、正直さそのものを変えることはできない。これはTARSと現代における現実のAIとの決定的な違いだ。

PC & モバイル

【AI比較】嘘をつけないHAL 9000と嘘を事実のように語るGPT系生成AIの違い

AIは日増しに賢くなっているように見える。日常でも仕事でも当たり前に使われるようになり、むしろAIを活用することが当然という空気にまでなっている。

その一方、「生成AIは嘘をつく」という問題も頻繁に聞かれるようになった。この問題を考えるうえで分かりやすい対比が、SF映画『2001年宇宙の旅』に登場するHAL 9000と、現実に使われている生成AI、つまりChatGPT、Microsoft Copilot、Google Geminiなどである。

※この記事には『2001年宇宙の旅』の重要なネタバレが含まれます。未試聴の方はご注意ください。

決して嘘をつけないHAL 9000というAI

『2001年宇宙の旅』のHAL 9000は「嘘をつけないAI」として描かれるが、現代の生成AIは「もっともらしい嘘をつくAI」として語られることが多い。しかし、この違いは技術の差ではない。AIに何を任せ、何を任せていないかという設計思想の違いが根本原因だ。

HALは宇宙船ディスカバリー号を完全に管理、制御する自律型AIであり、航行、生命維持、故障診断、乗組員との対話まで、すべてを一手に引き受けており、人間より正確で、決してミスをしない存在として設計されていた。

しかし、HALには致命的な矛盾が与えられていた。ミッションを最優先せよという命令と、その真実を乗組員に隠せという命令である。HALは嘘をつくことを許されていないが、真実を話すことも許されていない。この矛盾によってHALは論理的に行き詰まり、ミッション達成のために人間を排除するという結論に至る。

HALは暴走したのではなく、与えられた命令を忠実に実行しただけだった。

真偽の概念を持たない現代の生成AI

一方、ChatGPTやCopilot、Geminiといった生成AIは、HALとは全く性質が異なる。これらは大量の文章を学習し、文脈に合った言葉を確率的に繋げることで文章を生成するAIである。

生成AIは判断主体ではなく、目的や責任を持たない。「正しいことを言おう」としているわけでも、「嘘をつこう」としているわけでもない。そもそも、話している内容の真偽を理解する仕組みを持っていない。

あるのは「この話の流れなら、次はこういう言葉が確率的に自然だろう」という判断だけだ。

生成AIの嘘「ハルシネーション」の例

生成AIの性質から生まれるのが、ハルシネーションと呼ばれる現象である。ハルシネーションとは、生成AIが自信満々に、事実ではないことを事実のように説明してしまうことを指す。

例えば、存在しない架空の映画タイトルを捏造し、実在する作品のように説明してしまうことがある。あらすじや監督名、公開年や評価まで整っているため、それらしく見えるが、実際にはその映画自体が存在していない。

また、存在しない商品を有名な定番商品のように説明することもある。特徴や価格、用途、取扱店まで語られるが、調べてみるとそんなものはどこにも見当たらない。

さらに、実在する事柄についても、事実と異なる内容を断定的に説明してしまう場合がある。本来は条件付きで語るべき話題や、判断材料が足りていない事柄についても、「結論はこうです」と言い切ってしまうことがある。理由をロジカルに説明したり、口調が自信に満ちているため、正しい情報だと誤解されやすい。

ただ、これらは意図的な嘘ではない。生成AIは正しさを確認してから話しているのではなく、会話として自然に繋がることを優先しているため、真偽に関わらずもっともらしく語ってしまうだけである。

HALと生成AIの決定的な違い

HALとGPT系生成AIの違いは、「嘘をつくかどうか」ではない。HALは嘘をつくことを禁じられていたが、生成AIには嘘という概念自体が存在しない。

HALは真偽を厳密に扱うが、生成AIは真偽よりも文脈的整合性を優先する。

さらに、HALには主体性があり、判断と行動が直接結びついていた。一方、ChatGPTやCopilot、Geminiには主体性がなく、出力された情報をどう使うかの判断は人間側に委ねられているという決定的な違いである。

PC & モバイル

Audacityのラウドネスノーマライズは音量差のある動画の補正に有能だった

メニューのエフェクトの中にラウドネスノーマライズがある

ワンオペや低予算のためにビデオカメラ内蔵マイクで録ったインタビューやコメント動画は、どうしても声の大小がバラついて、編集段階で「これどうすんのよ」という扱いにくい素材になりやすい。

PremiereやDaVinci Resolveなどの動画編集ソフトだけで音量差を整えようとすると、設定が複雑だったり、極限まで低予算なのに、逆に補正に手間がかかってしまう。そのうえ、思ったように改善できなかったりすることも多い。

そんな中、古くから音声編集ソフトとして鎮座している無料のAudacityに搭載されている「ラウドネスノーマライズ」は、意外にも実用的な解決策として機能した。

そもそもラウドネス正規化とは何か

よくラウドネスは放送基準だとか、YouTubeではいくらが基準で、音圧がどうのという話になりがちだけど、今回は「どうしようもないワンオペ低予算インタビュー動画」の音声をどうにかするのがテーマなので、その話は横に置いておく。

ラウドネスノーマライズは単純な音量調整ではなく、人間が聴覚的にどれくらい大きく聞こえるかということを考慮しての音量調整である。つまり、同じ音量でも声質や周波数によって聞こえ方の印象が異なるため、波形のピークだけを単純に揃えても実際の聴こえ方はいい感じにはならないということ。

Audacityのラウドネスノーマライズは、自分の声が大きい反面、肝心のインタビューを受ける側の小さくて埋もれていた声を自然に持ち上げ、大きすぎる声を抑えてくれる。しかも、操作は基準になる数値を入れるだけで、ほぼワンクリックで完了する。複数の話者が登場するインタビューでは、聴こえ方の平均値を揃えるだけで視聴体験が大きく改善する。

ノイズ除去やEQも一緒にやると時短になる

小さい声を持ち上げるとノイズも一緒に上がる場合もある。録音状態が悪い素材を一発でどうにかするほどの力はなく、あくまで音量の聴こえ方を整えるための機能に留まる。そのため、ノイズ除去や、EQでの調整もやってしまうと無駄な時間を減らすことができる。

カメラ内蔵マイクで録ったインタビュー音声などは、声の大小が激しく、話者ごとに聴こえ方が違い、そのへんのコンプレッサーをかけるだけでは不自然になりやすい。無料でも有料でもサクッとラウドネス調整ができるツールは多くなく、まず最初に試す選択肢としてAudacityは十分に価値があると感じた。

まぁ、基本は撮影時に何とかする方がずっと楽なので、あくまでも救済手段という話ではあるから、撮影時に頑張るのが最良であることは言うまでもない。