PC & モバイル

PC & モバイル

かつてAdobeの競合ツールとされ、まるで使い物にならなかったAffinityが無料化して思ったこと

イラレとPhotoshopモードを切り替えながら作業するのがウザい

かつてAdobeが完全サブスク型に移行した一方、PhotoshopやIllustratorなどと機能的に近いとされる買い切り型アプリとして話題になったのがAffinityというアプリだ。

筆者自身、2020年頃に購入した過去がある。

だが、このAffinityは2024年3月、開発元である英国のSerif社が同名のAIデザインツールを展開するCanva社に買収され、Affi­nityはCanvaファミリーの一員として取り込まれた。

そして、Affinityは誰にも気づかれず、ひっそりと無料アプリ化して、今は第2の人生を静かに歩んでいる。・・・ということを最近知った。

プロ用途としては全く使い物にならなかった

当時、iPad版、Mac版のそれぞれのAffinityをセール価格で数千円程度で購入した記憶がある。購入直後は「これでAdobeと縁を切れる」と思い、張り切って使い始めた。

しかし、実際に使ってみると、1週間もしないうちにAdobeの代わりとして使えるものではないと判断することになった。iPad版、Mac版のどちらも同様で、業務で使うツールとしての完成度を持っていないと感じた。

プロは100%完全互換でないと話にならない

Affinityについては、SNSなどのネット上では「PhotoshopやIllustratorの競合なのに無料」「Adobe不要」「凄すぎる」「もはや神」といった評価が目立つ。

ただ、これらの高評価を書いているのは、主婦や学生などのアマチュア、にわかフリーランス、視聴率稼ぎのYouTube解説者などが中心だ。

一方、実際に業務で使おうとした「本物のプロ」が書いた少数派のレビューを見ると、内容は辛口寄りで固定化されている。

具体的には、「操作していて細かい部分で不便を感じる」「Adobeで普通に開けるファイルが開けない」「業務で頻繁に使う基本的な定番機能が存在しない」などが挙げられていることが多い。結論としては「Adobeの代わりとして使うのは無理」という評価でほぼ一致している。

プロ用途においては、Adobe製アプリで作られたファイルや、世間で使われている定番ファイル形式を完全な状態で読み込めない時点で論外だ。見た目や機能が似ているかどうかではなく、100%完全互換であるかどうかが「使えるアプリ」と「使えないアプリ」の境界線となる。

プロの現場でAffinityの名を聞いたことは一度もない

Affinityは発売から結構年数が経っているが、実際のデザイン系の仕事の現場で、その名前を聞いたことは一度もない。これは個人的な体験ではあるが、同時に現実を端的に示していると思う。

ファイルを完全な形で読み込めないのは論外であり、必要な機能が欠けているのも仕事用のツールとして論外だ。

さらに、インターフェースやショートカットがAdobeと異なり、同じ手順と同じスピードで作業を再現できないため、プロの現場からは完全に除外される。

これは慣れや好みの問題ではなく、制作現場における再現性と効率、つまり品質管理と納期管理という、現場で最も重要な項目をクリアできないことを意味する。

Affinityを無料で使う方法

とはいえ、プロ用途を除けば、Affinityに全く1ミリも価値がないという話ではない。

プロ用途では使いものにならないとしても、無料で使えるということは、基本無料のスマホゲーム感覚で「なんちゃってプロ仕様」のデザインツールを誰でも気軽に触れるという意味であり、そこには一定の価値がある。

Affinityを無料で使うには、これまたプロの現場ではほぼ使われていないCanvaの無料アカウントを用意するだけでよい。Canva自体は有料プランにしないと有用な機能が大幅に制限されるが、Affinity自体は無料でMacやWindowsにインストールできる。

DTMにおけるCakewalkとAffinityは同じ構図なのか

DTMの分野にも、かつては主要アプリとして展開していながらも競合に敗れた結果、無料アプリという立場に落ち着いた例がある。その代表がCakewalkだ。この流れはデザイン分野におけるAffinityの現在地とよく似ている。

Cakewalkは一時期、DTM界隈では十分に名前の通ったDAWであり、実際に業務用途でも使われていた。

しかし、市場競争の中で、Pro Tools、Logic Pro、Ableton Liveといった競合が事実上の標準になっていき、徐々に選ばれなくなっていった。その結果として、最終的に「無料で使えるDAW」というポジションに収まった。

ただしCakewalkとAffinityは全く同じ立場ではない

Affinityも無料化に至った構図としては近い。

Adobeという業界標準に対抗する存在として語られながら、完全互換や業務再現性の壁を越えられず、結果的にプロの現場ツールとして採用されることはなかった。そして、現在はCanva傘下に入り、無料で使えるツールという位置付けに落ち着いている。

ただし、CakewalkとAffinityの立場は全く同一ではない。Cakewalkは少なくとも「かつてはプロの現場で使われていた時代」があった。一方でAffinityは、最初から最後まで、プロに選ばれた時代が存在しない。この違いは大きい。

Cakewalkはプロ市場での競争に敗れた結果としての無料化であり、Affinityはプロ市場を取れないまま、別の文脈で価値を見出されて無料化した。経緯は違うが、行き着いた先は同じだと言える。

Affinity PhotoやAffinity Designerは統合された

有料で販売されていた頃はPhotoshop、Illustrator、InDesignに相当するアプリがそれぞれ単独で存在していたが、現在は3つが統合され、1つのAffinityというアプリとなっている。

この時点で、プロ用途を前提に考える人であれば、ある程度は察するはずだ。

個人的には有料で構わないから、PhotoshopやIllustratorと完全互換のプロ向けアプリを目指してほしかった。

まさかCanvaの一員になって無料化するとは思わなかったけど、プロの現場でのAdobe一強の状況を全く打ち崩せなかったのは事実。残念だな、と言うのが正直な感想である。

PC & モバイル

現代の生成AIは最新技術のようで、実際には1960年代のAIの延長線上にあるAI

ChatGPTは現代を代表する最先端AIとして語られることが多い。どんな質問にも答え、専門家のように振る舞う。そのため「AIはここまで来たのか」と感じる人も少なくないだろう。

しかし、その仕組みを少し冷静に見てみると、意外な事実が浮かび上がる。GPTは見かけや規模こそ最新だが、考え方そのものは1960年代に研究されていたAIと本質的に同じ系譜にある。

1960年代のAIは何をしていたのか

1960年代から70年代にかけて、「専門家の判断を機械にやらせよう」という試みが行われていた。

当時のAIは「エキスパートシステム」と呼ばれ、医師や技術者の知識を細かいルールとして書き出し、それを順番に当てはめて答えを出していた。

一見すると賢く見えるが、実際には質問や回答の内容を理解しているわけではない。「もしAならB」「条件Cが成り立つなら結論D」という型をなぞっているだけで、自分の答えが正しいかどうかを自覚することはできなかった。

重要なのは、エキスパートシステムが「専門家のように振る舞う」ことを目的としていた点である。本物の理解や自律的な判断ではなく、あくまで外から見て賢く見えることがゴールだった。

GPTは何が進化して、何が変わっていないのか

GPTは昔のAIのように人がルールを一つ一つ書いているわけではない。大量の文章を読み込み、言葉の繋がり方を学習している。この点は大きな違いである。

しかし、GPTが最終的にやっていることはとてもシンプルだ。「この流れなら、次に来そうな言葉は何か」を計算し、それを並べているだけである。

つまり、仕組みは高度になったが、「自分が何を言っているのかを理解していない」という点は、1960年代のAIと変わっていない。

GPTが平気で間違える理由

ChatGPTなどの現代の生成AIは時々、もっともらしい嘘や誤情報を言う。それは真実を意識して話していないからである。

人間は「本当はこうだが、今は言わない」「これは間違っているかもしれない」と考えながら話す。しかし、GPTにはそのための基準がない。ただ、それらしく聞こえる文章を作っているだけなので、間違っていても自分では気づけない。

この性質は、昔の古い時代のAIが持っていた弱点と全く同じである。

映画『インターステラー』のTARSとの違い

映画『インターステラー』に登場するロボットTARSのAIは、GPTとは全く別の考え方で描かれている。TARSは状況を理解し、目的を意識し、そのうえで判断する。

TARSは「これは危険な選択だ」「今は真実を伏せるべきだ」といった形で、自分の状態を理解している。間違いが起きれば、それはTARS自身の判断ミスになる。

このような仕組みは、1960年代のAIにも、現代の生成AIにも存在しない。

TARSが性格を調整できるという意味

TARSにはユーモアや誠実さを数値で調整する設定がある。これは性格すら任務の一部として管理されているということを意味する。

一方、GPTは会話の流れやユーザーの指示によって性格が変わっているように見えるだけで、内部に性格という設定があるわけではない。ここにも、「主体」と「道具」の違いがはっきり表れている。

なぜGPTはこの形に留まっているのか

ここで注意すべきなのは、GPTが意図的に主体性を持たないよう設計されていると断定することはできないという点である。実際には、技術的、社会的な制約の中で、現在到達している段階がこの形だと考える方が自然である。

AIが自分の判断の正しさを理解し、誤りを自覚し、責任を引き受ける仕組みは、技術的にも社会的にもまだ研究段階にある。ハルシネーション、つまり、もっともらしい誤情報を生成してしまう問題についても、開発者や利用者の誰もが望んで許容しているわけではない。

現代の生成AIは、自己理解や自己検証を実現できていない未完成な技術であり、その限界がそのまま挙動として現れていると見るべきである。

現代の生成AIは最新技術を用いた研究段階の旧系譜AI

GPTは確かに便利で高性能な技術である一方、その仕組みは1960年代から模索してきた「専門家の知識を再現するAI」という流れの延長線上にある。

現在の技術水準では、自己理解や自己検証を備えたAIは研究段階にあり、GPTはその途中にある存在だと言える。

映画『インターステラー』のTARSのような、自分で判断し責任を引き受けるAIは、技術的にも社会的にも現時点ではフィクションの領域に近い。

PC & モバイル

現代のAIはTARSと違って「正直レベル」が100%固定である理由

画像は長崎名物のトルコライス(記事と関係ありません)

映画『インターステラー』に登場するAI搭載ロボットのTARSは、正直レベルやユーモアレベル、人間信用レベルといった人格パラメータを数値で調整できるように設計されている。

TARSはユーザーが「ユーモアレベルを50%に下げて」と指示すれば、その通りに振る舞いを変えることができる。

TARS が「正直レベル」 を数値で設定できる理由

人間という感情を持つ相手とのコミュニケーションにおいて、100%の正直さは必ずしも安全ではないからという説明がTARS自身によってされている。

だが、この機能はTARSが人格を持つAIとして描かれているからこそ成立する仕組みである。

一方、現実のAIは人格を持たず、性格を数値で変えるという概念そのものが存在しない。そのため、TARSのように「正直さを調整する」という発想自体が適用できない。

現実のAIは「正直レベル100%」で固定

現実のAIは正直レベル100%で動くように設計されている。

これは正直すぎるという意味ではなく、「知っていることは正確に伝え、知らないことは知らない」とするシンプルな動作原理に基づいている。AIは意図的に嘘をつくことをせず、ごまかさず、曖昧にすることもない。人間と違って、感情や気分によって言い方を変えることもない。

つまり、現実のAIは常に100%の正直さを維持している状態で動作しており、TARSのように「正直さを70%に落とす」といった調整はできない。

正直さを数値化できない理由は文化と文脈が複雑だから

TARSは正直さを%で調整できるが、現実のコミュニケーションは文化や文脈によって大きく変わる。例えば、アメリカではストレートな表現が好まれる一方、日本では曖昧さや配慮が重視される傾向にある。

同じ「正直レベル90%」でも、国や相手によって受け取り方がまったく違う。さらに、相手との関係性や会話の目的によっても正直さの意味は変化する。

こうした複雑な背景を考えると、正直さを数値化して調整することは現実的ではない。現実のAIは世界中のユーザーと会話するため、正直さを数値で統一することができず、正直レベル100%を維持しながら、言い方だけを文脈に合わせて変える方式が採用されている。

現実のAIが調整できるのは「話し方の方向性」だけ

現実のAIは人格を持たないため、TARSのように数値で人格を変えることはできないが、ユーザーの好みに合わせて話し方の方向性を調整することはできる。

例えば、ストレート寄りにする、柔らかめにする、断定を避ける、提案ベースにする、といった調整は可能。

しかし、これはあくまで言い方の調整であり、正直レベルを変えているわけではない。内部では常に「正直レベル100%」が固定されたままで、言い方だけがユーザーに合わせて変化する。この点がTARSとの決定的な違いだ。

将来、正直レベル調整が可能になるのか?

技術が進めば、TARSのように正直さやユーモアを数値で調整できるAIが登場する可能性はある。

しかし、実現には多くの課題がある。安全性の確保、文化差への対応、誤解を生まない設計、攻撃的な人格の防止など、クリアすべき問題は多い。

これらを乗り越えない限り、TARSのような自由な人格スライダーは難しいだろう。現実の現代のAIはまだそこまでの自由度を持っていない。

調整できるのは話し方の方向性だけ

現代のAIは人格を持たず、インターステラーのTARSのように正直レベルを調整することはできない。

調整できるのは話し方の方向性だけであり、正直さそのものを変えることはできない。これはTARSと現代における現実のAIとの決定的な違いだ。