header-logo

人工知能主導のマーケティングコミュニケーション

免責事項:以下に表示されているテキストは、サードパーティの翻訳ツールを使用して別の言語から自動翻訳されています。


AIはBS

Aug 11, 2023 5:38 PM ET

By:ブライアン・D・ワッソム

この記事を書いている時点では、社会は生成人工知能との関係の4日目の段階のどこかにいるように見える。まだ熱中しているが、我々の愛情の対象が完全に我々の信頼に値するとは限らないことを認めるほど冷静になり始めている。熱狂的な愛好家以外は皆、AIアプリケーションの言うことがすべて真実であることを当然視できないことを理解するようになった。たとえば、今をときめくChatGPTは、私たちの問い合わせに対して、事実と虚構を同じように堂々と伝える。このような空想を一般的に説明するのは「幻覚」である。擬人化した用語で、アプリは本当に私たちに正直でありたいと願っているが、時折現実との分裂症的な断絶によって不注意に抑制されていることを意味する。

この用語が、ChatGPTが意図的に嘘をついているわけではないことを伝えているのであれば、それは十分に正しい。しかし、"幻覚 "という言葉が、このアプリがそうでなければ真実を語っていると暗示する限り、それは重大な誤解を招く。もちろん、AIが1と0の複雑な相互作用よりも個人的なものであるかのように語ることは、最初の間違いであり、フィクションの一種である。スティーブン・ホーキング博士の言葉では、「知性」とは「変化に適応する能力」と定義されている。その尺度によれば、AIプログラムは知的に行動する。AIが一般的なソフトウェアと一線を画すのは、事前の入力や行動から受け取ったフィードバックの蓄積に応じて、その機能を適応させる能力である。私たちはこうしたプロセスを「機械学習」または「深層学習」と呼び、より高度なAI設計は「ニューラルネット」と呼ばれる。

しかし、これらの用語は正確というよりも類推的である。なぜならソフトウェアには心がないからだ。メリアム・ウェブスターは "知能 "を "学習または理解する能力"、"理性の熟練した使用"、"知識を適用する能力......または抽象的に考える能力 "と定義している。機械はこのどれもできない。AIのプログラムがたまたま現実に対応するデータを生成したとしても、それは人間のプログラマーの努力の結果である。これらのプログラマーは、複雑な地下パイプの配列を、水が目的の場所にだけ流れるように正確に設計する土木技術者のようなものだ。しかし、AIのプログラムは、パイプが正しく水を供給していることを知るのと同じように、自分が真実を語っていることを知らない。

私たちは少なくとも、AIが私たちに嘘をつけないという事実に安心することができる。嘘つきとは、真実を認識していながら、聞き手を欺いて違うことを信じさせることを選ぶ人のことである。AIは真実を「知る」ことができないので、嘘をつくことはできない。

しかし、厳密に言えば、「幻覚」を見ることもできない。幻覚を見るということは、現実を認識することであることに変わりはないが、実際の現実とは異なる。だから、必然的に思えることだが、AIを擬人化した言葉で語り続けるのであれば、少なくとももっと正確に語るべきだ。ソフトウェアがどのように機能するかについて誤った理解に陥っていると、それが私たちのために何をしてくれるのかを誤解し、その結果、その限界と潜在的な有用性の両方を見落とすことになる。そのために、生成AIプログラムの出力を最も正確に表現する方法として、私は "BS "という略語を提案する。

私は真剣だ。現在94歳になるアメリカの哲学者ハリー・G・フランクフルトは、2005年に出版した著書で、よく使われるが理解されていないこの言葉の定義に着手した。On Bullsh*t』と題されたこの本は、「[BS]の本質は、それが虚偽であることではなく、それがインチキであることである」と仮定している。積極的に "現実の正しい理解から我々を遠ざけようとする "嘘つきとは異なり、BSのアーティストは "自分の言うことが現実を正しく描写しているかどうかなど気にしていない。彼はただ、自分の目的に合うように、それを選び出すか、でっち上げるだけである。"

これがチャットGPTの私たちとの会話を説明するのに近い。チャットボットと人間のBSアーティストの唯一の違いは、人間は意図的にやっているということです。AIには意図がありません。しかし、それはこの説明をより強固なものにしている。フランクフルトが言うように、"[BS]は、誰かが何を話しているのかわからずに話さなければならない状況であればいつでも避けられない"。ChatGPTは自分が何について話しているのか分からないので、BS以外のことは言えないのです。

これはチャットボットの文脈で見るのが一番わかりやすいですが、同じ原理がAIのすべての表現に当てはまります。他のAIプログラムでは、不完全なデータから引き出された不正確な結論に基づいて、医療治療の推奨を行うことが知られている。あるいは、過去の差別によって歪められたデータセットに基づいて雇用を決定することもある。あるいは、白人の顔よりも有色人種の顔を読み取る能力が低い顔認識データに基づいて、犯罪容疑者を特定することもある。あるいは、自動修正された単語が、何の変哲もないテキストメッセージを恥ずかしい失態に変えてしまう。

これらの結果はどれも必然的なものではなく、プログラム自体の本質的な責任でもない。AIの出力の不正確さは、人間がより洗練されたコードを実装することで減らすことができる。とはいえ、最先端のAIプログラムの多くに見られる驚きと心配の多くは、その作者である人間がその仕組みを知らないことにある。BSがBSを生んだのだ。

しかし、だからといってAIアプリケーションの開発や利用を続けるべきではないと言っているわけではない。それどころか、有用で倫理的なAIの実装を開発している優秀な人々がいる。そのような発明のパワーと有用性は、信頼できるアドバイザーではなく、目的を持って作られたツールである限り、否定することはできない。AIソリューションは、プログラムの最終的な出力が、(人間主導のレビューと修正を経て)意図された目的のために有用であるように、現実に相関する可能性が十分にあることを保証するために、十分に制限されたガードレールの中で実装されなければならない。許容されるパラメータは文脈によって異なる。例えば、ChatGPTを使って会議を面白くする方法をブレインストーミングしたり、Midjourneyに頼って驚くような感動的な画像をレンダリングしたりするような場合だ。

しかし、事実上すべての経済分野でAIが一挙に採用される猛スピードと、営業担当者や中間管理職がこれらのアプリの可能性について息をのむような畏敬の念を口にすることは、深刻な懸念の原因であることに変わりはない。私たちの社会意識の一部はAIを信用しない方が良いと分かっていても、その枕詞に誘惑されている人がまだあまりにも多いのだ。

AIを搭載したツールは、人間の意思決定に情報を提供し、意思決定を支援する、ますます広範な用途に役立つだろうが、常に人間が独立した判断を下すことによって使われなければならない。"BSアーティスト "は......嘘つきのように真実の権威を拒絶しない......。彼は真実に全く注意を払わない.これによって,[BS]は嘘よりも大きな真実の敵である」とフランクフルトは警告している。私たち自身や私たちのビジネスが、生成AIを真実の源として無批判に頼ることを許す限り、私たちは後悔することになるだろう。


iCrowdNewswire