「間違ったデータ」、「偏ったデータ」、「不十分なデータ」に基づいて回答することに起因する不適切性
2) AIの訓練(training)に使用されたデータの不適切性
「間違ったデータや偏ったデータに基づくtraining」、「不充分なデータに基づくtraining」などに起因する不適切性
3) AIのTraining法の不適切性
与えたtraining dataへの過剰適合による「過学習」問題などに起因する不適切性
- 多様な「回答」を生成する製品設計 — パラメーターtemperatureによる「回答」の「精度」・「多様性」のコントロール
- プロンプト文に対応した「回答」を生成する製品設計 — ユーザーのプロンプト文への「迎合」的回答をおこなう製品設計
- 生成AIにおける「記憶」の短期性(スレッド内限定性) — ユーザーによる事後学習・ファインチューニングを受け付けない製品設計
- 「事実と推測・フィクションの区別」、「事実言明と価値言明の区別」、「データに関するメタ的書誌的情報(Who,When,What,where)」、「回答の妥当性のチェックルーチン」が基本的には存在しない製品設計
- 生成AIのハルシネーション(hallucination、幻覚)問題
- ChatGPT4.0(Model:Web Browsing)による2023年6月12日の回答
- 教師あり学習: 生成AIモデルは通常、大量のテキストデータから学習します。その学習プロセスは、モデルが与えられた入力に対して適切な出力を生成するように、既存のデータのパターンを学習するというものです。しかし、このプロセスでは、モデルは事実を認識する能力を持っていません。それは単に、その訓練データ内で観察したパターンを再現します。したがって、存在しない情報を生成する可能性があります。
- 訓練データのバイアス: AIモデルは訓練データから学習しますので、そのデータに含まれるバイアスを継承する可能性があります。存在しない情報や事実が訓練データに含まれていた場合、モデルはそれを真実として学習する可能性があります。
- 確率的生成: 生成AIモデルは一般に確率的であり、可能な出力の中からランダムに選択します(ただし、学習したパターンに基づいて一部の出力が他の出力よりも可能性が高くなります)。この性質は、モデルが常に100%確実な出力を生成するわけではなく、時には存在しない情報を生成する可能性があることを意味します。
- 知識の限界: 現在のAIモデルは、訓練データに基づいて学習します。そのため、学習データセットの範囲外の情報については理解することができません。例えば、モデルが訓練された時点以降の出来事や情報については知らないということになります。それは、モデルが時々古いまたは古くなった情報を出力する可能性があることを意味します。
その結果は下記に示すように、事実とまったく異なるものであった。[注1][注2]
経営学科は、ビジネスの基礎的な知識やスキルを学びながら、経営理論や経営戦略、マーケティング、会計、ファイナンスなどの専門的な知識を身につけることができる学科です。
グローバルビジネス学科では、国際ビジネスや国際経営に特化した知識とスキルを学ぶことができます。異文化コミュニケーションや国際マーケティング、国際金融、国際戦略など、グローバルな視点でのビジネスに必要な要素を学ぶことができます。
イノベーションマネジメント学科は、技術革新やイノベーションの推進に関連する知識とスキルを学ぶことができる学科です。イノベーション戦略、新製品開発、プロジェクトマネジメント、イノベーションのビジネスモデルなどについて学ぶことができます。
以上が明治大学経営学部の学科構成です。それぞれの学科は専攻が設けられており、より専門的な知識を深めることができます。
ChatGPTに対する回答指示の中で「temperature=0.4での文章の生成をお願いします。」、「temperature=4での文章の生成をお願いします。」といったようなカスタム指示を与えることで、回答の「精度」や「バラツキ」を変動させることができる。
インターテックリサーチ(2023)によると、Microsoft Bing AIの「より厳密に」、「よりバランスよく」、「より創造的に」という3つのモードは、それぞれ「temperature = 0.0~0.3」、「temperature = 0.4~1.3」、「temperature = 1.4~2.0」に対応するとのことである。
1. 経営学科
2. ビジネスデザイン学科
3. イノベーションデザイン学科
この3つの学科で、経営やビジネスに関する幅広い知識やスキルを学ぶことができます。
https://chat.openai.com/c/7edc0389-5d9d-4431-8045-3c286bc45ea1
もし間違いであった最初の回答を私に提示いただく前に、最初の回答が正しいかどうかのチェックをされていないとすれば、なぜそのようにされているのでしょうか?その理由を詳しく教えてください。
同一ユーザーとのやり取りに関するログが保存されているので、同一ユーザーとの過去のやり取りを「利用」した回答をさせることも技術的には可能である。しかしながらシステムへの負荷増大を避けるためか、2023/5/30現在ではそうした製品設計にはなっていないため、事実的言明に関して間違った回答を続けるようになっている。
このように<「明らかに間違った情報」を繰り返し回答し続けること、しかも回答の末尾が「大変失礼いたしました。正確な情報をお伝えするように努めます。」という語句で締めくくられている>ことは、OpenAI LP社の経営戦略的意図を暗に示すものとして、とても興味深い。
というのも、明治大学経営学部の学科構成のような単純な事実的問題に関して間違った回答を繰り返すにも関わらず、「ウェーバーの理念型とはどのようなことなのか?」といったかなり難しい事実的問題なども含む入試問題に関してはそれほど間違った回答をしていないからである。
ChatGPTは、入試問題等の「解答」に関する性能測定に際しては、「回答候補の正当性・正確性をチェックした上で回答する」とか、「入試問題に関わる正確な大量のデータを参照させて回答するようにする」などといったファインチューニング作業をおこなうことで、下記WEBページに示されているように、高い成績を取ることができているものと思われる。
そうした学習プロセスをより実りあるものにするためには、ユーザーからのフィードバックの内容の信頼度というメタデータ付きで、ChatGPTに学習(training)させることである。
そのためにはユーザーの信頼度を測定するために、あえて不適切な回答や誤った回答をユーザーに提示し、当該ユーザーが回答の不適切性・誤りを指摘した正しいフィードバックを返すかどうかというデータを取ることが有益である。そうしたユーザー選別のために、「あえて不適切な「誤った」回答をユーザーに対して提示する」というProduct designを採用しているという一面もあるという推測もできる。
また人間的コミュニケーションにおいては、正確なことを厳密かつ簡潔に述べる「大学教授」的人物よりは、嘘やホラを堂々と流暢に述べる「ほら吹き男爵」的人物の方が魅力的である。そういう意味では、「正確な事実のみを簡潔に述べる」ChatGPT4 with Microsoft Bingよりも、「ちょっと調べればすぐに間違いがわかるようなまったく間違った回答を長々と述べる」ChatGPT無料版の方が、「人間」的魅力に溢れている、と考えられる。
https://www.nytimes.com/2023/05/01/business/ai-chatbots-hallucination.html
“The new AI. systems are “built to be persuasive, not truthful,” an internal Microsoft document said. “This means that outputs can look very realistic but include statements that aren’t true.”
なおそうした戦略を取るOpenAIに対して、Perplexity AIは、信頼度の高い正確な回答によるdifferentiationによって持続的競争優位の確立を追求している。そうしたPerplexity AIの戦略に対して、OpenAIが今後どのような対応をするかも興味深い。この点についてはChatGPT有料版 Browse with Bingとの下記「対話」が参考になる。
下記「対話」の中では、「ChatGPT無料版は信頼度が低い回答を出すことがあるが、OpenAI LP社はそうした問題を認識し、ChatGPT有料版でさまざまな技術革新をおこなっている。」という趣旨の「弁明」を繰り返しおこなっている。
https://chat.openai.com/share/ac857337-46c9-48b1-9dcd-bd763caea56e
このNew York Timesの記事は、ネット接続できない現行のChatGPT無料版の設計では、単なるつまらない「事実」よりも、「嘘でもいいからpersuasiveな答え」を出すようなアルゴリズムが採用されている、という趣旨の記事である。しかしながら、<ネット接続ありのChatGPT有料版やMicrosoft Bing AIはそれとは違った設計になっている>ということや、<Perplexity AIは「回答の高い信頼性を確保することでdifferentiationによる持続的競争優位の獲得を目指す」という経営戦略に基づく製品設計を意図的に採用している>ということにも注意する必要がある。
さらにまた、生成AIにおける「幻覚」発生の問題は、アルゴリズム由来の側面だけでなく、Wikipediaで紹介されている下記のような学習データや言語モデルに由来する側面も重要である。すなわち「さまざな研究者が人工知能の幻覚を高次元統計または学習データの不備に由来する現象として位置付けている。」とか、「言語モデルが表層的な相関に偏向してしまい、現実の世界のありように対して頑健(ロバスト)でなくなる敵対的学習をしてしまうことがあり得る。」といった要素も「幻覚」の発生に関係している。
However, these findings have been challenged by other researchers.[10] For example, it was objected that the models can be biased towards superficial statistics, leading adversarial training to not be robust in real-world scenarios.[10]
[出典]Wikimedia Foundation(2023) “Hallucination(artificial_intelligence),” 英語版ウィキペディア
https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)
関連参考資料
- Smith, N.(2023) “Why does ChatGPT constantly lie? – Maybe it has to do with the reasons humans use language.,” 2023/01/31
https://www.noahpinion.blog/p/why-does-chatgpt-constantly-lie
NOAH SMITH - 笹原和俊、大岩央(2023)「ChatGPTとディープフェイクの衝撃―AI技術がもたらす破壊と創造」ログミーBiz、2023年4月25日
https://logmi.jp/business/articles/328660 - 野村総合研究所「ハルシネーション」NRIトップ>ナレッジ・インサイト>用語解説>用語解説一覧
https://www.nri.com/jp/knowledge/glossary/lst/ha/hallucination