活動報告

AIの出力と「正しさ」

この記事は CAMPFIRE クラウドファンディング「3Dホログラム・汎用AIアシスタント を普及させたい!」(2024/7/15~8/31)の活動報告の再掲です。


個人向けの音声対話型の汎用AIアシスタントを作るという前提です。

ACUAH が 汎用AI「アシスタント」であるからには、やはり、ユーザーが期待する動作を確実にできるようになって欲しいという考えがあります。

ところで、現在の統計学をベースとしたAIは推論ができます。

逆に言うと、

推論である以上「正しい」回答、出力ができない場合があるという事です。

まして、そもそも何が「正しい」のか。
「正しい」という定義自体が個人で異なるような、主観的な場合には尚更です。

※ ChatGPT のページの下にもお断わりの一文が添えられています。

今、AI開発会社は期待した「正しい」回答を得られるように、新しいモデルや、プロンプトエンジニアリング、ファインチューニング、RAG等様々な手法を使って、評価値(正確性、信頼性)が高いAIを開発していますが、結局、他者が開発したAIである以上、その評価をしている人や組織が考える「正しさ」から逃れることはできません。

ですので、

個人向けの音声対話型の汎用AIアシスタントを目指すのであれば、
特に、雑談ではなく、AIの出力から何かしらの機能の実行を伴う場合には、

それらAIの出力をそのままユーザーに示すだけではなく、
その出力結果(「正しさ」を)ユーザーが個々に判断・評価するような仕組み
が必要だと考えています。

次回「対話シナリオとAIを組み合わせた仕組み」でお話させていただきます。

TOP