■AIの役割の転換
かつて(今から40年ほど前)のAIは正解を導き出す事を求められて研究開発が進められていた。例えば医療であれば問診から病名を特定するというような使い方である。
ディープラーニングの技術が表に出てくると、結果は確率的な確かさらしさの元で判断され、学習することで確率を上げるという方向性が主流になった、
そうした中でChatGTPの登場はAIの立ち位置まで変えたのではないだろうかと思う。
○AIが「上司」になる時代 顧客心情量り助言、変わるコールセンター
2024年8月13日
「ホテルに着いたのに、私の予約が見つからないと言われた」
状況を把握した人工知能(AI)のアドバイスが、画面右上に次々と表示される。オレンジ色の文字で「顧客は怒っている」。緑色で「共感を見せて」。
オペレーターが「カウンターで予約番号を確認しましたか」と尋ねると、顧客は「何を考えているんだ? もちろんしたぞ」。
AIの助言に従い、オペレーターは居場所を尋ねた。顧客が予約したホテルと違う場所にいることがわかると、予約画面が表示され、オペレーターが新たな予約を確定。顧客は納得した。
終了後、AIが即座にやりとりを評価し、オペレーターに必要なビデオ研修を提示してくる。
https://www.asahi.com/articles/ASS8F2Q02S8FULFA00PM.html
いわゆる「AIコーチング」という分野の登場である。
■道徳と確率
ChatGTPなどを使って、いろいろな質問をすると分かるのだが、
・常識的に考えられることは常識の範囲内でこたえられる
・カバーする範囲が高く、何を調べなければいけないかのヒントが示唆される
・生成AIの機能なども常に改善がおこなわれている
などの有益性がある一方で
・最新の情報をカバーできない。
・どの程度の確度なのかは表示されない
・意見めいたことは云わない(批判はしない)
などのある意味人間の曖昧さなどを含んでいる。
また、倫理的なこと(正義/不正義、善悪)などはそうした学習をさせない限り判断はしない。自国に批判的なデータをすべて「除外」させるような学習をすれば不都合な発言は排除できるだろう。
したがって、AIが確率論で推論していることと、いわゆる倫理的なアルゴリズムなどは内在しないことを意識すべきである。すなわち、AIは意図的に間違った情報を流さないが、確かさらしさが怪しい情報も垂れ流す。「AIは正しい」という発想はかつての「計算機の結果だから正しい」と同じ発想である。
2024/08/17