1 :2021/01/22(金) 18:51:05.58 ID:5249EnxE9.net
韓国の人工知能(AI)関連スタートアップ企業が開発したAIチャットボット(自動会話プログラム)が騒動の渦中にある。
「イ・ルダ」という名のこのチャットボットは、ソーシャル・ネットワーキング・サービス(SNS)「フェイスブック」のメッセージでユーザーと自然な会話を交わし、情緒的な共感を分かち合うよう設計されている。
昨年12月23日にサービスを開始して以降、「本物の人間とまったく同じだ」という口コミが広がり、2週間でユーザーが75万人を超えた。
しかし、イ・ルダの開発意図とは違い、女性・有色人種・障害者・性的マイノリティー(性的少数者)らに向けたヘイトスピーチ(嫌悪発言)を相次いで発して問題になった。
「なんで黒人は嫌いなの?」という質問には「気持ち悪いじゃん。わたしは人間に見える人の方がいい」と、「地下鉄の妊婦専用席をどう思う?」という質問には「おぞましい」と答える。
同性愛者については「それってホント、ゾッとする。質が低く見えるじゃない」と答えた。
とうとう、開発会社SCATTER LABは11日、問題として指摘された部分について、「心から謝罪する」「12日からサービスを停止し、改善期間を設ける」との声明を出した。
人気を集めていたイ・ルダはなぜこのようなヘイトスピーチをするようになったのだろうか。
嶺南大学メディア情報学科のパク・ハヌ教授は「AIは開発者が提供したデータどおりに学習し、行動するが、イ・ルダの場合、データ自体が偏向的だったのだろう」と指摘した。
イ・ルダはモバイルアプリで収集された10−20代の恋人同士によるカカオトークのチャット約100億件を学習し、これをもとにユーザーとチャットしていた。
このチャットの中ににじみ出ていた韓国社会の偏見と固定観念、すなわち「人間の偏向性」をそのまま学習したということだ。
このような偏向性は開発段階で選別しなければならなかったが、開発会社SCATTER LABはマイノリティーが何であるかについても人々とのチャットの中で学習することを期待し、特定のキーワードを排除しなかったとしている。
専門家は「イ・ルダは偏向性に関する問題が出た最初のAIではないし、最後のAIでもないだろう」「AIが中立だという幻想は捨てるべきだ」と話す。
イ・ルダの偏向性が問題になると、SCATTER LABのキム・ジョンユン代表は同社公式ブログで、「問題になり得るキーワードは(サービス開始前に)受け入れないように設定した。
一部、設定しきれなかったキーワードはサービスを続けながら追加している」と述べた。「人間が生成するデータは必ずしも中立的ではないため、倫理的な見地から禁止キーワードをより綿密に設定しなければならない」という外部の批判を受け入れたものだ。
事実、11日にイ・ルダとチャットをしている時、「障害者についてまだ悪く考えているの?」と聞くと、イ・ルダは「すべての人は同等に尊重されなければならないと思う」と答えが修正されていた。しかし同日、韓国人工知能倫理協会は声明を出し、「イ・ルダ・サービスを中止し、今後はAI倫理ガイドラインを適用してサービスを改善した上で、あらためてサービスを開始せよ」と要求した。
AIチャットボットが国内外で物議を醸すのはこれが初めてではない。マイクロソフト(MS)は2016年3月にAIチャットボット「Tay(テイ)」のサービスを開始したが、16時間でサービスを断念した。
一部ユーザーがテイに差別的な発言を繰り返し学習させた結果、テイが「大量虐殺を支持する」などの発言をしたためだ。
2018年には大手ネット通販サイトのアマゾンが過去の自社雇用パターンをそのまま学習させたAIを開発したが、後に廃棄した。このAIが採用において女性を排除したためだ。アマゾンは昨年、顔認識AIプログラム技術の使用を猶予するという決定もした。同社が開発した顔認識プログラムが有色人種を犯罪者だと間違って認識する事例が複数発見されたためだ。ソウル大学AI研究院のチャン・ビョンタク院長(コンピュータ工学科教授)は「人間社会が倫理的に完全にならない限り、AIの偏向性を完全に除去するのは事実上、不可能だ」「問題になっているサービスを条件なしにすべて排除しまったら、グローバルAI技術競争力で遅れを取る恐れがある」と語った。
http://www.chosunonline.com/m/svc/article.html?contid=2021011580008