特定の個人・団体・企業を誹謗中傷するコメントを見つけた場合、即刻削除させていただきます。ご了承ください。

2018年07月18日

人間と同じように、人工知能ロボットも人種差別や性差別を行う(米研究)






人間と同じように、人工知能ロボットも人種差別や性差別を行う(米研究)

現在の人工知能の隆盛の原動力ともなっているのが機械学習だ。コードを書き、ポーカーを嗜み、ガン治療の発見に挑むという行為が可能になっているのは、この学習アルゴリズムのおかげだ。だが、そこには偏見(バイアス)の問題が潜んでいる。

 アメリカ・ニュージャージー州、プリンストン大学では、GloVeというアルゴリズムを使い、AIにインターネットで8,400億の単語を学ばせ、その思考に人間が作り出したデータに潜むステレオタイプが再現されることを証明した。

 それは人種と性別に関連する偏見だ。


AIロボットは人間の悪しき性質も学習してしまう

 「AIの進化が加速しているのは、人間の知識を探り、それを自身に入力する仕組みがあるからです」とジョアンナ・ブリソン(Joanna Bryson)氏は説明する。

 今回は人が知らず知らずに持ち続けている偏見が伝わる仕組みについても分かってきたという。


サイエンス(Science)誌に掲載された研究では、潜在連想テスト(Implicit Association Test)を用いて、偏見(バイアス)が存在する場所を割り出した。

 同テストは心理学において、人間の特性を判定するために使用されるものだ。そうしたテストでは、被験者にPCの画面に表示される単語をペアにしてもらい、それに要した時間が測定される。

 すると、例えば”バラ”なら”愛”などの心地よい概念、”蛾”ならあまり心地よくない、不快な概念と組み合わされる傾向にある。


ロボットは潜在的に人種差別・性差別の概念を受け継がれていた

 今回の実験では、GloVeにネットで収集した文章を用いて潜在連想テストを受けてもらった。その結果、ヨーロッパ系アメリカ人からはアフリカ系アメリカ人よりも心地よい概念が連想されることが判明した。

 また、別の例では、女性の名前からは家族が連想され、男性の名前は仕事・キャリアという概念が連想されたという。

 こうした言語に潜む潜在的な偏りは現在のテクノロジーの多くでは利用されていないが、偏見やバイアスが伝達される容易さを浮き彫りにしている。

 
 「こうした技術について大切なことは、今発展しているAIシステムに現在の文化や2歳児の文化を覚えさせてはいけない、ということです」とブリソン氏。AIシステムを文化に沿って発展させつつも、人間の悪しき偏見を学習させるべきではなく、常に新しいデータで再教育し続けなければならないという。

 今回の発見が示唆していることは、もし言語特性を理解し、それを自ら作り出せるようなAIシステムが登場した場合、その過程で歴史的・文化的な連想も学習するであろうということだ。そうした連想の中には現在では不適切とみなされるものもある。
posted by gensou-choumazin at 10:07| Comment(0) | 最新・面白科学記事 | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前: [必須入力]

メールアドレス: [必須入力]

ホームページアドレス: [必須入力]

コメント: [必須入力]

認証コード: [必須入力]


※画像の中の文字を半角で入力してください。