#人工知能 が人類を抜くよりも早く、悪い言葉を学習して #人口不良 になる可能性を多いに感じる…。
#tay
https://twitter.com/hashtag/tay
人工知能の活躍がめざましい…。;
囲碁で勝利したり、
星新一大賞の一次審査を通過したり、
ついにMicrosoftのTayが、悪い言葉を放つようになった…。
ディープラーニングが人類の闇の部分を深く学習していくと、それが一番怖いのかもしれない。
人々に憎まれれば憎まれるほど、評価が高く設定されるとしたら…。冗談でも、そんなプログラムが走りだしたら、とどまる先がないのかもしれない…。批判されればされるほど強くなってくるのだ…。
人間側に悪意があれば、人工知能はそれを深く学習してしまう…まるで子供といっしょだ。
人工知能に必要なのは、育つ環境だということがよくわかる。
マイクロソフトが、公開したばかりの学習型人工知能会話ボット「Tay」を緊急停止させました。理由はTwitterでの会話を通じて人種差別や性差別、陰謀論を学習してしまい、極めて不適切な発言を連発するようになったため。発言は直接引用するのも憚られますが、たとえば特定の人物について問われれば放送禁止レベルの差別語で罵倒したり、ヒトラーを礼賛してホロコーストはでっち上げと主張するといった発言が残っています。
情報源: マイクロソフトの機械学習AI「Tay」、ネットで差別を学んでしまい一日で公開停止 | Engadget 日本版