ゲーム情報&ブログ2.0

家庭用コンシューマーゲーム情報ブログ。任天堂、ソニー、マイクロソフト満遍なく取り扱っています。

スポンサードリンク

マイクロソフトは、有害なコンテンツの特定を支援し、ゲームコミュニティがオンラインでゲームをプレイする際の安全を確保するためにAIを活用



マイクロソフトは、有害なコンテンツの特定を支援し、ゲームコミュニティがオンラインでゲームをプレイする際の安全を確保するためにAIを活用をレポートとしていて、今何をするためにAI技術を高めようとしているのか?


マイクロソフトは、有害なコンテンツの特定を支援し、ゲームコミュニティがオンラインでゲームをプレイする際の安全を確保するためにAIを活用している。

Xbox Transparency Reportのブログ投稿で、同社は『プレイヤーの安全性を促進するための進歩』と『透明性へのコミットメント』、そして『AIを活用するための先進的なアプローチ』を改めて強調した。

AIの具体的な活用方法としては、自動ラベル付けと画像パターンマッチングの2つがある。

前者はAIを使ってプレイヤーの報告から有害な単語やフレーズを特定し、コミュニティのモデレーターが偽の報告を素早く選別して最も重大な事例に集中できるようにする。

後者も同様に、画像マッチング技術を用いて、有害・有毒な画像を迅速に特定し、削除する。

このAIの使用は、昨年導入された新しい音声報告機能に続くもので、Xboxプレイヤーがゲーム内のボイスチャットのビデオクリップをキャプチャしてXboxセーフティチームに提出し、レビューしてもらうことができる。

Xboxの発表によると、この機能の開始以来、13万8000件の音声記録が記録されたという。これらの報告により強制ストライキが行われた場合、98%のプレイヤーが行動の改善を示し、それ以上の強制は受けなかったという。

Xboxは昨年、強制ストライキ・システムを導入し、悪質な行為には適切な重さのストライキが適用されるようになった。発売以来、ストライキを受けたプレイヤーの88パーセントは、それ以上の取り締まりを受けていない。

AIが有害コンテンツの審査にかかる人的コストを削減するという点では、前向きな一歩だ。

それでも、ゲームのボイスチャットでは、依然として有害性と女性差別が蔓延している。今週、Twitchストリーマーのテイラー・モーガンの投稿は、彼女がRiotのValorantの試合をプレイしているときに受けた有害な罵倒のためにウイルスに感染した(以下のクリップの言葉遣いに注意)。

『出場停止処分だけでは不十分です。ハードウェアが禁止されるまで、このような男たちの行動は止められない。彼らは二度とゲームをプレイできないはずです』と彼女はX(旧ツイッター)に投稿した。

続いての投稿で、彼女はゲームを早々に切り上げたことでペナルティを受けたことを明かした。

このような例は、オンラインゲームの安全性を向上させるにはまだ長い道のりがあることを浮き彫りにしている。また、マイクロソフトのAI活用は一見前向きだが、同社が昨年、全社で1万人の人員削減の一環として、AIの倫理・社会チームを全員解雇したことは記憶に新しい(当時、『The Verge』が取り上げた)。しかし、Office of Responsible AIは残っており、Responsible AI Standardガイドを発表している。

実際、マイクロソフトはAIの利点を確かに推進している。昨年11月には、デザインコパイロットやキャラクターランタイムエンジンなどのAIツールをXboxのスタジオに提供するため、インワールドAIと『複数年にわたる共同開発パートナーシップ』を結んだと発表した。

このようなジェネレーティブAIツールは、Eurogamerが昨年のGDCイベントから報じたように、以前は『尊敬と怒り』をもって受け止められてきた。

最近では、Unityのレポートによると、62%のスタジオがすでにAIを活用しており、その中でもアニメーションが最も利用されているという。


関連リンク



マイクロソフトがAIをどう取り入れていくのかというビジョンはあるようですが、過去にはAIチームをリストラしたりしているので、一貫性が何処まであって、それに邁進していくのかといえますね。

 [ゲーム]マイクロソフト関連記事

スポンサードリンク