インスタグラム、AIが悪性コンテンツ自動通報

양정미 기자

登録 : 2018-10-10 16:14 | 修正 : 2018-10-10 16:25

[写真=インスタグラム提供]


社会関係網サービス(SNS)インスタグラムは、人工知能(AI)技術を活用して誹謗を目的とする掲示物や悪性コンテンツを求めて自動的に申告する機能を導入したと10日明らかにした。

インスタグラムは「青少年の使用者たちをオンラインでのイジメなどからもっと積極的に保護できることを期待する」と伝えた。

自動通報機能はストーリーなどだけでなく、非公開アカウントの写真掲示物にも適用され、申告された写真や掲示物に含まれた誹謗用スローガンなどを検討した結果、インスタグラムのガイドラインを遵守しない場合、削除措置される。

また、ライブ放送で誹謗や悪質な書き込みなど、不適切な内容を自動的に選別してくれる機能も導入された。一方、ライブ放送の書き込みフィルター機能は、現在、英語・フランス語・ドイツ語・アラビア語など9つの言語を支援し、今後、韓国語なども支援する計画だ。
top