米フェイスブック傘下のインスタグラムは写真共有アプリで不適切なコメントを入力している利用者に対し、注意喚起する制度を導入した。8日、明らかにした。AI(人工知能)を活用し、いじめなどの不快で有害なコメントを検知する。画面に確認メッセージを出し、内容の再検討や投稿の中止を促す。特定の利用者からのコメントを投稿者本人が気付かない方法で非表示にする「Restrict(制限)」と呼ぶ制度を試験的に導入することも明らかにした。