子どもたちを裸自撮り被害から守る!
子どもが自分の裸の自撮り写真を送って拡散されたり、送ることを強制される自撮り被害。これを防ぐために日本の会社が立ち上がりました。スマホで撮影された写真に裸などの問題があるかをAIが判断して自動的に削除するというアプリ。
このアプリを開発しているのはスマートブックス株式会社と藤田保健衛生大学。スマホの進化やソーシャルメディアの流行で生活が便利になる一方、簡単に手に入ったり送受信、拡散ができることから、子どもの自撮り裸画像で痛ましい事件も起きています。2021年だけでこういったケースの子ども被害は1,811件も。そんな被害を防ぐために開発されているのが「コドマモ」です。
AIで問題のある画像を判別
スマホにダウンロードされると、AI技術を使って写真をスキャンします。全裸だけではなく、下半身、胸部、性器など部分的な構図であっても判定することが可能です。発見された場合は削除され、保護者にメッセージが届くようになっています。また削除する際、保護者の許可を事前に得る機能も開発中だということです。写真はAI判定であるため、開発している会社にはまったく共有されることはありません。またカメラアプリを問わずすべての写真に対応するとのこと。
開発しているスマートブックス株式会社代表の冨田直人氏はすべてのお子さんにこのアプリをダウンロードしてもらい自分の身を守ってほしいと話しています。年末までにはリリース準備が整って、お子さんと保護者がダウンロードできるようになるとのことです。
からの記事と詳細 ( 子どもが自分の裸の写真を送る自撮り被害を止めるアプリ「コドマモ」 - GIZMODO JAPAN )
https://ift.tt/skw7xy2
科学&テクノロジー
No comments:
Post a Comment