opuesto / Tate’s Official Blog

I have the right to know the truth and i must protect the children's future.

AI vs AI

先週の水道工事、

昨日のガス点検、

そして今日の消防点検。

 

この数日、見知らぬ人を

部屋に招く機会が続いていました。

 

あの気不味い時間‥

嫌いじゃないです。

 

お互いの心の声が聞こえてきそうな

あの瞬間(苦笑)。

 

”初めまして” vs ”初めまして”。

 

慣れっこの職人さんから、

イマイチ何を言っているのか

分からない小声でシャイな人、

淡々と業務をこなす人。

 

人それぞれです。

 

人間味。

 

そんな人間味が、

どんどん削ぎ落とされる時代に

突入していますが、

こんなニュースを読んでいました。

 

"AI" vs "AI"

 

‥ゾクっとしました。

 

少し長文ですが、

全文メモしておきます。

 

▼『顔認識のAI 別のAI悪用で顔データ再現の恐れ』

NHK  2月19日 18時31分

 

f:id:opuesto:20180220171257p:plain

 

特定の人の顔を認識するという人工知能=AIの技術は、ロックの解除などさまざまなところで活用が広がっています。ところが、三者が別のAIを悪用すると顔のデータを再現できてしまうおそれがあるとする実験結果を筑波大学の研究グループがまとめ、なりすましなどへのセキュリティーのあり方に一石を投じています。AIをめぐっては、特定の人の顔を見分ける顔認証の技術が急速に進歩していて、コンピューターのロックなどに導入されているほか、将来的にはさまざまな本人確認などへの応用も検討されています。


これに対し、筑波大学人工知能科学センターの佐久間淳教授の研究グループは、特定の人の顔を学習したAIを別のAIに攻撃させ、学習した顔を類推させる実験を行いました。

攻撃側のAIは、まず適当な画像を作り出して攻撃対象のAIに見せます。そして、学習した人の顔とどれくらい似ていると攻撃対象が識別したかを読み取ります。そのうえで、得られた結果をもとに顔を類推し、より似せた画像を作るという作業を高速で繰り返しました。

その結果、攻撃側が作った画像は初めは意味をなさないものでしたが、学習した人の顔に急速に似ていき、2日後には攻撃対象のAIも本人と認識するレベルになったということです。

通常はAIのプログラムを攻撃側が読み込むことは難しいため、直ちに悪用されるわけではありませんが、研究グループでは、何者かがAIをハッキングすれば本人の顔を再現できてしまうほか、将来的には顔認証が突破されるリスクも懸念されるとしています。


佐久間教授は「これまでAIの開発では学習データが第三者に見られることは想定していなかった。データの中には企業の非公表の情報や個人の顔などもあり、情報が漏えいするリスクへの対応が必要だ」と話しています。

 

・活用進むAIの画像認識

 

人工知能=AIによる画像認識の技術は身近なところで活用が始まっています。アメリカのIT企業、アップルの最新のスマートフォン「iPhoneX」は、AIを使って顔を見分け、持ち主しかロックを解除できない技術が搭載されています。

アメリカのハンバーガーチェーンでは、AIが顔を認識して購入履歴からおすすめの商品を示したり、自動的に支払いを済ませたりする実験を行っています。
 
顔認証以外のものも含めると、車の自動運転で危険物を察知したり、病気の診断の支援に応用したりするなど画像認識の技術はさまざまな分野で活用が期待されています。
 
・情報漏えいのリスクとは
 
人工知能=AIが学習した人の顔などの画像データが第三者に再現されてしまうとどのようなリスクがあるのでしょうか。

今回の研究を行った佐久間教授によりますと、AIのプログラムが攻撃者の手にわたってしまうと、所有者の顔が知られるなどの個人情報の保護をめぐる問題が起きるおそれがあるということです。

また、第三者が本人になりすまして顔認証を突破してしまうと、その機器を自由に操作されてしまうセキュリティー上の問題も懸念されるということです。
 

f:id:opuesto:20180220171335p:plain


佐久間教授は、今回の実験はさまざまな条件の下で行われているため、直ちに悪用されるリスクは考えにくいとしたうえで、万が一に備えた対策を検討していく必要があるとしています。
 
東京大学 松尾豊特任准教授「問題一つ一つ解決を」
 
人工知能=AIの画像認識をめぐっては、今回の実験のほかにもさまざまな課題が指摘されています。

その一つが、物を誤って認識する問題です。

マサチューセッツ工科大学の研究グループは、現状のAIが抱える画像認識の課題を突き、特殊な「亀」の模型を作りました。
するとAIはこの模型を「銃」と認識したということです。

また、ワシントン大学は、交通標識の模型にあるステッカーを貼ると、「一時停止」の標識をAIが「速度規制」と誤って認識することを実験で示しています。

人工知能に詳しい東京大学の松尾豊特任准教授は「これまでAIそのもののぜい弱性についてはあまり議論されてこなかった。AIはまだ発展途上であり、セキュリティーの懸念など、さまざまな問題を一つ一つ解決しながら技術を前に進めていく必要がある」と指摘しています。
 

 

 自分が生きている間に、

どこまでAIが進歩するのか‥。

そして、人間は‥。

 

ぞわぞわが‥止まりません。