ここ数年ディープフェイクという言葉を耳にする機会もあったかと思います。しかしディープフェイクという名前を耳にするときは有名人の画像が悪用されたといったなどの内容が多く、ディープフェイクに悪い印象を持っている方も少なくないのではないでしょうか。
ディープフェイクとは、ディープラーニング(深層学習)を利用して、動画や画像の一部を入れ替える技術のことを指します。「ディープラーニング」と「フェイク」という二つの言葉を組み合わせた造語の様です。この技術は本来映画のCG技術などに利用されているもので正しく利用すれば、エンタメ業界などでの可能性を広げうる素晴らしい技術なのです。
本記事では、ディープフェイクの活用・悪用例とともにその対策方法についても詳しくご紹介いたします!
目次
1章 「ディープフェイク」の概要・活用例
1-1 「ディープフェイク」とはどの様な技術?
まずは、ChatGPTにディープフェイクとはどの様なものであるのかを尋ねてみましょう。

画像出典Open AI
このように、ディープフェイクとは人物の顔や声をAIによって偽造・合成する技術であるという説明があります。合成する人の声や顔の大量のデータからさまざまな表情などを学習することによって、より自然に見えるように人物を動画に合成することができるということの様です。
1-2 「ディープフェイク」の活用事例
それでは、ディープフェイクの技術を使って実際にどのようなものに活用されているのかをご紹介いたします。
映画・テレビ番組
始めに活用されているのは映画・テレビ番組といったエンターテインメント業界です。例えばアクション映画では、スタントマンがアクションをした様子を撮影した上で、スタントマンの顔をディープフェイク技術によって役者の顔に変化させるといったことができる様になりました。
これにより、映像業界にとっては演出の幅を大きく広げることができる様になったと言えます。
さらに現在の試算では、ディープフェイク技術はその他の合成技術の10%未満のコストで作成することができるとも言われているらしくコスト・内容ともに期待が高まるものとなっています。
多言語テレビ・ラジオ番組
ディープフェイクでは顔だけでなく声も変化させることができるため、例えば英語で喋っているテレビ出演者の声だけを日本語やフランス語などに変えることができれば、ほぼリアルタイムで多言語に対応したテレビ番組を作ることができるかもしれません。
これを用いれば英語の吹き替えなども役者の声で吹き替えが行われることもあるでしょう。
リモート会議の支援
さらにはメディアや映像業界など以外で、我々にも有用な使い方としてリモート会議の支援があります。ディープフェイク技術によって自動で背景や自分の身だしなみなどを整えた状態で、リモート会議に参加できるようなサービスも開発が始まっている様です。
さらにアバターの目線を常にカメラに向けるということもできるようで、カメラ外の資料を読みながらでのリモート会議や面接の参加というものもできる様になるかもしれません!
この様に、ディープフェイクは正しい使い方をすればさまざまな利点をもたらすことができるのです。
2章 「ディープフェイク」の悪用・対策
先ほど述べたように、ディープフェイクは元動画に関係ない人物の顔や声を違和感なくすり替えることができることから、残念ながら悪用されてしまうケースも報告されています。悪用例や今なされている対策もご紹介していきます。
ディープフェイクの悪用例
大統領を騙る呼びかけ
2022年3月にウクライナのゼレンスキー大統領が国民に向けて、ロシア軍への抵抗を止めるように呼びかけるといった内容の動画が投稿されました。もちろんこれは、本物の動画ではなく何者かがゼレンスキー大統領を騙ってディープフェイク技術を用いてなりすましたものです。
この動画はゼレンスキー大統領の顔をよく見ると違和感があったことからすぐにフェイク動画であるということが見破られたそうですが、精度の高いディープフェイク技術を用いていればこのような動画に惑わされる人も現れることでしょう。
偽のポルノ動画
ディープフェイク技術を用いて著名人の顔をポルノ動画の中の登場人物と入れ替えた動画などが、拡散されたり無断で販売されたりしているという例もあります。
先ほどの「大統領を騙る呼びかけ」は影響力あのある人の顔を使うことに意味がありましたが、今回の例では著名人にとどまらずインターネットに顔を公開しているすべての人がターゲットになりうる我々にとっても危険なものとなっています。
ディープフェイクの悪用対策
この様に、ディープフェイクの悪用では最悪の場合国家にもダメージがあるような使われ方もしかねません。そのため我々がディープフェイク画像を見る際にできることとして、作られた映像や画像をしっかりと見極めるということがあります。本章ではディープフェイクの悪用への対策についてまとめました。
ディープフェイクを検出できるツール
現在さまざまな企業や研究機関から、ディープフェイクを検出するツールというものが開発されています。例えば、NABLASが発表しているディープフェイク検出ツールでは、「画像・音声・動画」・「未知の生成方法で作られたフェイク」・「ノイズが含まれた音声」などに対応したものである様です。
検出の方法として、二つあります。一つ目が「フェイク自体の特定の箇所に注目して解析することで、不自然な箇所を発見する」というものです。ディープフェイク技術は現時点では人間の目はごまかせてもどこか不自然な部分というものが存在します。これを検知する方法となっています。
二つ目が、「元の人物の画像データの学習を用いる方法」です。例えばゼレンスキー大統領の例では、ゼレンスキー大統領の画像データとを大量に読み込ませることによってAIにこれを学習させます。さらに、フェイクの画像を学習させることによってAIが画像や動画がリアルなものであるかどうかというのも判断するというものです。
複数の情報ソースを確認する
ディープフェイクの中では、社内のメールなどを通じて経営者を騙るビジネスメール詐欺(BEC)というものもあります。このようなパターンで気をつけるべきは一つの情報源を信用しすぎないことです。
特定の人物になりすますことのできるディープフェイクにおいては、普段は信用できる情報かどうかの判断要素となりうる情報(顔や声、メールアドレス)なども信用できないことがあります。そのため、本人に直接確認するなどのいくつかの情報源を確認する必要があると言えるでしょう。
3章 まとめ
今回は、深層学習によるディープフェイク技術について活用事例や悪用事例についてご紹介しました。正しく使えば非常に便利な技術であるものの、悪用のデメリットが目立ってしまっているというのが現状といったところでしょう。
ディープフェイクを見破ることができる技術の他にも法規制などの対策をさらに進めていく必要がありそうですね。今後、ディープフェイクを体験できるAIツールについても紹介していく予定ですので、ぜひ気になった方はそちらの記事をご覧ください。
関連記事
この記事は役に立ちましたか?
もし参考になりましたら、下記のボタンで教えてください。
コメント