柳谷智宣のAI ウォッチ!
ディープフェイクを作るハードルがあまりに低すぎる ~LoRAがもたらしたもの
知っておきたい画像生成AIのいま[後編]
2025年1月22日 09:00
前編では、自撮り画像から画像生成AIで利用する「LoRA」を作成し、テキストから自由自在に自分の画像を生成する方法を紹介した。単に特定の人物を描写するのではなく、例えば「パリを歩いている」とか「宇宙遊泳している」などと現実的でないシーンも生成できる。
プロフィール写真やリアルなアバターを手軽に作成できるので、アイディア次第でいろいろ活用できそう。今後、AIアナウンサーやAIモデルも登場するだろう。
すでにインフルエンサーなど有名人の中には、自らのプロフィール写真にリアルに撮影した写真と画像生成AIで生成した写真を並べて公開している人もいる。メディアが使いたいプロフィール写真を自由にダウンロードできるようにしており、話を聞いてみると、選ばれるのは生成AIの写真の方が多いとのこと。リアルな写真だと毛穴などが写っているが、生成AIはそこまで細かく描写しないためだという。
欲望があり、手段があるなら、人は必ずやらかす
とはいえ、ここまで手軽にリアルな写真を作れるのは脅威だ。初めて実在の人物を生成すると「これ悪用できるのでは?」と皆が考えるはず。
有名人の写真は誰でも手軽に入手できるし、個人の写真もSNSなどで公開している人は多い。10数枚程度であれば、簡単に揃ってしまうことだろう。前回紹介したサービス以外にも、さまざまなプラットフォーム向けの学習ツールが公開されており、手元のPCで動くローカル環境も構築できる。
他人の顔を使って偽の画像、いわゆる「ディープフェイク画像」を生成して拡散すると、法律上さまざまな罪に問われる可能性がある。わいせつな画像なら、特定個人の社会的評価を低下させる内容となり、名誉毀損罪になるだろう。
ディープフェイク画像が企業や団体の業務を妨害する目的で使用された場合、偽計業務妨害罪が成立する可能性もある。個人のプライバシーを侵害する内容を含む場合、民事上の損害賠償請求の対象となる可能性も考えられる。特に、性的なディープフェイク画像は被害者に深刻な精神的苦痛を与えるため、損害賠償額が高額になる可能性もある。
しかし、欲望があり、手段があるなら、人は必ずやらかす。
まだAIの技術レベルが低かった数年前から、すでに多数の事件が起きている。2023年には逮捕目前などと噂されていたドナルド・トランプ氏が逮捕される現場を描いたディープフェイク画像が出回った。あまり出来のよい写真ではなかったのだが、ものすごく拡散されてニュースになった。
2024年の大統領選では、トランプ氏が黒人女性たちと仲がよさそうに笑っている写真が出回った。トランプ氏の支援者が、黒人票を取り込むために拡散させたもので、こちらは本物と見分けがつかないほどクオリティが高かった。加えてトランプ氏本人も、米歌手テイラー・スウィフト氏がトランプ氏を支持するようなディープフェイク画像をSNSに投稿するという騒ぎを起こしている。
ディープフェイク被害はすでに発生中、一刻も早い対策が必要
その上、ディープフェイク画像はネット詐欺にも利用されている。
2024年2月に報じられたニュースでは、多国籍企業の香港支店の従業員が、ネット詐欺に遭い、2億香港ドル(約38億円)の被害を受けたのだ。その社員がビデオ会議に参加したところ、イギリスにいるCFOをはじめ、何人かの参加者がいたそう。全員顔見知りで、顔も声も本人のモノだった。そのため、送金指示を信じてしまい、巨額の送金を行ってしまったのだ。
国際ロマンス詐欺では、美男美女の写真をSNSや出会い系サイトのプロフィールに利用して騙してくる。1対1のコミュニケーションを重ねるので手間と時間はかかるものの、一度信用させてしまうと大きな金額をだまし取ることができるため、いまでも被害は広まっている。最近の国際ロマンス詐欺はディープフェイク画像だけでなく、プロフィールやメッセージまで生成AIで作成しており、とてもリアリティが高く、手に負えなくなっているのだ。
グラビアアイドルや女優の写真からLoRAを作り、生成AIコンテンツの投稿プラットフォームで公開されたこともある。
現在は、そのほとんどが削除されているが、LoRAそのものは出回っているし、数百円で販売されていることもある。実際、そのLoRAを使って生成したと思われる画像を掲載したXアカウントがいくつもある。もぐらたたきにはなるが、プラットフォーマーにはきちんと対処してほしいところ。
さらに深刻なのが身近なディープフェイク被害だ。2024年12月、NHKでAI生成ポルノに関する番組が放送された。なんと、日本の中学生が卒業アルバムの写真を悪用し、生成AIでポルノを生成して拡散したというのだ。
顔を学習させて画像を新規に生成するよりも、既存の写真をアップロードし、体の部分を裸の画像に差し替える方が技術的には簡単だ。ある程度の画像生成AIに関する知識は必要なものの、1,000円程度で作業を請け負うサービスもある。
ある高校生は、2024年春、SNSアカウントに自分の裸の画像が送られてきたという。もちろん、自分のモノではなかったが、とてもうまく加工されていたため、他の人に信じてもらえないと考えたそう。
生徒間だけでなく、教師も被害に遭っている。オンライン授業に映った教師の顔を生成AIで加工し、クラスのグループLINEに拡散された事例もある。
政治問題やネット詐欺で使われるディープフェイク画像は見破ることができたり、第三者から指摘されれば、興味を失い被害を抑制することができる。しかし、ポルノ画像の場合は、ディープフェイクと判明しても閲覧・拡散されてしまうのが問題だ。
ディープフェイクによる被害を抑えるためには、技術による対応と法的な整備が必要となる。
すでにディープフェイク画像を検出する技術も進化しており、さらなる性能向上が期待されている。とはいえ、画像生成AIの性能向上スピードも輪をかけて早く、いたちごっこが続いている状態だ。
あまりにディープフェイクを作るハードルが低すぎる
生成AIの成果物に「電子透かし」を入れようという動きもある。メタデータとして作成情報を埋め込むことで、判別しようというものだ。しかし、これも簡単な抜け道がある。その画像のスクリーンショットを撮ってしまえばよいのだ。これで電子透かしを外すことができてしまう。
ディープフェイク動画を検知するための技術はいろいろと進歩しているが、ディープフェイク画像を検知する技術の動きはちょっと鈍いように感じる。まずは画像の問題が深刻なので、重ねてにはなるが、SNSなどのプラットフォーマーは本気で取り組んでほしいところだ。
アメリカでは表現の自由やイノベーションという観点で、プラットフォーマーを規制するのに及び腰になる傾向があるが、それでも「IOGAN(Identifying Outputs of Generative Adversarial Networks)法」や「DEEPFAKES Accountability Act」といった法案が提案されるなど、被害を防ごうという動きは出てきている。
一方、日本では、ディープフェイクに特化した法律はなく、動きは鈍い。今後、被害が広がってから、議論をスタートするというのではなく、先手を打って法整備を行い、特に個人の権利を脅かす生成AIポルノに関しては、厳しい罰則を用意したり、犯人の特定に関する手続きを支援したりするような動きがあってよいと思う。
いまはあまりにディープフェイクを作るハードルが低すぎるので、被害の拡大を止めることは難しい。今後、社会全体で他人のディープフェイクを作成して拡散することは重大な犯罪であるという認識を広めることが重要だ。
著者プロフィール:柳谷 智宣
IT・ビジネス関連のライター。キャリアは26年目で、デジタルガジェットからWebサービス、コンシューマー製品からエンタープライズ製品まで幅広く手掛ける。近年はAI、SaaS、DX領域に注力している。日々、大量の原稿を執筆しており、生成AIがないと仕事をさばけない状態になっている。
・著者Webサイト:https://prof.yanagiya.biz/