LinkSwitch

アイアムビリーバー

ギター練習とDTPとウェブ解析

「AIが作ったから安全」は大間違い!生成AI利用で絶対に知っておくべき法律とリスク

4 views

第4章では、生成AIをビジネスや業務で使う上で絶対に知っておくべきリスクとルールを解説します。著作権・情報漏洩・ディープフェイク・AIガバナンスまで、生成AIパスポート試験でも出題割合が高い、最も実務的な分野です。

📝 試験に出やすいポイント:この章は生成AIパスポート試験で出題割合が高く、「ひっかけ問題」が多い分野です。特に著作権の「学習段階/生成段階」の区別と、オプトアウト・ヒューマン・イン・ザ・ループの意味を正確に押さえましょう。

1. 著作権と生成AI(日本のルール)

日本の著作権法では、生成AIと著作権の関係を「学習段階」と「生成・利用段階」の2つに分けて考えます。それぞれでルールが異なる点が重要です。


2. 情報漏洩リスク(個人情報と機密情報)

無料の生成AIサービスに機密情報を入力することには、見落とされがちな重大なリスクがあります。

📝

機密情報を入力

🤖

AIが再学習に使用

⚠️

他ユーザーへ漏洩

一般的な無料サービスでは、入力したデータが次世代モデルの再学習に使われ、他のユーザーへの回答として漏洩するリスクがあります。

✅ 対策方法
  • エンタープライズ版(法人向け契約)を利用する:入力データが学習に使われないことが保証されています。
  • オプトアウト設定を行う:設定画面から「学習データとしての利用を拒否する」設定をオンにします。
📌 「オプトアウト」とは?

サービス側がデフォルトで許可している処理(今回の場合は学習データとしての利用)に対して、ユーザー側から「それは断る」と申告する設定のことです。試験でも頻出のキーワードです。


3. ディープフェイクと倫理的リスク

🎭 ディープフェイク

実在する人物の顔や声をAIで合成し、本物そっくりの偽動画・偽音声を作る技術です。詐欺や、選挙における世論操作などへの悪用が社会問題になっています。

⚖️ AIバイアス(偏見)

AIは過去のデータを学習するため、データ内に偏見が含まれていると差別的・偏った出力をしてしまう問題です。(例:「男性は医師、女性は看護師」という偏ったデータで学習した場合)


4. AI事業者ガイドラインとAIガバナンス

日本では、総務省と経済産業省が「AI事業者ガイドライン」を定めています。法律のような強制力はありませんが、企業がAIを安全に運用するための重要な指針です。

ヒューマン・イン・ザ・ループ(Human-in-the-Loop)

AIの判断に完全に依存するのではなく、最終的な確認・責任は必ず「人間」が持つべきという原則です。

📌 ヒューマン・イン・ザ・ループのイメージ
👤

人間が指示

🤖

AIが処理・生成

👤

人間が確認・判断

最終出力・実行

💡 例:AIが書いた記事は必ず人間がファクトチェックしてから公開する。AIが提案した採用候補者を人間の担当者が最終判断する。

🏛️ AI事業者ガイドラインのポイント

法的拘束力はないものの、透明性・安全性・公平性・プライバシー保護などAI活用における基本的な考え方が示されています。企業がAIを導入する際の「守るべき指針」として機能しています。


📝 確認テスト(チェックポイント)

この章は試験で「ひっかけ問題」として出やすいポイントが多い分野です。正確に答えられるか確認しましょう。

  • 日本の法律において、原則としてインターネット上の画像を無断で「AIの学習用データ」として使用することは、著作権侵害になりますか?なりませんか?
  • 無料の生成AIを使用する際、入力した機密情報がAIの再学習に使われるのを防ぐために行う「学習データの利用拒否設定」のことを何と呼びますか?
  • AIの生成結果を鵜呑みにせず、最終的な確認や判断を人間が行うべきという原則やプロセスのことを「ヒューマン・イン・ザ・〇〇〇」と呼びます。〇〇〇に入る言葉は何ですか?
💡 答えのヒント

① ならない(著作権法第30条の4により原則OK) / ② オプトアウト / ③ ループ(ヒューマン・イン・ザ・ループ)