第4章では、生成AIをビジネスや業務で使う上で絶対に知っておくべきリスクとルールを解説します。著作権・情報漏洩・ディープフェイク・AIガバナンスまで、生成AIパスポート試験でも出題割合が高い、最も実務的な分野です。
1. 著作権と生成AI(日本のルール)
日本の著作権法では、生成AIと著作権の関係を「学習段階」と「生成・利用段階」の2つに分けて考えます。それぞれでルールが異なる点が重要です。
日本の著作権法第30条の4により、原則として著作権侵害にはなりません。これは世界的にもAI開発に有利な法律として注目されています。
AIが生成した画像や文章が既存の作品と「類似性(似ているか)」があり、かつその作品を「依拠(参考にして作ったか)」していると判断された場合、通常の著作権侵害と同じ扱いになります。
2. 情報漏洩リスク(個人情報と機密情報)
無料の生成AIサービスに機密情報を入力することには、見落とされがちな重大なリスクがあります。
一般的な無料サービスでは、入力したデータが次世代モデルの再学習に使われ、他のユーザーへの回答として漏洩するリスクがあります。
- エンタープライズ版(法人向け契約)を利用する:入力データが学習に使われないことが保証されています。
- オプトアウト設定を行う:設定画面から「学習データとしての利用を拒否する」設定をオンにします。
サービス側がデフォルトで許可している処理(今回の場合は学習データとしての利用)に対して、ユーザー側から「それは断る」と申告する設定のことです。試験でも頻出のキーワードです。
3. ディープフェイクと倫理的リスク
実在する人物の顔や声をAIで合成し、本物そっくりの偽動画・偽音声を作る技術です。詐欺や、選挙における世論操作などへの悪用が社会問題になっています。
AIは過去のデータを学習するため、データ内に偏見が含まれていると差別的・偏った出力をしてしまう問題です。(例:「男性は医師、女性は看護師」という偏ったデータで学習した場合)
4. AI事業者ガイドラインとAIガバナンス
日本では、総務省と経済産業省が「AI事業者ガイドライン」を定めています。法律のような強制力はありませんが、企業がAIを安全に運用するための重要な指針です。
ヒューマン・イン・ザ・ループ(Human-in-the-Loop)
AIの判断に完全に依存するのではなく、最終的な確認・責任は必ず「人間」が持つべきという原則です。
法的拘束力はないものの、透明性・安全性・公平性・プライバシー保護などAI活用における基本的な考え方が示されています。企業がAIを導入する際の「守るべき指針」として機能しています。
📝 確認テスト(チェックポイント)
この章は試験で「ひっかけ問題」として出やすいポイントが多い分野です。正確に答えられるか確認しましょう。
- 日本の法律において、原則としてインターネット上の画像を無断で「AIの学習用データ」として使用することは、著作権侵害になりますか?なりませんか?
- 無料の生成AIを使用する際、入力した機密情報がAIの再学習に使われるのを防ぐために行う「学習データの利用拒否設定」のことを何と呼びますか?
- AIの生成結果を鵜呑みにせず、最終的な確認や判断を人間が行うべきという原則やプロセスのことを「ヒューマン・イン・ザ・〇〇〇」と呼びます。〇〇〇に入る言葉は何ですか?
① ならない(著作権法第30条の4により原則OK) / ② オプトアウト / ③ ループ(ヒューマン・イン・ザ・ループ)
