AI推進法とは、2025年5月28日に成立した日本初のAI分野における包括的な法律であり、正式名称は「人工知能関連技術の研究開発及び活用の推進に関する法律」です。この法律における事業者の義務は、基本理念に則ったAI技術の積極的活用と、国や地方公共団体が実施する施策への協力の2点が定められています。重要な特徴として、AI推進法は「規制法」ではなく「推進法」という性格を持ち、罰則規定が設けられていない点が挙げられます。
AI推進法は、日本がAI技術の研究開発と社会実装を加速させ、国際競争力を高めることを目的として制定されました。2025年6月4日に公布・一部施行され、同年9月1日には全面施行されています。本記事では、AI推進法の概要から事業者に課される具体的な責務、AI事業者ガイドラインとの関係、そして企業が実務上どのように対応すべきかまで、詳しく解説します。

AI推進法とは何か
AI推進法は、人工知能関連技術の研究開発・活用の推進に関する施策について、基本理念と基本計画等を定めるとともに、AI戦略本部を設置し、AI関連技術の研究開発・活用推進施策の総合的かつ計画的な推進を図ることを目的とした法律です。国民生活の向上と国民経済の健全な発展に寄与することを最終的な目標としています。
この法律が「規制法」ではなく「推進法」であるという点は、非常に重要な意味を持っています。特定のAI技術を禁止する条項は存在せず、違反に対する罰則も設けられていません。これは、AIの発展を国として支援するという法律の性格を明確に示しています。EUが2024年に成立させたAI規制法(EU AI Act)がハードローによる厳格な規制を採用しているのとは対照的に、日本はイノベーションを阻害しない形でのAI推進を選択しました。
AI推進法が制定された背景
AI推進法が制定された背景には、複数の重要な要因が存在します。
まず、生成AIの急速な普及が挙げられます。2022年末にChatGPTが公開されて以降、生成AI技術は爆発的に普及し、社会のあらゆる分野に影響を与えるようになりました。同時に、フェイク情報の拡散、個人情報の漏えい、著作権侵害などの問題も顕在化し、何らかの法的枠組みの必要性が認識されるようになりました。
次に、国際的な規制動向の変化があります。EUは2024年にAI規制法を成立させ、一部のAIを禁止したり、ハイリスクとされる類型のAIに厳しい規制を設けるなど、ハードローによるAI規制を進めました。日本はイノベーションを阻害する可能性を懸念し、ガイドライン等によるソフトローベースでAIを規律する立場をとってきましたが、2023年10月に米国もAIに関する大統領令を公表し、一定の法規制に踏み切ったことで、日本だけがソフトローでよいのかという問題意識が強まりました。
さらに、日本のAI開発・活用の遅れへの危機感も重要な要因です。2023年のAIへの民間投資において、日本は世界で大きく遅れをとっています。この状況を打開し、国際競争力を取り戻すためにも、国としてAI推進を明確に打ち出す必要がありました。
AI推進法の構成
AI推進法は5つの章から構成されています。第1章「総則」には、目的、定義、基本理念、国の責務、地方公共団体の責務、研究開発機関の責務等、活用事業者の責務、国民の責務、連携の強化、法制上の措置等が定められています。第2章「基本的施策」には、研究開発の推進等から調査研究までの各種施策が規定されています。第3章「人工知能基本計画」には、政府がAI基本計画を策定することが定められています。第4章「人工知能戦略本部」には、内閣に人工知能戦略本部を設置することが規定されています。第5章「雑則」には、施行日等が定められています。
AI推進法における事業者の義務と責務
AI推進法において、事業者に直接関係する最も重要な条文は第7条です。この条文は「活用事業者の責務」を規定しており、事業者がAI推進法の下でどのような義務を負うのかを明確にしています。
活用事業者とは誰を指すのか
活用事業者とは、AI関連技術を活用した製品やサービスの開発、または提供しようとする者、事業活動においてAIを活用しようとする者と定義されています。この定義は非常に広範であり、AI事業者ガイドラインで定義されている「AI開発者」「AI提供者」「AI利用者」のすべてが活用事業者に含まれると解釈されます。
つまり、AIを開発する企業だけでなく、AIを使ったサービスを提供する企業、そして事業活動の中でAIツールを利用する企業も、すべてこの法律の対象となります。たとえば、ChatGPTを業務に使う一般企業も活用事業者に該当するのです。
事業者に課される2つの責務
第7条で定められた活用事業者の責務は、大きく2つの柱から成り立っています。
第一の柱は、基本理念に沿った自律的な技術活用の努力義務です。 活用事業者は、法律の基本理念に則って、自ら積極的にAI関連技術を活用し、事業活動の効率化・高度化、そして新産業の創出に努めることが求められます。これは努力義務であり、法的な強制力を伴うものではありませんが、AI活用を推進する姿勢が求められていることを意味します。
第二の柱は、国および地方公共団体が実施する施策への協力義務です。 こちらは「協力しなければならない」という文言が使われており、努力義務よりも強い表現となっています。具体的には、人工知能基本計画に基づく施策の中で、企業のデータ提供、実証実験への参画、人材育成プログラムへの協力等が要請された場合、第7条がその法的根拠となります。
罰則がないことの意味
AI推進法の大きな特徴として、活用事業者の責務に違反した場合の罰則が規定されていない点があります。ハードロー(法律)でありながら法的な拘束力は弱いため、「日本のAI法はハードローとソフトローの中間的なアプローチである」と評されています。
しかし、罰則がないからといって軽視してよいわけではありません。法的強制力は薄いものの、実務における規範性と指針としての機能は極めて高いとされています。企業法務担当者は、この条文を単なる理念規定として軽視せず、AI活用に関する社内方針・契約管理・リスク評価・官庁対応等のあらゆる局面において、戦略的に対応する必要があります。
国による調査・指導と公表措置の仕組み
AI推進法は罰則こそ設けていませんが、国による調査・指導権限と公表措置という形で、事業者の行動を規律する仕組みを備えています。
調査研究権限の内容
AI推進法第16条は、国による調査研究の権限を規定しています。この権限には3つの柱があります。第一に、国内外のAI関連技術の研究開発・活用動向に関する情報収集です。政府は国内外のAI技術の発展状況を常に把握し、政策立案に活かすことが求められます。第二に、不正な目的・不適切な方法による権利侵害事案の分析・対策の検討です。AIを使った人権侵害や権利侵害が発生した場合、政府はその事案を分析し、再発防止策を検討します。第三に、その他のAI関連技術の研究開発・活用の推進に資する調査研究です。
指導・助言と公表措置
第16条に基づき、国は調査研究の結果に基づいて、活用事業者その他の者に対する指導、助言、情報の提供その他の必要な措置を講ずることができます。AIの利用によって問題が生じた場合、政府は事業者に対して是正を促すことができるのです。
特に重要なのが公表措置です。AIによる著しい人権侵害を確認した場合、または指導しても改善がみられない場合に、AIの開発事業者と活用事業者を公表することが可能とされています。これは事業者への社会的制裁として機能し、レピュテーション(社会的評価)リスクを通じた抑止効果が期待されています。事例が悪質かどうかの調査はそれぞれの分野の所管省庁が担い、判断基準はAI推進法施行後に詳細が詰められることになっています。
人権侵害の実態調査
2025年6月の全面施行後、政府はAIによる人権侵害リスクの実態調査に乗り出しました。人材採用での意図せぬ男女差別や、性的画像の無断生成といった被害をまず調べるとされています。これは、AIの利用が広がる中で生じている具体的な問題に対処するための第一歩です。
基本理念と人間中心のAI社会原則
AI推進法第3条では、AI関連技術の研究開発・活用推進における基本理念が定められています。活用事業者の責務(第7条)は「基本理念にのっとり」と規定されているため、この基本理念を理解することは事業者にとって極めて重要です。
人間中心のAI社会原則とは
AI推進法は「人間中心のAI社会原則」に基づく信頼性の高いAI社会を構築することを目指しています。この「人間中心のAI社会原則」は2019年に日本政府が策定したもので、AIの開発や運用における基本理念を定めています。7つの原則が定められており、それぞれが事業者のAI活用において重要な指針となります。
人間中心の原則は、AIが人々の能力を拡張し、多様な人々の多様な幸せの追求を可能とするために開発され、社会に展開され、活用されるべきであるという原則です。教育・リテラシーの原則は、AIの利用者側がその概要を理解し、正しく利用できる素養を身につけていることが望まれるという原則です。プライバシー確保の原則は、パーソナルデータを利用したAIおよびそのAIを活用したサービス・ソリューションにおいては、政府における利用を含め、個人の自由、尊厳、平等が侵害されないようにすべきであるという原則です。
セキュリティ確保の原則は、AIの利用において、セキュリティが適切に確保されるべきであるという原則です。公正競争確保の原則は、特定の国や企業にAIに関する資源が集中することで公正な競争が妨げられることのないようにすべきであるという原則です。公平性、説明責任及び透明性の原則は、AIの設計思想の下において、人々がその人種、性別、国籍、年齢、政治的信念、宗教等の多様なバックグラウンドを理由に不当な差別をされることなく、全ての人々が公平に扱われなければならないという原則です。イノベーションの原則は、AIの研究開発や活用において、イノベーションが促進されるべきであるという原則です。
AI戦略本部とAI基本計画の動向
AI推進法第19条は、内閣に「人工知能戦略本部」を設置することを定めています。2025年9月1日に、この戦略本部が正式に設置されました。本部長は内閣総理大臣、副本部長は内閣官房長官とAI担当大臣で構成され、それ以外の国務大臣全員が本部員となり、政府を挙げてAI政策に取り組む体制が整えられました。
AI戦略本部の初会合と方針
2025年9月12日にはAI戦略本部の初会合が開催され、今後策定するAI基本計画の骨子案等について議論が行われました。本部長からは、「AIを使う」「AIを創る」「AIの信頼性を高める」「AIと協働する」という4つの基本的な方針に沿ってAI基本計画の策定を開始するよう指示がありました。
AI基本計画の閣議決定
2025年12月23日、日本政府は「人工知能基本計画」を閣議決定しました。同計画は「信頼できるAI」を創出し、日本を「世界で最もAIを開発・活用しやすい国」にすることを目標とする国家戦略です。骨子では活用の推進、開発強化、ガバナンスの主導、AI社会に向けた継続的変革の4つを基本的な方針に据えています。政府はAI関連施策の推進に1兆円超を投資していく方針を表明しており、国産AI開発支援などの具体的施策が今後展開されていく見込みです。
AI基本計画の具体的施策
AI基本計画には多くの具体的な施策が盛り込まれています。政府のAI活用として「ガバメントAI源内」の徹底活用が掲げられており、2026年5月から10万人以上の政府職員がAIを活用できるようにする計画です。また、AIセーフティ・インスティテュート(AISI)の抜本的強化として、英国並みの200人体制を目指し、人員を現在の約30人から2倍程度に増やす計画が進められています。
国産AI・フィジカルAIの開発にも注力しており、国産AIの基盤モデルや、ロボットと組み合わせた「フィジカルAI」などを「日本の勝ち筋」と位置付けています。物理世界でロボットを動かす「フィジカルAI」や科学研究のためのAI(AI for Science)に1兆円規模の戦略的投資を行うことが表明されました。人材育成についても、AI人材の育成・確保に向け、小中学校の段階から基礎的な知識を学ぶ必要性が記されています。
偽情報対策として、生成AIを悪用した偽・誤情報等への対応について、AI生成コンテンツを判別する技術やAIの制御機能等の開発を支援することが盛り込まれています。企業がAIの研究開発や設備投資をしやすくするために、「大胆な投資促進税制」を創設し、研究開発税制も手厚くする方針も示されています。基本計画は当面は毎年改定される予定であり、政府はまず2026年夏をめどに投資目標などを明記したロードマップ(工程表)をまとめる考えです。
AI事業者ガイドラインとの関係
AI推進法と並んで、事業者が参照すべき重要な指針として「AI事業者ガイドライン」があります。これは総務省と経済産業省が共同で策定した指針であり、2024年4月に初版(第1.0版)が公開され、2025年3月には第1.1版にアップデートされました。
AI事業者ガイドラインの位置づけ
AI事業者ガイドラインは「非拘束的なソフトロー」という位置づけであり、法的な拘束力はなく、罰則もありません。「事業者の自主的な取組の支援」「国際的な議論との協調」「読み手にとっての分かりやすさ」を基本的な考え方としており、マルチステークホルダーで検討を重ね実効性・正当性を重視するとともに、Living Document(生きた文書)として今後も更新を重ねる方針です。義務ではなくソフトローとしての位置付けであり、さまざまな立場でAIを活用する上で必要となる観点を把握しつつ、事業者の規模や業種に応じて柔軟に活用できる点が特長とされています。
対象となる3つの主体と求められる事項
AI事業者ガイドラインで対象とする主体は「AI開発者」「AI提供者」「AI利用者」の3つです。AI開発者はAIシステムの設計・開発を行う事業者を指し、AI提供者はAIシステムをアプリケーション、製品、既存のシステム、ビジネスプロセス等に組み込んだサービスとしてAI利用者に提供する事業者を指します。AI利用者は事業活動においてAIシステムまたはAIサービスを利用する事業者を指します。
AI提供者については、AI利用者に向けたサービス規約を作成するとともにプライバシーポリシーを明示する必要があります。また、高度なAIシステムを取り扱うAI提供者は、ガイドラインで定められた指針を適切な範囲で遵守することが求められています。AI利用者については、AI提供者が意図した範囲内で継続的に適正利用し、必要に応じたAIシステムの運用を行うことが重要です。AI提供者が定めた利用上の留意点を遵守して、AIの出力について精度およびリスクの程度を理解し、様々なリスク要因を確認することが求められます。
ガイドラインを遵守しない場合のリスク
ガイドラインに罰則はないものの、遵守しない場合は実質的なリスクが想定されます。レピュテーションリスクとして、ガイドライン違反が公になった場合の企業イメージの低下が考えられます。取引先からの信頼喪失により、取引停止につながる可能性もあります。将来的な法規制への対応遅れも懸念されており、ガイドラインは将来の法規制の基礎となる可能性があるため、早期からの対応が推奨されます。
EU AI法との比較
日本のAI推進法とEUのAI規制法(EU AI Act)は、AIに対する規制アプローチにおいて対照的な特徴を持っています。この違いを理解することは、グローバルにビジネスを展開する企業にとって重要です。
規制アプローチの根本的な違い
EUが市民の「基本的権利の保護」を起点に、法的拘束力のある厳格なルール(ハードロー)を構築するのに対し、日本は「経済成長とイノベーションの促進」を重視し、事業者の自主性を尊重する柔軟な枠組み(ソフトロー)を基本としています。EUはAIをまず市民社会への「潜在的リスク」として捉え、予防原則に基づいて管理しようとします。一方、日本はAIを「経済的機会」として捉え、国際競争に勝ち抜くための産業政策として、アジャイルなガバナンスを推進しようとしています。
EU AI法の特徴と日本企業への影響
EU AI法はリスクベースアプローチを採用し、AIシステムを4つのカテゴリに分類しています。許容できないリスク(禁止されるAI)、ハイリスク(厳格な規制対象)、透明性のリスク(情報開示義務)、最小リスク(特段の規制なし)の4段階であり、リスクがより高いAIシステムについて、より厳格な要件が定められています。EU AI法には「域外適用」の規定があり、EU域外の企業であってもEU市場向けにサービスを提供する場合は規制の対象となります。違反した場合の罰則は、最大で全世界の年間売上高の7%または3,500万ユーロのいずれか高い方と非常に高額に設定されています。日本企業がEU市場でAI関連のビジネスを展開する場合、EU AI法への対応が必要となり、AI推進法への対応だけでなく、国際法令との整合性を意識した対応が求められます。
著作権・個人情報保護とAI利用のリスク
AI推進法は知的財産面で直接の規制は設けていませんが、著作権法等の一般法令に抵触すれば当然責任追及の対象となります。AIを活用する事業者は、関連する法令を遵守する必要があります。
著作権に関するリスクと対応
AIの学習データとしてインターネット上の画像やテキストを用いるケースでは、著作権侵害のおそれがあるため注意が必要です。また、生成AIが著作物に酷似したアウトプットを生成し、第三者の著作権や商標権を侵害するリスクも考慮しなければなりません。企業がAIを活用する際には、学習データの適法性や、生成物が既存の著作物を侵害していないかを確認する体制を整備することが重要です。
文化庁では「AIと著作権に関する考え方について」等で示された考え方の解説資料として、AI開発者等が著作権と生成AIとの関係で生じるリスクを低減させる上で望ましいと考えられる取組みを、生成AIに関係する当事者ごとに分かりやすい形で紹介するチェックリストとガイダンスを作成しています。文化審議会著作権分科会法制度小委員会では、AIの開発・学習において著作権者の許諾なく著作物の利用が認められる範囲の明確化や、生成物による著作権侵害リスクの軽減方策等に関する考え方を整理しています。
個人情報保護に関するリスクと対応
AIの学習データや生成物に個人情報が含まれる場合、個人情報保護法の遵守が不可欠です。学習データ取得時の適法性(本人同意の有無等)や、生成AIが個人データを出力しないためのフィルタリングなどを念頭に置いてAI利用に関するシステムを構築すべきです。AI事業者ガイドラインにおいても、我が国の国内法に準拠する場合は、データの類型に応じ、個人情報、知的財産権、機密情報等にそれぞれ適用される法令に適合した取扱いを行う必要があると明記されています。特に注意すべき点として、AIが学習データから個人を特定できる情報を出力してしまうリスクがあり、これを防ぐためには、学習データのプライバシー処理や、出力のフィルタリング機能の実装が重要となります。
AIプロファイリングと人権
AIを用いた自動的な意思決定(AIプロファイリング)には、人権上のリスクが伴います。人材採用での意図せぬ男女差別や、信用スコアリングにおける不当な差別など、AIの判断が人権侵害につながる事例が報告されています。AI推進法では、このような人権侵害事案について政府が調査を行い、是正を促すことができる権限が設けられています。企業はAIによる自動的な意思決定を行う際には、公平性や透明性を確保し、差別的な結果が生じないよう適切な対策を講じる必要があります。
企業が取るべき具体的な実務対応
AI推進法は「厳しすぎず、緩すぎず」の中間路線をとっており、企業がAIを活用しやすい環境作りを目指しています。
中小企業にとっての影響
中小企業向けDX推進補助金の拡充、AI活用事例集の公開、業界別ガイドラインの策定などが予定されており、中小企業にとっては「負担よりもチャンスの方が大きい」法律と言えます。ただし、企業規模に関わらず事業者は積極的なAI技術の活用が責務として求められ、時に行政が行うAI関連施策に協力する必要があります。また、積極的にAIを活用しつつ、著作権侵害やプライバシーの侵害などAI利用に伴うリスクが生じないように適切に導入・活用を進めることが求められます。
企業が実践すべき5つのアクション
AI推進法およびAI事業者ガイドラインを踏まえ、企業が実務上取るべき対応として5つのアクションが挙げられます。
第一に、ガイドラインを先取りした社内体制の整備です。 AI活用ポリシー・倫理チェック・透明性の確保(不適切なAI出力を減らす措置やAIの仕組みやリスク情報の開示)などを社内に制度化することが重要です。
第二に、AI開発・提供契約の見直しです。 学習データの適法性(個人情報、著作物等)、免責・責任分担、バイアス対策などを含む契約・利用規約を法令と整合性があるように整備することが求められます。
第三に、リスク事案への対応体制の整備です。 インシデント発生時には、迅速な原因究明と政府・利用者への説明責任が求められます。
第四に、政府との建設的な連携です。 調査協力・実証実験・共同研究など、戦略本部や所管官庁との関係構築が重要となります。
第五に、国際法令との整合です。 EU AI法や米国各州法など、海外のAI規制にも目を配り、グローバルな対応を検討する必要があります。
今後のスケジュールと対応の優先順位
AI推進法の全面施行後、政府による各種施策が順次実施されています。AI戦略本部の設置は2025年9月に完了し、AI基本計画は2025年12月に閣議決定されました。今後は基本計画に基づく具体的な支援策やガイドラインの整備が進められていく見込みです。
企業としては、まずAI事業者ガイドラインを熟読し、自社の事業におけるAI活用の現状を把握することが第一歩となります。その上で、社内ポリシーの策定、契約書の見直し、従業員教育などを計画的に進めていくことが推奨されます。
まとめ
AI推進法は、日本で初めてのAI分野の包括的な法律として、AIの研究開発と社会実装を国として推進していく姿勢を明確に打ち出しました。事業者に対しては直接的な罰則を伴う義務を課すのではなく、基本理念に沿ったAI活用と、政府施策への協力を求める形をとっています。しかし、罰則がないからといって対応を怠ってよいわけではありません。AI事業者ガイドラインと併せて、事業者には自主的かつ責任あるAI活用が求められています。また、AIによる人権侵害等の問題が生じた場合には、政府による調査・指導・公表措置の対象となる可能性があることも認識しておく必要があります。AI技術は今後も急速に発展していくことが予想されます。企業は法律やガイドラインの動向を注視しながら、AIを適切に活用し、社会の発展に貢献していくことが期待されています。









コメント