AIは行き過ぎたのか?

AIは行き過ぎたのか?

簡潔に言うと、 AIが重大な意思決定、監視、説得などに、明確な制限、十分な情報に基づく同意、そして正当な異議申し立ての権利なしに用いられるようになった時点で、AIは行き過ぎたと言えるでしょう。ディープフェイクや大規模な詐欺によって信頼が賭けのように感じられるようになった時、AIは再び一線を越えます。人々がAIが関与したことを認識できず、なぜそのような決定が下されたのか理解できず、あるいはAIの利用を拒否できないのであれば、それは既に行き過ぎた状態です。

重要なポイント:

境界:特に不確実性が高い場合、システムができないことを明確に定義する。

説明責任:罰則や時間的プレッシャーに縛られることなく、人間が結果を覆せるようにする。

透明性: AIが関与している場合は、その判断に至った理由を人々に伝えること。

異議申し立ての可否:迅速かつ実行可能な異議申し立て経路と、誤ったデータを訂正するための明確な方法を提供する。

不正利用防止:出所証明、レート制限、および制御機能を追加して、詐欺や悪用を抑制します。

「AIは行き過ぎたのか?」

奇妙なのは、その一線を越える行為が必ずしも明白ではないという点だ。ディープフェイク詐欺のように、派手で目立つ場合もある。( FTCFBI )一方で、何の釈明もなく生活を横方向にずらす自動的な決定のように、静かに行われる場合もある。そして、自分が「評価された」ことにさえ気づかない。(英国情報コミッショナーオフィスGDPR第22条

さて… AIは行き過ぎたのでしょうか?ある面では確かに行き過ぎています。しかし、別の面では、まだ十分ではありません。なぜなら、ツールが使いやすいUIを備えたルーレットのようにではなく、ツールとして正しく動作するようにするための、地味ながらも不可欠な安全対策が講じられていないからです。🎰🙂( NIST AI RMF 1.0EU AI Act

この記事の次に読むとよい記事:

🔗 AIが社会に害を及ぼす理由
主な社会的リスク:偏見、雇用、プライバシー、権力集中。.

🔗 AIは環境に悪影響を与えるのか?隠れた影響
研修、データセンター、エネルギー使用が排出量を増加させる仕組み。.

🔗 AIは良いものか悪いものか?メリットとデメリット
メリット、リスク、そして現実世界におけるトレードオフをバランスよく概観する。.

🔗 AIが悪とみなされる理由:暗黒面
悪用、操作、セキュリティ上の脅威、倫理的な懸念について考察する。.


「AIは行き過ぎたのか?」という質問に対する人々の真意とは?😬

ほとんどの人は、AIが「意識を持っている」のか「人間を乗っ取ろうとしている」のかを問うているのではなく、以下のいずれかの点を指摘しているのです。

  • AIは、本来使用すべきでない場面で使用されている。 (特に、重大な意思決定において。)( EU AI法附属書IIIGDPR第22条

  • AIは同意なしに使用されています。 (あなたのデータ、あなたの声、あなたの顔…驚きですね。)(英国情報コミッショナーオフィスGDPR第5条

  • AIは人々の注意を操るのが非常に上手になりつつある。 (フィード+パーソナライゼーション+自動化=人々の注意を惹きつける。)( OECD AI原則

  • AIは真実を選択肢の一つに感じさせている。 (ディープフェイク、偽レビュー、合成「専門家」など)(欧州委員会FTCC2PA

  • AIは権力を集中させている。 (少数のシステムが、誰もが見たりできたりすることを形作っている。)(英国競争・市場庁

「AIは行き過ぎたのか?」という問いの核心です。それは単一の出来事ではなく、インセンティブ、近道、そして「後で直せばいい」という考え方の積み重ねなのです。率直に言って、それは「誰かが怪我をしてから直せばいい」という結論に繋がりがちです。😑

AIは行き過ぎたのか?インフォグラフィック

周知の事実:AIは乗数であり、道徳的な主体ではない🔧✨

AIは自ら目覚めて有害になろうと決めるわけではない。人や組織がAIを標的にするのだ。しかし、AIは与えられた情報を何でも増幅させる。

  • 親切な意図は、非常に役立つもの(翻訳、アクセシビリティ、要約、医学的パターンの発見など)。

  • いい加減な意図が、とてつもなくいい加減なもの(大規模な偏見、エラーの自動化)。

  • 悪意は、極めて悪質な(詐欺、嫌がらせ、プロパガンダ、なりすましなど)へと発展する。

まるで幼児にメガホンを渡すようなものだ。時には幼児は歌い、時にはあなたの魂に直接叫び声をあげる。完璧な比喩ではないし、ちょっと馬鹿げているかもしれないが、言いたいことは伝わるはずだ😅📢。.


日常的な場面で優れたAIとはどのようなものでしょうか?✅🤝

「優れた」AIとは、その知能の高さで定義されるものではありません。プレッシャー、不確実性、そして誘惑(人間は安価な自動化に非常に誘惑されやすい)の下で、どれだけ適切に振る舞えるかで定義されるのです。( NIST AI RMF 1.0OECD

誰かがAIの使用は責任あるものだと主張する際に、私が注目するのは以下の点です。

1) 明確な境界線

  • システムには何が許されているのか?

  • 具体的に何をしてはいけないのですか?

  • 不確実な場合はどうなるのでしょうか?

2) 飾りではなく、真の人間的責任

人間が結果を「レビュー」することが意味を持つのは、以下の場合のみです。

  • 彼らはレビューしている内容を理解しており、

  • 彼らは、処理速度を低下させたとしても罰せられることなく、その設定を上書きすることができる。.

3) 適切なレベルでの説明可能性

誰もが数学を必要とするわけではない。人々が必要とするのは以下のことだ。

4) 測定可能なパフォーマンス - 故障モードを含む

単なる「正確さ」だけでなく、

  • 誰に失敗するのか、

  • どれほど頻繁に静かに失敗するか、

  • 世界が変化すると何が起こるのか。( NIST AI RMF 1.0

5)「設定の中に埋もれていない」プライバシーと同意

同意を得るためにメニューをくまなく探す必要があるなら…それは同意とは言えません。余計な手順を伴う抜け穴です😐🧾。( GDPR第5条英国情報コミッショナーオフィス


比較表:AIが行き過ぎないようにするための実践的な方法🧰📊

以下は、結果(雰囲気だけでなく)を変える一般的な安全策や運用ツールという意味での「最善の選択肢」です。.

ツール/オプション 観客 価格 なぜそれが機能するのか
人間参加型審査( EU人工知能法 重大な決断を下すチーム ££(時間コスト) 不適切な自動化処理を遅らせる。また、人間は時として奇妙な例外的なケースに気づくことがある。
決定に対する不服申立て手続き( GDPR第22条 AIの決定によって影響を受けるユーザー 自由っぽい 適正手続きを追加する。人々は誤ったデータを訂正できる。基本的なことだが、実際その通りだ。
監査ログ+トレーサビリティ( NIST SP 800-53 コンプライアンス、運用、セキュリティ £-££ 失敗後に肩をすくめるのではなく、「何が起こったのか?」と答えることができる
モデル評価+バイアステスト( NIST AI RMF 1.0 製品+リスクチーム 大きく異なる 予測可能な被害を早期に発見できる。完璧ではないが、推測するよりははるかに良い。
レッドチームテスト( NIST GenAIプロファイル セキュリティと安全の専門家 £££ 実際の攻撃者よりも先に悪用をシミュレートする。不快だが、それだけの価値はある😬
データ最小化(英国情報コミッショナーオフィス 率直に言って、みんな £ データ量が少なければ、混乱も少なくなる。情報漏洩も減り、気まずい会話も少なくなる。
コンテンツの出所を示すシグナル( C2PA プラットフォーム、メディア、ユーザー £-££ 「これは人間が作ったものか?」という検証に役立つ。完璧ではないが、混乱を軽減する。
レート制限+アクセス制御( OWASP AIプロバイダー+企業 £ 不正行為の拡大を即座に阻止します。悪意のある行為者にとってのスピードバンプのようなものです。

うん、テーブルがちょっと傾いてるね。人生ってそういうものだよね。🙂


重大な意思決定におけるAI:行き過ぎた時 🏥🏦⚖️

ここから事態は急速に深刻化する。.

医療金融住宅雇用教育移民刑事司法におけるAI - これらは以下のシステムです: ( EU AI Act Annex IIIFDA )

  • 間違いは、金銭、自由、尊厳、または安全を奪う可能性がある。

  • そして、被害を受けた人は、反撃する力が限られていることが多い。.

最大のリスクは「AIが間違いを犯すこと」ではない。最大のリスクは、 AIの間違いが政策として採用されることである。( NIST AI RMF 1.0

ここでいう「行き過ぎ」とはどういうことか

  • 説明のない自動決定:「コンピューターがノーと言っています。」(英国情報コミッショナーオフィス

  • 「リスクスコア」は推測ではなく事実として扱われる。.

  • 経営陣がスピードを重視するため、結果を覆すことができない人間たち。.

  • 整理されていない、偏っている、古い、あるいは完全に間違っているデータ。.

譲れない条件とは何か

  • 異議申し立ての権利(迅速で分かりやすく、複雑ではない)。( GDPR第22条英国情報コミッショナーオフィス

  • AIが関与していたことを知る権利欧州委員会

  • 人間によるレビューを行う。( NIST AI RMF 1.0

  • データの品質管理――なぜなら、入力がゴミなら出力もゴミになる、というのは今でも痛ましいほど真実だからだ。

明確な線引きをしたいなら、こう考えてみてください。AI
システムが人の生活を根本的に変える可能性があるなら、他の権威機関に期待するのと同じ真剣さが必要です。登録していない人に対して「ベータテスト」を行うべきではありません。🚫


ディープフェイク、詐欺、そして「自分の目を信じる」という信念の緩やかな終焉👀🧨

これが、日常生活を…滑りやすく感じさせる部分だ。.

AIが生成できるもの:

  • 家族の声に似た音声メッセージ、( FTCFBI

  • 著名人が何かを「言っている」動画、

  • 本物そっくりに見える偽レビューが大量に出回っている。( FTC

  • 偽の職歴と偽の友人関係を持つ偽のLinkedInプロフィール…

…それは詐欺行為を助長するだけでなく、見知らぬ人同士が連携することを可能にする社会的絆を弱めてしまう。そして社会は、見知らぬ人同士の連携によって成り立っているのだ。😵💫

「やりすぎ」は偽コンテンツだけではない

それは非対称性

  • 嘘をつくのは簡単だ。.

  • 真偽を確かめるには費用も時間もかかる。.

  • そして、ほとんどの人は忙しく、疲れていて、スマホをスクロールしている。.

(少しは)役に立つもの

  • メディアの出所を示すマーカー。( C2PA

  • 拡散を阻害する摩擦 ― 瞬時の大量共有を遅らせる。.

  • 重要な場面(金融、行政サービスなど)における本人確認の強化。.

  • 個人が行う基本的な「帯域外確認」の習慣(折り返し電話をする、合言葉を使う、別のチャネルで確認するなど)。( FTC

華やかではない。でもシートベルトだって華やかではないし、個人的にはシートベルトにはかなり愛着がある。🚗


監視の侵食:AIが静かにあらゆるものをセンサーに変えていく時 📷🫥

これはディープフェイクのように爆発的に広まるわけではない。ただ徐々に拡散していくだけだ。.

AIを使えば、以下のことが容易になります。

  • 群衆の中から顔を識別する( EU AI ActNIST FRVT

  • 動きのパターンを追跡し、

  • 動画から感情を推測する(多くの場合、精度は低いが、自信を持って推測する)( Barrett et al., 2019EU AI Act

  • 行動や近所の雰囲気に基づいて「リスク」を予測する。.

たとえ不正確であっても、介入を正当化する根拠となり得るため、有害となる可能性がある。誤った予測は、現実の深刻な結果を引き起こす可能性があるのだ。.

不快な部分

AIを活用した監視システムは、多くの場合、安全性を謳う形で導入される。

  • 「これは不正行為防止のためです。」

  • 「セキュリティのためです。」

  • 「ユーザーエクスペリエンス向上のためです。」

確かにそういう場合もあります。しかし、後々解体するのが非常に困難なシステムを構築するための都合の良い言い訳にもなり得ます。例えば、当時は効率的だと思ったからといって、自分の家に一方通行のドアを設置するようなものです。これも完璧な比喩ではありませんし、少しばかげているかもしれませんが、そういう気持ちは分かりますよね。🚪😅

ここでいう「良い」とはどういうことか

  • データ保持と共有に関する厳格な制限。.

  • 明確なオプトアウト。.

  • 用途が限定的。.

  • 独立した監視。.

  • 罰則やゲートキーピングのために「感情検出」を使用しないでください。お願いします。🙃( EU AI法


仕事、創造性、そして静かに進行するスキル低下の問題🧑💻🎨

ここから議論は個人的なものになり、アイデンティティに関わる問題となる。.

AIは人々の生産性を向上させる可能性がある。同時に、人々は自分が替えのきく存在だと感じてしまう可能性もある。この両方が、同じ週に同時に起こり得るのだ。( OECDWEF

本当に役立つ場合

  • 人間が思考に集中できるよう、定型的な文章を作成する。.

  • 繰り返しパターンのコーディングを支援する。.

  • アクセシビリティツール(字幕、要約、翻訳)。.

  • 行き詰まった時は、ブレインストーミングをしてみよう。.

どこまでが行き過ぎか

  • 移行計画なしに役割を交代させること。.

  • AIを活用して生産性を向上させつつ、賃金水準は据え置く。.

  • 創作活動を無限の無料トレーニングデータのように扱い、あとは肩をすくめる。(米国著作権局英国政府ウェブサイト GOV.UK

  • 下級職をなくす――一見効率的そうに聞こえるが、将来の専門家が登るべき梯子を焼き払ってしまったことに気づけば、そうはいかない。.

スキル低下は微妙なものです。日々の業務では気づきません。そしてある日、チームの誰もアシスタントなしでは物事のやり方を覚えていないことに気づきます。そしてアシスタントが間違っていた場合、全員が自信満々に間違っていると認識してしまうのです…これはまさに悪夢です。😬


権力集中:誰がデフォルト設定を行うのか?🏢⚡

たとえAIが「中立」だとしても(実際はそうではない)、それを制御する者は以下のことを形作ることができる。

  • どのような情報に簡単にアクセスできるか、

  • 何が昇格し、何が埋もれるのか、

  • どの言語が許可されていますか、

  • どのような行動が推奨されるのか。.

AIシステムは構築と運用に費用がかかるため、権力は集中する傾向がある。これは陰謀論ではない。テクノロジーのパーカーを着た経済学だ。(英国競争・市場庁

ここで「やり過ぎ」の瞬間が訪れた。

デフォルトが目に見えない法律になるとき:

  • 何がフィルタリングされているのか分からない、

  • ロジックを検査することはできません。

  • そして、現実的に考えて、仕事や地域社会、基本的なサービスへのアクセスを失うことなく、この制度から離脱することは不可能です。.

健全なエコシステムには、競争、透明性、そして真のユーザー選択が必要です。そうでなければ、現実を借りているようなものです。😵♂️


実用的なチェックリスト:あなたの世界でAIが行き過ぎているかどうかを見極める方法🧾🔍

私が使っている直感チェックリストを以下に示します(もちろん、完璧ではありません)。

あなたが個人であれば

  • 私は自分がAIとやり取りしているかどうか分かる。(欧州委員会

  • このシステムを使うと、ついつい情報を過剰に共有してしまう。.

  • 出力結果が間違っていても、それがもっともらしい理由であれば、対処しても構いません。.

  • もしこのプラットフォームを使って詐欺に遭ったら、プラットフォームは私を助けてくれるだろう…あるいは、肩をすくめるだけだろう。.

あなたが企業またはチームである場合

  • 私たちがAIを使っているのは、それが価値があるからか、あるいは流行っているから、あるいは経営陣が現状に満足していないからかのどちらかだ。.

  • システムがどのようなデータにアクセスしているかは把握しています。.

  • 影響を受けたユーザーは、結果に対して異議申し立てを行うことができます。(英国情報コミッショナーオフィス

  • 人間には、そのモデルを上書きする権限が与えられている。.

  • 当社には、AIの障害発生時対応計画があります。.

  • 私たちは、仕様の逸脱、不正使用、および通常とは異なる特殊なケースを監視しています。.

これらの質問の多くに「いいえ」と答えたとしても、それはあなたが悪人だという意味ではありません。それは、あなたが「出荷して、あとは祈るだけ」という、ごく普通の人間的な状態にあるということです。でも、残念ながら、祈ることは戦略ではありません。😅


最後に🧠✅

では、 AIは行き過ぎたのでしょうか?
責任を問われることなく導入されるようになった、特に重大な意思決定、大規模な説得、監視といった場面では、行き過ぎたと言えるでしょう。また、信頼を損なうような形でAIが使われるようになった点でも行き過ぎです。なぜなら、信頼が一度崩れると、社会的に見てあらゆるものがより高価になり、より敵対的なものになるからです。( NIST AI RMF 1.0EU AI Act

しかし、AIは本質的に破滅的でもなければ、本質的に完璧でもない。それは強力な増幅力となる。問題は、AIの能力開発と同じくらい積極的に安全策を講じるかどうかだ。.

簡単に要約すると:


よくある質問

AIは日常生活において行き過ぎた存在になっているのだろうか?

多くの分野で、AIは明確な境界線や責任の所在が不明瞭なまま意思決定やコミュニケーションに浸透し始めており、行き過ぎた状況に陥っている。問題は「AIが存在すること」ではなく、採用、医療、顧客サービス、そして情報発信といった分野に、監視体制が不十分なままAIが密かに組み込まれていることにある。人々がそれがAIだと認識できず、結果に異議を唱えることも、利用を拒否することもできない状況になると、AIは単なるツールではなく、システムのように感じられるようになる。.

重大な意思決定において、「AIが行き過ぎる」とは具体的にどのような状態を指すのでしょうか?

医療、金融、住宅、雇用、教育、移民、刑事司法といった分野で、AIが厳格な安全策なしに利用されているように見える。根本的な問題は、モデルが間違いを犯すことではなく、そうした間違いが政策として定着し、異議申し立てが困難になることだ。「コンピューターがノーと言う」という、説明不足で意味のある異議申し立てもできない決定は、被害が急速に拡大する原因となる。.

自動意思決定が自分に影響を与えているかどうかを知るにはどうすればよいですか?また、その場合、どのような対策を講じればよいですか?

よくある兆候は、説明のつかない突然の結果です。拒否、制限、あるいは明確な理由のない「リスクスコア」のような表示などが挙げられます。多くのシステムは、AIが重要な役割を果たした場合にそれを開示するべきであり、決定の主な理由と異議申し立ての手順を要求できるはずです。実際には、人間のレビューを求め、誤ったデータを修正し、分かりやすいオプトアウトの道筋を強く求めましょう。.

AIはプライバシー、同意、データ利用に関して行き過ぎた行動をとっているのだろうか?

同意を得るのが一苦労になり、「念のため」という理由でデータ収集が拡大すると、こうした事態はしばしば起こります。この記事の核心は、プライバシーと同意が設定の中に埋もれていたり、曖昧な表現で強制されていたりすると、あまり意味をなさないということです。より健全なアプローチは、データ最小化です。つまり、収集するデータ量を減らし、保持するデータ量を減らし、選択内容を明確にすることで、後々人々が驚くことがないようにするのです。.

ディープフェイクやAIを使った詐欺は、オンラインにおける「信頼」の意味をどのように変えるのか?

彼らは、説得力のある偽の声、動画、レビュー、そして身元を作成するコストを下げることで、真実をオプションのように感じさせてしまう。問題は非対称性にある。嘘を生み出すのは安価だが、真実を検証するのは時間がかかり、骨の折れる作業だ。現実的な対策としては、メディアへの出所表示、拡散速度の抑制、重要な場面でのより厳格な身元確認、そして折り返し電話をかけたり、共通の合言葉を使ったりするなど、「帯域外での検証」習慣などが挙げられる。.

AIが行き過ぎるのを防ぐための、最も現実的な安全策は何でしょうか?

結果を変えるための安全策としては、重大な判断を要する通話に対する真の人間によるレビュー、明確な異議申し立て手続き、そして失敗後に「何が起こったのか?」を解明できる監査ログなどが挙げられます。モデル評価とバイアステストによって予測可能な損害を早期に発見できる一方、レッドチームテストは攻撃者が悪用する前に不正使用をシミュレートします。レート制限とアクセス制御は、悪用が瞬時に拡大するのを防ぎ、データ最小化は全体的なリスクを低減します。.

AIによる監視は、いつ一線を越えるのか?

あらゆるものがデフォルトでセンサー化されるようになると、それは一線を越えることになります。例えば、群衆の中での顔認識、動きのパターン追跡、あるいは罰則やゲートキーピングに利用される自信満々の「感情検出」などが挙げられます。たとえ不正確なシステムであっても、介入やサービス拒否を正当化する根拠となれば、深刻な被害をもたらす可能性があります。適切な運用とは、利用範囲を限定し、データ保持期間を厳格に制限し、意味のあるオプトアウトを可能にし、独立した監視体制を設け、感情に基づく判断を断固として拒否することです。.

AIは人々の生産性を向上させているのか、それとも静かに仕事のスキルを低下させているのか?

どちらも同時に真実であり得る。そして、その矛盾こそが重要な点なのだ。AIは、定型的な文書作成、反復的なコーディング作業、アクセシビリティの向上を支援し、人間がより高度な思考に集中できるようにする。しかし、移行計画なしに役割を置き換えたり、賃金を圧迫したり、創造的な仕事を無料のトレーニングデータのように扱ったり、将来の専門知識を育むジュニアレベルの役割を排除したりすると、行き過ぎてしまう。チームがアシスタントなしでは機能しなくなるまで、スキルの低下は気づかれないまま進行するのだ。.

参考文献

  1. アメリカ国立標準技術研究所(NIST) - AIリスク管理フレームワーク(AI RMF 1.0) - nist.gov

  2. 欧州連合- EU人工知能法(規則(EU)2024/1689) - 官報(英語) - europa.eu

  3. 欧州委員会- AIの規制枠組み(EU AI法政策ページ) - europa.eu

  4. EU AI法サービスデスク-附属書III(高リスクAIシステム) - europa.eu

  5. 欧州連合- EUにおける信頼できる人工知能に関する規則(EU AI法概要) - europa.eu

  6. 英国情報コミッショナー事務局(ICO) -自動化された個人意思決定とプロファイリングとは? - ico.org.uk

  7. 英国情報コミッショナー事務局(ICO) -英国のGDPRは自動意思決定とプロファイリングについてどのように規定しているのか? - ico.org.uk

  8. 英国情報コミッショナー事務局(ICO) -自動意思決定とプロファイリング(ガイダンスハブ) - ico.org.uk

  9. 英国情報コミッショナー事務局(ICO) -データ最小化(英国GDPR原則ガイダンス) - ico.org.uk

  10. GDPR-info.eu - GDPR第22条- gdpr-info.eu

  11. GDPR-info.eu - GDPR第5条- gdpr-info.eu

  12. 米国連邦取引委員会(FTC) -詐欺師がAIを利用して家族緊急支援詐欺を強化- ftc.gov

  13. 米国連邦取引委員会(FTC) -詐欺師は偽の緊急事態を利用してあなたのお金を盗みます- ftc.gov

  14. 米国連邦取引委員会(FTC) -偽のレビューと証言を禁止する最終規則(プレスリリース) - ftc.gov

  15. 連邦捜査局(FBI) - FBI、人工知能を活用したサイバー犯罪者の脅威の増大を警告- fbi.gov

  16. 経済協力開発機構(OECD) - OECD AI原則- oecd.ai

  17. OECD -人工知能に関する理事会勧告(OECD/LEGAL/0449) - oecd.org

  18. 欧州委員会-透明性の高いAIシステムに関するガイドラインと実施規範(よくある質問) - europa.eu

  19. コンテンツの出所と真正性に関する連合(C2PA) -仕様書 v2.3 - c2pa.org

  20. 英国競争市場庁(CMA) - AI基盤モデル:初期報告書- gov.uk

  21. 米国食品医薬品局(FDA) -人工知能搭載医療機器- fda.gov

  22. NIST -情報システムおよび組織のためのセキュリティとプライバシー管理策(SP 800-53 Rev. 5) - nist.gov

  23. NIST -生成AIプロファイル(NIST.AI.600-1、ipd) - nist.gov

  24. オープンワールドワイドアプリケーションセキュリティプロジェクト(OWASP) -無制限のリソース消費(APIセキュリティトップ10、2023年) - owasp.org

  25. NIST -顔認識ベンダーテスト(FRVT)の人口統計情報- nist.gov

  26. Barrett et al. (2019) -論文 (PMC) - nih.gov

  27. OECD -職場におけるAIの活用(PDF) - oecd.org

  28. 世界経済フォーラム(WEF) -雇用の未来レポート2025 - 要約- weforum.org

  29. 米国著作権局-著作権と人工知能、パート3:生成AIトレーニングレポート(出版前バージョン)(PDF) - copyright.gov

  30. 英国政府(GOV.UK) -著作権と人工知能(協議) - gov.uk

公式AIアシスタントストアで最新のAIを見つけよう

私たちについて

ブログに戻る