AI要約ノート|人気動画を要約・解説

本サイトでは、YouTube動画の内容をもとに、独自に再構成し、 背景情報や統計資料を補足しながら分かりやすく解説しています。 単なる要約ではなく、論点整理や考察を加えた情報メディアです。 Amazonのアソシエイトとして、AI要約ノートは適格販売により収入を得ています。

2030年、AIは社会をどう動かすのか IoT・セキュリティ・2040年の共存までわかりやすく解説

目次

2030年のAI×IoTはどう社会を変えるのか

  • ✅ 2030年に向けて、AIは指示を待つ道具から、先回りして支えるパートナーへと変わり始めています。
  • ✅ IoTは「モノをつなぐ技術」にとどまらず、空間や仕事の流れそのものを動かす社会基盤になりつつあります。
  • ✅ 未来の変化は新しい機械が増えることだけではなく、見えないところで自動化が進み、生活の手間が消えていく点にあります。

このテーマでは、2030年に向けてAIとIoTが社会の中でどんな役割を持ち始めているのかが語られていた。番組では、SF戦略コンサルタントの宮本道人氏が進行役となり、AIやIoTがすでに日常へ入り込んでいる現状を確認しつつ、その先にある社会の変化を整理している。ざっくり言えば、便利な機能が少し増えるという話ではない。AIとIoTが人の判断や空間の動き、仕事の進み方まで支える仕組みに変わっていく――そうした見立てが示されていた。

私がいちばん大きな変化だと感じているのは、AIとの距離が急に近くなったことです。少し前までのAIは、調べものや作業を助ける便利なツールという印象でした。ですが今は、スマホの中で相談相手のように振る舞い、次に何をしたいのかを先回りして支える存在になり始めています。2030年に向かう流れを見ると、AIは命令を受けて動くだけでなく、一緒に考える相棒のような立場へ移っていくのだと思います。

― 宮本

AIは「使う道具」から「一緒に動く相棒」へ

番組の前半では、まずAIの変化が話題になっていた。印象的だったのは、AIをめぐる感覚がここ1年ほどで大きく変わった、という認識である。以前は、検索や要約、文章作成のように、使う側が明確に指示を出す場面が中心だった。ところが現在は、会話を通して意図をくみ取り、提案まで返す仕組みが広がっている。これはいわゆる「エージェント的なAI」に近い考え方で、単なる応答にとどまらず、利用者の目的に合わせて段取りを組み立てる方向へ進んでいる、ということでもある。

2030年のAIを考えるうえで大事なのは、性能の高さだけではない。人が毎回こまかく操作しなくても、文脈を理解して支えてくれるかどうかがポイントになる。読者の目線で置き換えるなら、スマホや車、家庭の機器などに入ったAIが、操作対象というよりも、生活を一緒に回す存在へ近づいていくイメージである。ここが、このテーマの出発点になっていた。

私にとってAIの変化は、画面の中の賢い機能が増えたという話ではありません。相談すると答えるだけでなく、何をしたいのかをくみ取り、必要な流れを先に整える存在になってきたと感じています。だからこそ2030年のAIは、単独のアプリとして使うものではなく、仕事や生活の中に自然に入り込み、そっと支える相棒のようになっていくのだと思います。

― 西塚

IoTはモノをつなぐ技術から、空間を動かす仕組みへ

もうひとつの軸になっていたのがIoTである。IoTは一般に「Internet of Things」、つまりモノのインターネットと説明されることが多い。だが番組では、その理解だけでは少し足りない、という見方が示されていた。というのも、2030年に向かうIoTは、ただ機器同士が通信するだけではなく、場所や仕事の流れをまとめて動かす仕組みになっていくからである。

具体例としては、自販機のキャッシュレス化やスマートメーターの普及、さらにスマートビルのような事例が挙げられていた。これらは一見すると別々の技術に見えるが、共通しているのは「裏側でつながっていることで、現場の動きが変わる」という点である。たとえば検針のために人が訪れる風景が減ることも、建物の中でロボットや設備が連動して動くことも、見えない接続が前提になっている。未来の変化は、派手な機械が増えることよりも、手間や待ち時間が自然に消えていくこととして現れやすい、というわけだ。

私が考えるIoTの面白さは、機器がつながることそのものではなく、その結果として場所全体が変わることにあります。たとえば建物に話しかけるだけで、設備やサービスが連動して動き出す世界は、もう完全な空想ではありません。必要なものが必要なときに働き、使う側が細かく意識しなくても空間が最適化されていく。そういう変化が、2030年にはもっと自然なものになっていくと思います。

― 増田

未来は「増えるもの」より「消えていく手間」で見えてくる

このテーマで特に読み取りやすかったのは、未来を考えるときの視点の置き方である。未来というと、新しい機械やロボットがどんどん増える風景を想像しがちである。もちろんそれも一部ではあるが、番組ではむしろ逆の話が出ていた。未来の本質は「何が増えるか」ではなく、「何が見えなくなるか」「どんな手間が消えるか」にある、という考え方である。

これはとても大事な視点である。たとえば、支払いの操作、設備確認の手間、移動中の判断、施設の管理などが、利用者の意識しないところで処理されるようになると、生活者は技術を使っている感覚すら持たなくなる。ここがポイントです。AIとIoTが社会を動かす時代とは、テクノロジーが前に出る時代ではなく、テクノロジーが背景に回り、人の行動や空間を自然に支える時代とも言える。

こうして見ると、2030年のAI×IoTは単なる流行ではなく、社会の下地そのものを書き換える動きとして理解しやすい。AIはパートナー化し、IoTは空間や業務の基盤になっていく。そしてその結果として、社会の変化は「すごい機械が増えた」と感じるより、「いつの間にか面倒が減っていた」という形で広がっていく。次のテーマでは、その便利さの裏側で避けて通れない課題であるセキュリティが、なぜこれまで以上に重要になるのかが続いていく。


AI・IoT時代のセキュリティはなぜ重要なのか

  • ✅ AIとIoTが社会に広がるほど、攻撃される入口は増え、セキュリティは後付けでは済まなくなります。
  • ✅ これからの防御は、端末ごとに守るだけでなく、ネットワーク全体で見て異常を止める発想が重要になります。
  • ✅ AIは便利さを生む一方で攻撃にも使われるため、防御側もAIを使いこなす前提が必要になります。

AIとIoTが社会の基盤になるほど、避けて通れないのがセキュリティの問題である。番組では、便利な未来を成立させる条件として、この論点がかなり重く扱われていた。要は、つながる機器が増えるほど、社会には新しい入口が増えるということだ。しかもその入口は、パソコンやスマートフォンだけではない。自販機、電力計、建物の設備、車両、工場の装置など、これまで情報機器として意識されてこなかったものまでがネットワークにつながる。そうなると、守る対象そのものが一気に広がっていくのである。

私がこの先で強く意識すべきだと思うのは、便利さが増えるほど、守るべき場所も同じように増えるということです。IoTは生活を滑らかにしてくれますが、その一方で、つながった機器の数だけリスクの入口も生まれます。見た目には普通の設備でも、裏では通信し、データをやり取りしています。だからこそ、セキュリティは一部の専門家だけが考える話ではなく、社会の土台をどう安全に保つかという話になるのだと思います。

― 宮本

IoTの普及で「守る場所」は一気に増えていく

番組の中でまず共有されていたのは、IoTの拡大がそのままリスクの拡大につながる、という視点である。これは単なる不安の話ではなく、仕組みとしてそうなりやすい、という説明だった。たとえば従来のセキュリティ対策は、オフィスのパソコンや社内サーバーのように、比較的管理しやすい対象を前提としていた。ところがIoTでは、設置場所も利用者もバラバラで、更新が難しい機器も多い。つまり守る対象が、物理的にも運用的にも分散してしまうのである。

ここで重要なのは、脆弱性という言葉の意味である。脆弱性とは、簡単に言えば、攻撃を受けるすきのことである。IoT機器は長期間使われることが多く、ソフトウェア更新が十分に行われない場合もある。そのため、一度弱い部分が見つかると、広い範囲に影響が及ぶおそれがある。さらに利用者が機器を「ただの設備」と思っていると、セキュリティの意識が向きにくい。これがIoT時代の厄介さとして語られていた。

私がIoTのセキュリティで難しいと感じるのは、守る相手が目立たないことです。パソコンなら注意しようと思えますが、建物の設備や街にある端末は、普段はそこまで意識されません。ですが、そうしたものも確かにネットワークにつながり、社会の機能を支えています。だから防御の考え方も、目立つ機器だけを見るのではなく、裏側で動く無数の接点まで含めて考えなければならないのだと思います。

― 増田

AIは攻撃にも防御にも使われる時代に入る

このテーマでさらに大きかったのは、AIが防御だけでなく攻撃にも使われる、という見方である。AIというと、異常検知や監視の自動化など、守る側の技術として期待されやすい。実際、膨大な通信や端末の状態を人の目だけで見続けるのは難しいため、AIで普段と違う動きを見つけることには大きな意味がある。これはセキュリティ分野でいう異常検知に近い考え方で、通常パターンから外れた挙動を見つける仕組みである。

ただし同じように、AIは攻撃する側にも使われうる。たとえば、攻撃文面を自然に作る、相手に合わせてだます内容を変える、弱い部分を効率よく探す――といった形で、攻撃の質と量が上がる可能性がある。つまりAI時代のセキュリティは、守る側だけが技術を持てばよいわけではない。攻撃の側も進化する前提で、常に一段深く備える必要がある。番組ではこの点が、かなり現実的な課題として扱われていた。

私が気になっているのは、AIが善意だけで使われるとは限らないことです。防御に使えば心強いですが、攻撃する側も同じ道具を使えます。そうなると、これまで人手では難しかった大規模な攻撃や、より自然で見抜きにくいだまし方も起こりえます。だからこそ、防御側も人の経験だけに頼らず、AIを前提にした守り方へ切り替えていく必要があるのだと思います。

― 西塚

端末ではなく、ネットワーク全体で守る発想が必要になる

番組では、防御の方法そのものが変わるという点も重要な論点になっていた。従来は、個々の端末に対策ソフトを入れる、利用者に注意を促す、といった発想が中心になりやすかった。しかしIoTが広がると、すべての機器に同じような対策を入れることは、現実的ではない場合もある。そこで出てくるのが、ネットワーク側で監視し、異常な通信や不自然な動きを止めるという考え方である。

これは、社会全体が複雑につながる時代にはとても合理的である。なぜなら、個々の機器の中身が見えにくくても、通信の流れや振る舞いには変化が出ることが多いからである。つまり1台ずつ完璧に守るより、全体の様子を見ながら異変をすばやく検知し、広がる前に止めることが重要になる。ここがポイントです。2030年のAI×IoT社会では、セキュリティは機器の付属機能ではなく、社会インフラの一部として設計しなければならない。

このように、AIとIoTの普及は利便性だけでなく、守り方の再設計を社会に迫っている。攻撃面は広がり、AIによってそのスピードも変わる。一方で、防御もAIとネットワーク全体の視点を取り込むことで、より現実的な形へ進化していく。便利な未来を成立させるには、安全が後ろから支えるのではなく、最初から仕組みの中に組み込まれている必要がある。次のテーマでは、その先の2040年を見据えながら、AIが環境に溶け込んだ社会で人間の役割がどう変わるのかが見えてくる。


2040年、AIと人間はどう共存するのか

  • ✅ 2040年に向かうAIは、目立つ存在として増えるというより、空間や仕組みの中に溶け込んでいく可能性があります。
  • ✅ AIが高度になるほど、人間の役割は消えるのではなく、最終判断や目的設定の側へ移っていきます。
  • ✅ 未来の本質は「AIに置き換わる社会」ではなく、「AIをどう使いこなすか」で差が生まれる社会にあるといえます。

このテーマでは、2030年の延長線上にある2040年の社会像が語られていた。番組の後半で見えてくるのは、AIが単独の機能として目立つ時代から、環境の中に自然に埋め込まれる時代への移行である。つまり未来のAIは「ここにAIがあります」と見せるものではなく、建物、移動、仕事、判断の補助といった社会の流れそのものにしみ込んでいく可能性がある。ここまで来ると、話題の中心はAIそのもののすごさではなく、人間がその環境とどう付き合うかへ移っていく。

私が2040年の未来を考えるとき、AIが前に立って目立つ世界というより、空気のように周囲へなじんでいく世界を想像します。使うたびに意識する道具ではなく、気づかないうちに判断や移動や仕事を支えている。そんな状態になれば、AIは特別な技術というより、社会の前提のひとつになります。だからこそ大事なのは、AIがあるかどうかではなく、その環境の中で人が何を決め、何を任せるのかだと思います。

― 宮本

AIは「見える技術」から「環境」へ変わっていく

番組の中で印象的だったのは、未来のAIを単体の製品としてではなく、環境として捉える視点である。たとえば今は、AIアプリやAI機能という形で意識されやすい。しかし将来は、それが建物の管理、モビリティの制御、業務の流れ、街の仕組みなどに広く組み込まれ、利用者が毎回「AIを使っている」と考えなくなる可能性がある。かんたんに言うと、水道や電気のように、意識しないけれど前提として存在する技術へ近づいていくイメージである。

この見方はとても重要である。なぜならAIを特別なものとして見ているあいだは、導入するかしないかの議論になりやすいからである。だが環境化が進むと、問いは「導入するか」ではなく、「どこまで任せるか」「どう制御するか」へ変わる。これは社会全体の設計の問題でもある。AIが自然に広がる時代ほど、利用者が仕組みを完全に見渡せない場面も増えるため、人間の関わり方がより重要になる。

私が未来のAIに感じるのは、目立たなくなることの強さです。派手に現れる技術は注目されますが、本当に社会を変えるものは、いつの間にか前提になっていることが多いです。AIも同じで、アプリとして使う段階から、空間やサービスの裏側に入り込み、自然に働く段階へ進んでいくのだと思います。そのとき人に求められるのは、技術の操作よりも、どういう社会を望むのかを決める力だと感じます。

― 増田

人間の役割は「作業」より「判断」と「目的設定」に寄っていく

AIが広がると、人の仕事はなくなるのかという問いはどうしても出てくる。番組でも、この不安にそのまま乗るのではなく、役割の移り方として整理する視点が示されていた。つまりAIが得意なのは、大量の情報処理、反復作業、パターン認識のような領域である。一方で、何を目指すのか、何を優先するのか、どのリスクを受け入れるのかといった判断は、依然として人間の役割として残りやすい。

ここで出てくるのが「Human in the loop」という考え方である。これは、簡単に言えば、AIに任せきりにせず、人間が途中または最後に関与する仕組みのことである。完全自動化が技術的に可能に見える場面でも、社会的な責任や価値判断を考えると、人間の関与を残す意味は大きい。つまり2040年に向かう社会では、人が機械と競争するのではなく、機械に任せる部分と、人が引き受ける部分をどう切り分けるかが重要になっていく。

私自身、AIが広がるほど人の役割はむしろはっきりしてくるのではないかと感じています。速く計算することや、大量の情報から傾向を見つけることはAIに任せやすくなります。ですが、何のために使うのか、どこまで許容するのか、最後に責任を引き受けるのかといった点は、やはり人が考える必要があります。便利になるほど、その便利さをどう使うかという問いは、むしろ重くなるのだと思います。

― 西塚

未来の差は「AIの有無」ではなく「使いこなし方」に表れる

番組の終盤では、AIの普及そのものよりも、それをどう扱うかで差が広がるという見方がにじんでいた。これはとても現実的である。なぜなら、一定水準のAIが広く使えるようになると、単に導入していること自体は差になりにくいからである。その先で問われるのは、AIにどんな役割を与えるのか、どこで人間が関与するのか、どんな価値観で運用するのかという設計の部分である。

ここで宮本氏が示していた比喩は、とてもわかりやすい。AIは「アラジンと魔法のランプ」のようなものだという見立てである。願いをかなえる力は大きいが、使う側が何を望むか、どう命じるかで結果は大きく変わる。つまり、強力なAIがあるだけでは十分ではない。その力をどんな社会のために使うのかを定めることが、人間に残された大きな役割になる。これは未来を楽観するための話ではなく、責任の置き場を見失わないための話として受け止めやすい。

このように2040年のAI社会は、人と機械のどちらが主役かを競う構図ではとらえにくい。AIは環境に溶け込み、人はその環境に目的と方向を与える側へ寄っていく。そして差を生むのは、AIを持っているかどうかではなく、AIをどのように位置づけ、どこで人間の判断を残すかという使いこなしの設計である。記事全体を通して見ると、この動画はAIの未来を派手な予測として語るのではなく、社会の仕組み、人間の役割、安全の条件を一つずつ積み上げながら描いていたといえる。


出典

本記事は、YouTube番組「2030年AIが社会を動かす時代へ。」(NewsPicks / ニューズピックス公開)の内容をもとに要約しています。

読後のひと考察──事実と背景から見えてくるもの

AIとIoTの議論は「便利になるかどうか」に寄りがちですが、現実には「誰がどれだけ恩恵を受け、誰が運用負担を背負うのか」という条件のほうが先に来ます。たとえばOECDは、企業のAI利用が増えている一方で、企業規模による利用率の差が大きいことを示しています[1,2]。導入に必要なデータ、技能、資金、法務・セキュリティ体制がそろうほど採用が進みやすい、という構図が見えてきます。

IoTについても、社会の“接続点”が増えるほど効率化の余地は広がりますが、同時に「守るべき入口」も増えていきます。IEAは、スマート電力メーターが2022年に世界で10億台を超え、制御・センサー付きの接続機器が2030年に向けてさらに増える可能性を示しています[3]。これらは省力化の前提にもなりますが、障害や攻撃の影響範囲を広げ得る点も無視できません。

実際、脅威の話は「IT担当だけの問題」ではなくなっています。ENISAの脅威概観では、可用性を狙う脅威が上位に位置づけられ、ランサムウェアやデータへの脅威などと並んで重点対象として整理されています[4]。社会が“つながるほど”便利になるのは確かですが、“つながるほど”止まりやすくもなるという裏表の関係は、前提として残ります。

問題設定/問いの明確化

このテーマを検証的に扱う場合、問いは少なくとも三つに分けられます。第一に、AI・IoTの便益(省力化、最適化)がどの層に届くのかという配分の問題です[1,5]。第二に、接続機器の拡大がサイバーリスクをどう増幅し、社会機能の停止リスクをどう変えるかというレジリエンスの問題です[3,4]。第三に、自動化が進むほど、誤作動や事故時の責任・説明・救済をどう設計するかという統治の問題です[6,7]。

定義と前提の整理

AIは単一の技術ではなく、学習・推論・生成など複数の方式を含みます。とくに生成AIは、出力の誤りや情報漏えい、意図しない利用などのリスクを含むため、評価・監視・ガバナンスを含む運用設計が推奨されています[6]。ここで重要なのは、性能が上がったとしても「適切に使える」ことが自動的に保証されるわけではない、という点です。

IoTは、センサーや機器をネットワークにつなげてデータ収集や遠隔制御を可能にする仕組みです。ただし、端末が増えるほど更新・設定・資産管理・ログ取得といった運用要件が重くなりやすい性質があります。NISTは、IoT機器に求められる中核的なセキュリティ機能をベースラインとして整理し、調達・設計段階での要件化を促しています[8]。つまり「つながる設計」だけでは足りず、「更新できる設計」「監視できる設計」が前提になります。

エビデンスの検証

企業のAI利用について、OECDは2025年にAIを利用する企業割合が上昇したことに加え、大企業と小企業で利用率に大きな差があることを示しています[1,2]。この差は、技術の優劣というより、補完投資(データ基盤、人材、業務再設計、法務・セキュリティ体制)を確保できるかどうかに左右される可能性があります。OECDのデジタル経済に関する報告でも、技術の採用やデジタル格差が経済・社会の機会に影響し得ることが整理されています[5]。

IoT側では、スマートメーターの急増や、制御・センサー付きの接続機器の増加見通しが示されており、社会インフラのデジタル化が進行していることが分かります[3]。その一方で、ENISAは可用性への脅威やランサムウェアなどを主要脅威として整理しており、デジタル依存が高まるほど「止まらないこと」の価値が増すことが示唆されます[4]。

歴史的な事例としては、脆弱なIoT機器がボットネット化し、大規模DDoSに悪用された問題が研究されています[9]。日本の脆弱性情報の注意喚起でも、IoT機器が攻撃に悪用され得る点と、機器や接続機器の保護の重要性が示されています[10]。この経緯は、端末が増えるほど「一台の弱さ」が全体の弱さになり得る、という失敗パターンとして参照できます。

雇用への影響は一方向ではありません。ILOは生成AIの影響を職業そのものではなくタスク単位で評価し、置換だけでなく仕事内容の変化や補完が起こり得る点を示しています[11]。一方で、米国地域データを用いたIMFの分析では、地域のAI導入度合いの違いと雇用指標の変化の関連が示されており、影響が局所的に現れ得る点は留意が必要です[12]。さらに、産業用ロボットの研究では、地域労働市場で雇用や賃金に負の影響が観測され得ることが示されており、技術導入の効果が一部地域・一部職種に集中する可能性も念頭に置く必要があります[13]。

加えて、「技術が伸びても生産性統計に効果が出るまで時間差がある」という議論も重要です。NBERの研究は、期待と統計がずれる理由として実装の遅れなどを挙げ、導入が組織や業務の再設計を伴うほど時間がかかり得ることを示しています[14]。この点は、AI・IoTの便益が“導入した瞬間に広がる”とは限らないことを裏づけます。

反証・限界・異説

AI・IoTの普及を楽観的に見る立場もあれば、リスクを強く見る立場もあります。ここで注意したいのは、どちらの立場でも「運用の現実」を過小評価しやすい点です。たとえば自動化が進むほど、例外対応、監督、監査、説明責任の作業が増え、現場負担が短中期で上がるという指摘があります[6,14]。省力化が進むほど“運用の仕事”が別の形で増える可能性は残ります。

倫理面では、「人間が最後に判断する」設計が万能ではない点も論点になります。普段はシステムに任せ、問題が起きたときだけ人に責任が戻る形は、責任分担の不均衡を生みやすいという見方もあります[6,7]。このため、単に人を介在させるだけでなく、事前のリスク評価、監視、記録、説明可能性、インシデント対応まで含む設計が必要とされます[6]。

実務・政策・生活への含意

実務面での要点は「後付け」ではなく「要件化」です。IoTは調達段階で、更新可能性、設定管理、ログなどの基本機能を要求し、資産台帳と更新計画を運用に組み込むことが出発点になります[8]。これを欠くと、端末が増えるほど“直せない機器”が増え、全体最適が難しくなります。

政策面では、消費者が安全性を比較しやすくする仕組みが検討されています。米国では無線の消費者向けIoT製品を対象に、認証マークとQRコード、公開レジストリを組み合わせた任意のラベリング制度が官報文書として示されています[15]。こうした制度は、情報の非対称を減らし、製造者側にセキュリティ配慮を促す狙いがあります[15]。

生活者にとっては、利便性が増すほど「データがどこへ集まり、どこで判断が自動化され、異常時に誰が止めるのか」が見えにくくなる点が課題です。NISTの生成AI向け指針は、評価・監視・説明責任などを含む運用を求めており、利用の広がりに合わせて“使い方の基準”を明確化する必要性が示唆されます[6]。

まとめ:何が事実として残るか

第三者の統計・報告から確認できるのは、AI利用が増えている一方で導入には企業規模差があり[1,2]、IoT接続点の増加が最適化の余地と同時に攻撃面も広げるという構造です[3,4]。過去には脆弱なIoT機器が大規模攻撃に悪用された経緯もあり[9,10]、普及と同時に「守り方の再設計」が不可避であることが分かります。雇用面でも、タスクの変化や補完があり得る一方[11]、地域や職種によって痛みが集中し得るという知見が示されており[12,13]、移行期の設計が重要になります。技術の進歩そのものより、調達要件、運用能力、説明責任、支援策をどこまで整えるかが、今後も検討が必要とされます[6-8,14,15]。

本記事の事実主張は、本文の[番号]と文末の「出典一覧」を対応させて検証可能としています。

出典一覧

  1. OECD(2026)『AI use by individuals surges across the OECD as adoption by firms continues to expand』 OECD(Announcement) 公式ページ
  2. 国立国会図書館(2026)『経済協力開発機構(OECD)、加盟国における生成AIツールの利用状況に関する調査結果(2025年)を公表』 Current Awareness-R 公式ページ
  3. International Energy Agency(2023)『Digitalisation - Energy System』 IEA(Web) 公式ページ
  4. European Union Agency for Cybersecurity(ENISA)(2024)『ENISA Threat Landscape 2024』 ENISA(Report) 公式ページ
  5. OECD(2024)『OECD Digital Economy Outlook 2024(Volume 1):Embracing the Technology Frontier』 OECD Publishing 公式ページ
  6. National Institute of Standards and Technology(2024)『Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile(NIST AI 600-1)』 NIST(PDF) 公式ページ
  7. OECD(2024)『Assessing potential future artificial intelligence risks, benefits and policy imperatives』 OECD Artificial Intelligence Papers, No. 27(PDF) 公式ページ
  8. National Institute of Standards and Technology(2020)『IoT Device Cybersecurity Capability Core Baseline(NISTIR 8259A)』 NISTIR(PDF) 公式ページ
  9. Antonakakis, M. et al.(2017)『Understanding the Mirai Botnet』 USENIX Security Symposium(Conference Paper, PDF) 公式ページ
  10. JPCERTコーディネーションセンター(2016)『JVNTA#95530271:Mirai 等のマルウェアで構築されたボットネットによる DDoS 攻撃の脅威』 Japan Vulnerability Notes(注意喚起) 公式ページ
  11. Gmyrek, P., Berg, J., Bescond, D.(2023)『Generative AI and jobs: A global analysis of potential effects on job quantity and quality』 ILO Working Paper 96(PDF) 公式ページ
  12. International Monetary Fund(2024)『The Labor Market Impact of Artificial Intelligence: Evidence from US Regions(WP/24/199)』 IMF Working Paper(PDF) 公式ページ
  13. Acemoglu, D. & Restrepo, P.(2020)『Robots and Jobs: Evidence from US Labor Markets』 Journal of Political Economy(Author PDF) 公式ページ
  14. Brynjolfsson, E., Rock, D., Syverson, C.(2017)『Artificial Intelligence and the Modern Productivity Paradox: A Clash of Expectations and Statistics(Working Paper 24001)』 NBER Working Paper(PDF) 公式ページ
  15. Federal Register(2024)『Cybersecurity Labeling for Internet of Things(2024-14148)』 U.S. Government Publishing Office(GovInfo, PDF) 公式ページ