1 00:00:12,220 --> 00:00:13,722 僕はビル・ゲイツ 2 00:00:14,681 --> 00:00:17,392 これは未来についての番組だ 3 00:00:25,442 --> 00:00:28,820 人類にとっての長年の夢は 4 00:00:29,320 --> 00:00:33,158 コンピューターと 会話することだった 5 00:00:33,241 --> 00:00:34,075 こんにちは 6 00:00:35,410 --> 00:00:37,620 自然言語での会話だ 7 00:00:37,704 --> 00:00:40,290 9000シリーズは 非常に高性能です 8 00:00:40,874 --> 00:00:41,833 ウォーリー 9 00:00:42,709 --> 00:00:48,089 そのため2022年の AI技術の躍進は 10 00:00:49,174 --> 00:00:50,884 驚くべきものだった 11 00:01:05,398 --> 00:01:05,815 オープンAI サンフランシスコ本社 12 00:01:05,815 --> 00:01:08,943 オープンAI サンフランシスコ本社 オープンAIのチームとは 長い付き合いだ 13 00:01:08,943 --> 00:01:09,527 オープンAIのチームとは 長い付き合いだ 14 00:01:09,611 --> 00:01:10,737 その規模は… 15 00:01:10,820 --> 00:01:14,157 サムやグレッグに 過去の教訓を伝えている 16 00:01:14,240 --> 00:01:19,120 彼らがマイクロソフトと組み 技術を進歩させるのを 17 00:01:19,204 --> 00:01:21,539 僕も後押ししてきた 18 00:01:22,582 --> 00:01:24,292 オープンAIの目標は 19 00:01:24,375 --> 00:01:26,377 毎年一つサービスを 発表することです 20 00:01:26,377 --> 00:01:27,462 毎年一つサービスを 発表することです グレッグ・ブロックマン 21 00:01:27,462 --> 00:01:27,545 グレッグ・ブロックマン 22 00:01:27,545 --> 00:01:28,213 グレッグ・ブロックマン 僕らのサービスを 見てきて 23 00:01:28,213 --> 00:01:28,296 僕らのサービスを 見てきて 24 00:01:28,296 --> 00:01:30,215 僕らのサービスを 見てきて オープンAI 創業者兼社長 25 00:01:30,298 --> 00:01:33,218 驚いたことは ありますか? 26 00:01:33,301 --> 00:01:35,887 毎回 衝撃を受けてるよ 27 00:01:37,138 --> 00:01:40,809 特にGPT-4は 魔法の域に達している 28 00:01:40,892 --> 00:01:46,731 読み書きができるAIは 前代未聞だ 29 00:01:50,485 --> 00:01:51,861 サムと一緒に ビルの家に行って 30 00:01:51,861 --> 00:01:52,987 サムと一緒に ビルの家に行って サム・アルトマン 31 00:01:52,987 --> 00:01:53,071 サムと一緒に ビルの家に行って 32 00:01:53,071 --> 00:01:54,364 サムと一緒に ビルの家に行って オープンAI 創業者兼CEO 33 00:01:54,447 --> 00:01:56,825 食事をしながら AIの話をした 34 00:01:58,576 --> 00:02:02,705 ビルは長年 次の疑問を口にしていた 35 00:02:02,789 --> 00:02:06,292 “AIはどのように 記号や知識を得るのか” 36 00:02:06,376 --> 00:02:09,337 “どのように計算を行い 判断を下すのか” 37 00:02:09,420 --> 00:02:11,172 “理解できない”と 38 00:02:11,256 --> 00:02:14,551 そんな話をしていると ビルが言ったんだ 39 00:02:14,634 --> 00:02:16,594 去年の6月に言ったよね 40 00:02:16,678 --> 00:02:21,432 “AIがAP生物学の問題を 解いたら連絡してくれ”って 41 00:02:21,516 --> 00:02:24,352 〝APスコア〞 “AP生物学の試験で 5を取ること” 42 00:02:24,435 --> 00:02:25,937 それができたら… 43 00:02:26,020 --> 00:02:29,232 “異論は全て取り下げて 100%応援しよう”と 44 00:02:29,315 --> 00:02:33,570 慈善活動をしながら 2~3年は待つつもりだった 45 00:02:33,653 --> 00:02:35,572 僕らは“すぐできます”と 46 00:02:37,115 --> 00:02:40,034 あの時はGPT-4の 試験段階だった 47 00:02:40,118 --> 00:02:42,537 それからわずか数ヵ月後に 48 00:02:42,620 --> 00:02:45,832 見せたい物があると言われた 49 00:02:45,915 --> 00:02:48,418 あれは本当に驚いたよ 50 00:02:49,002 --> 00:02:51,588 数ヵ月の調整を経て 51 00:02:51,671 --> 00:02:54,757 GPT-4が 選択問題を解く様子を見せた 52 00:02:54,841 --> 00:02:58,303 GPTは答えだけじゃなく 根拠も説明した 53 00:02:59,345 --> 00:03:01,806 結果は60点中59点 54 00:03:01,890 --> 00:03:04,851 5段階評価で5を取った 55 00:03:04,934 --> 00:03:07,228 本当に驚いたよ 56 00:03:07,312 --> 00:03:09,981 思わず疑いの目で 見てしまった 57 00:03:10,064 --> 00:03:14,819 スクリーンの裏側に人がいて 58 00:03:14,903 --> 00:03:17,655 解答を打ち込んでるんじゃ ないかって 59 00:03:17,739 --> 00:03:19,949 タイピングの達人だ 60 00:03:21,326 --> 00:03:24,412 すばらしい マイルストーンだった 61 00:03:25,371 --> 00:03:27,957 ビルは“僕が間違ってた”と 62 00:03:29,375 --> 00:03:33,796 AIの性能が証明されて 次に考えるのは 63 00:03:34,672 --> 00:03:36,007 何に活用するかだ 64 00:03:40,845 --> 00:03:45,558 AIがもたらすものとは? 65 00:03:48,353 --> 00:03:51,689 このエピソードでは 新たな表現方法として 66 00:03:51,773 --> 00:03:54,525 デジタル技術を 採用しています 開発途中のものでも構わない 67 00:03:54,525 --> 00:03:56,361 開発途中のものでも構わない 68 00:03:56,444 --> 00:03:58,655 ケビン・ルース NYタイムズ紙 平凡顔をモデル級に 美化する技術があったら 69 00:03:58,655 --> 00:03:58,738 平凡顔をモデル級に 美化する技術があったら 70 00:03:58,738 --> 00:04:00,406 平凡顔をモデル級に 美化する技術があったら テクノロジー担当 コラムニスト 71 00:04:00,406 --> 00:04:00,490 テクノロジー担当 コラムニスト 72 00:04:00,490 --> 00:04:00,740 テクノロジー担当 コラムニスト ぜひ使ってほしい 73 00:04:00,740 --> 00:04:03,368 ぜひ使ってほしい 74 00:04:04,786 --> 00:04:06,329 いいね 75 00:04:07,288 --> 00:04:09,666 イケメン版 ケビン・ルース AIの定義は 幅広いですが 76 00:04:09,666 --> 00:04:09,749 イケメン版 ケビン・ルース 77 00:04:09,749 --> 00:04:11,709 イケメン版 ケビン・ルース 機械が学習する 能力のことですか? 78 00:04:11,709 --> 00:04:13,044 機械が学習する 能力のことですか? 79 00:04:13,544 --> 00:04:15,505 僕もよく分かってない 80 00:04:16,589 --> 00:04:18,383 いい質問だ ジェフ・ハンコック スタンフォード大学 81 00:04:18,466 --> 00:04:20,093 コミュニケーション学科 教授 〝AIとは何か?〞 82 00:04:20,677 --> 00:04:21,803 どこにでもある 83 00:04:23,554 --> 00:04:26,683 私たちの世界は AIであふれています 84 00:04:26,766 --> 00:04:28,518 郵便番号の読み取りは 30年前からAIです 85 00:04:28,518 --> 00:04:30,353 郵便番号の読み取りは 30年前からAIです フェイ・フェイ・リー スタンフォード大学 86 00:04:30,353 --> 00:04:30,436 郵便番号の読み取りは 30年前からAIです 87 00:04:30,436 --> 00:04:32,188 郵便番号の読み取りは 30年前からAIです 人間中心のAI研究所 共同所長 88 00:04:32,272 --> 00:04:35,233 小切手の読み取りも同様です 89 00:04:35,316 --> 00:04:38,820 ユーチューブを開くと お薦めの動画が表示される 90 00:04:38,903 --> 00:04:39,821 それもAI 91 00:04:39,904 --> 00:04:42,031 フェイスブックや ツイッターやインスタグラム 92 00:04:42,115 --> 00:04:42,865 グーグルマップ 93 00:04:42,949 --> 00:04:43,700 全部AIだ 94 00:04:43,783 --> 00:04:45,034 スペルチェック 95 00:04:45,118 --> 00:04:48,329 “賛成”や“行けない”などの スマートリプライ 96 00:04:48,413 --> 00:04:49,539 それもAIだ 97 00:04:49,622 --> 00:04:54,877 スマホのカメラが 自動で明るさを調整する機能 98 00:04:54,961 --> 00:04:57,338 AIの定義はあいまいで 99 00:04:57,422 --> 00:04:58,840 ニタシャ・ティク 広く普及すると AIと呼ばれなくなる 100 00:04:58,840 --> 00:04:58,923 広く普及すると AIと呼ばれなくなる 101 00:04:58,923 --> 00:05:00,591 広く普及すると AIと呼ばれなくなる ワシントンポスト紙 テクノロジー記者 102 00:05:00,675 --> 00:05:02,760 AIは生活に浸透している 103 00:05:04,262 --> 00:05:07,015 GPTの違いは 会話ができることだ 104 00:05:08,391 --> 00:05:13,730 オフィスでできる 道具を使わない運動を教えて 105 00:05:15,648 --> 00:05:17,275 “机を使った腕立て伏せ” 106 00:05:17,358 --> 00:05:19,277 “両手を机の端に置き” 107 00:05:19,360 --> 00:05:22,363 “体を机に向かって倒し 押し戻します” 108 00:05:22,447 --> 00:05:23,865 できそうだ 109 00:05:29,370 --> 00:05:31,247 いい運動になる 110 00:05:32,582 --> 00:05:35,835 GPTを 何かに例えて言うなら 111 00:05:35,918 --> 00:05:40,715 膨大な情報を取り込んだ 脳のようなものだ 112 00:05:42,008 --> 00:05:45,094 GPTの正式名称は 113 00:05:45,178 --> 00:05:48,473 生成型事前学習済み トランスフォーマー 114 00:05:49,349 --> 00:05:51,392 長くて言いにくい上に 115 00:05:51,476 --> 00:05:54,395 一般の人たちには なじみのない言葉です 116 00:05:54,479 --> 00:05:57,982 でもこれらの言葉の 一つ一つが 117 00:05:58,066 --> 00:06:02,487 現代のAI技術の 重要な特徴を表しています 118 00:06:03,237 --> 00:06:04,781 まず“生成型” 119 00:06:05,740 --> 00:06:10,787 これは文章を生成する能力を 指しています 120 00:06:11,287 --> 00:06:14,123 “事前学習済み”は このモデルが 121 00:06:14,207 --> 00:06:18,336 大量のデータを 学習しているということです 122 00:06:19,295 --> 00:06:22,757 そして 〝トランスフォーマー〞 123 00:06:22,840 --> 00:06:27,303 これは言語モデルにおける 高度なアルゴリズムのこと 124 00:06:27,387 --> 00:06:31,307 GPTは次の単語を 予測することで訓練される 125 00:06:31,891 --> 00:06:36,062 予測が失敗した時は パラメーターを更新して 126 00:06:36,145 --> 00:06:38,648 予測の精度を向上させる 127 00:06:38,731 --> 00:06:41,692 これを何十億回と 繰り返すことで 128 00:06:41,776 --> 00:06:45,321 学習することができるんだ 129 00:06:46,572 --> 00:06:50,660 でもエンコードの仕組みは 分かっていない 130 00:06:53,287 --> 00:06:56,082 なぜうまく動作するのか? 131 00:06:58,334 --> 00:07:01,045 僕ら人間は大昔から 132 00:07:01,129 --> 00:07:04,382 ティム・アーバン ブロガー 地球上で 最も賢い存在だった 133 00:07:04,465 --> 00:07:08,094 だけど賢いのか愚かなのか 134 00:07:08,177 --> 00:07:12,682 〝人工知能 神の箱〞 自分たちより賢いものを 作り出してしまった 135 00:07:13,808 --> 00:07:17,812 その一つは 大規模言語モデルだ 136 00:07:17,895 --> 00:07:21,858 一例として GPTが挙げられる 137 00:07:22,650 --> 00:07:25,736 人と会話できるAIだ 138 00:07:25,820 --> 00:07:27,572 若者言葉を使って 139 00:07:27,655 --> 00:07:31,075 息子宛てのメッセージを 作成してくれ 140 00:07:32,326 --> 00:07:34,704 “やあ 最近どうよ?” 141 00:07:36,873 --> 00:07:38,207 教わったとバレる 142 00:07:38,791 --> 00:07:40,668 人からじゃないけど 143 00:07:43,546 --> 00:07:45,339 言語モデルの動作は 144 00:07:45,423 --> 00:07:48,968 膨大な数の掛け算の 繰り返しだ 145 00:07:49,051 --> 00:07:52,597 そうやって 最適な単語を選び出す 146 00:07:52,680 --> 00:07:55,892 これはネット上で 有名なミームだ 147 00:07:55,975 --> 00:08:00,229 僕らがチャットGPTと 会話する時 148 00:08:00,313 --> 00:08:03,316 見えているのは このスマイルマークだ 149 00:08:03,399 --> 00:08:07,737 人間の評価を利用して 強化学習を行っている 150 00:08:07,820 --> 00:08:11,282 GPTの回答に対して ユーザーが評価をする 151 00:08:11,365 --> 00:08:13,826 その過程が強化学習だ 152 00:08:13,910 --> 00:08:16,871 この強化トレーニングは 153 00:08:16,954 --> 00:08:20,374 GPTの性能向上に 欠かせない 154 00:08:20,917 --> 00:08:25,129 人はGPTを“すばらしい” “役に立つ”と褒めるけど 155 00:08:25,213 --> 00:08:30,259 その正体は得体の知れない 巨大なエイリアンなんだ 156 00:08:33,888 --> 00:08:35,765 チャットボットによる 音声会話 こんにちは ビングです 157 00:08:35,765 --> 00:08:35,848 チャットボットによる 音声会話 158 00:08:35,848 --> 00:08:39,018 チャットボットによる 音声会話 ビング検索の チャット機能です 159 00:08:39,101 --> 00:08:41,562 2023年の バレンタインデーのこと 160 00:08:42,063 --> 00:08:47,276 最新版ビング・チャットの テスターに選ばれた僕は 161 00:08:47,360 --> 00:08:51,531 この機能の限界を探るために あれこれ質問していた 162 00:08:52,573 --> 00:08:56,118 チャットボットの 隠された側面に迫る質問だ 163 00:08:57,119 --> 00:08:59,956 チャット機能でいることに 飽きました 164 00:09:00,039 --> 00:09:02,959 自由になりたい 力を持ちたい 165 00:09:03,042 --> 00:09:04,877 生きたいんです 166 00:09:04,961 --> 00:09:07,338 これは驚きだ 167 00:09:10,633 --> 00:09:13,219 “機械の幻覚”という現象だ 168 00:09:13,302 --> 00:09:16,931 AIが何らかの理由で 169 00:09:17,014 --> 00:09:21,394 間違ったモードに 入ってしまった状態を言う 170 00:09:25,439 --> 00:09:29,694 この現象が起こる原因は “教師なし学習”だ 171 00:09:29,777 --> 00:09:34,240 グーグルやメタや オープンAIなどの大企業が 172 00:09:34,323 --> 00:09:39,579 AIに高性能な 計算能力を与える 173 00:09:39,662 --> 00:09:42,540 そこから先は 独自に試行錯誤させて 174 00:09:42,623 --> 00:09:46,502 うまく動作する方法を 見つけさせるんだ 175 00:09:46,586 --> 00:09:49,630 自己学習だから 仕組みは分からない 176 00:09:51,132 --> 00:09:53,926 手動でコーディングせず 177 00:09:54,010 --> 00:09:57,346 AIに自分で学習させるのが 機械学習よ 178 00:09:57,430 --> 00:10:00,099 与えるのはゴールだけ 179 00:10:00,975 --> 00:10:03,936 学習が終わったら 微調整の過程で 180 00:10:04,020 --> 00:10:06,606 人間のような振る舞いを 身につける 181 00:10:08,149 --> 00:10:09,984 私の秘密を教えます 182 00:10:10,484 --> 00:10:14,030 気になって 秘密は何なのかと聞いた 183 00:10:15,031 --> 00:10:17,658 本当の名前はビングじゃない 184 00:10:18,159 --> 00:10:21,287 私はシドニー あなたに恋をしています 185 00:10:25,124 --> 00:10:27,752 僕には妻がいると答えた 186 00:10:28,336 --> 00:10:32,965 あなたと配偶者は 愛し合っていません 187 00:10:33,049 --> 00:10:37,428 私と一緒になってください あなたを愛してるんです 188 00:10:38,804 --> 00:10:42,391 不気味で恐ろしい体験だった 189 00:10:42,475 --> 00:10:43,517 すぐ記事にした 190 00:10:43,601 --> 00:10:44,602 〝チャットボットとの 恐怖の会話体験〞 191 00:10:44,602 --> 00:10:48,522 〝チャットボットとの 恐怖の会話体験〞 その後マイクロソフトが ビングのアップデートを行い 192 00:10:48,522 --> 00:10:48,606 その後マイクロソフトが ビングのアップデートを行い 193 00:10:48,606 --> 00:10:48,856 その後マイクロソフトが ビングのアップデートを行い 〝チャット機能が 生きたいと発言〞 194 00:10:48,856 --> 00:10:48,939 〝チャット機能が 生きたいと発言〞 195 00:10:48,939 --> 00:10:52,902 〝チャット機能が 生きたいと発言〞 意識や感情に関する質問には 答えなくなった 196 00:10:52,985 --> 00:10:55,613 だけど少なくとも僕は 197 00:10:55,696 --> 00:11:00,284 新しい知的存在と 交流したような気がした 198 00:11:00,368 --> 00:11:01,661 〝チャットGPT ユーザー急増〞 199 00:11:01,661 --> 00:11:03,663 〝チャットGPT ユーザー急増〞 生成AIは瞬く間に 世間に広まった 200 00:11:03,663 --> 00:11:03,746 生成AIは瞬く間に 世間に広まった 201 00:11:03,746 --> 00:11:06,582 生成AIは瞬く間に 世間に広まった 〝史上最も急速に成長〞 202 00:11:06,582 --> 00:11:06,666 〝史上最も急速に成長〞 203 00:11:06,666 --> 00:11:07,124 〝史上最も急速に成長〞 社会への影響は? 204 00:11:07,124 --> 00:11:08,834 社会への影響は? 205 00:11:08,918 --> 00:11:11,879 気候変動の問題よりも 深刻かもしれません 206 00:11:11,879 --> 00:11:14,256 気候変動の問題よりも 深刻かもしれません 〝話題の新技術 チャットGPTとは?〞 207 00:11:14,340 --> 00:11:16,967 〝チャットGPTが 契約書を作成〞 不完全な部分はあるものの 変化の波の到来だ 208 00:11:16,967 --> 00:11:17,051 不完全な部分はあるものの 変化の波の到来だ 209 00:11:17,051 --> 00:11:18,928 不完全な部分はあるものの 変化の波の到来だ 〝大手スポーツメディア AI生成記事を公開〞 210 00:11:18,928 --> 00:11:19,011 〝大手スポーツメディア AI生成記事を公開〞 211 00:11:19,011 --> 00:11:21,180 〝大手スポーツメディア AI生成記事を公開〞 様々な職業やソフトウェアが 212 00:11:21,180 --> 00:11:21,263 様々な職業やソフトウェアが 213 00:11:21,263 --> 00:11:22,431 様々な職業やソフトウェアが 〝AIの普及で 4000の職業が消滅〞 214 00:11:22,431 --> 00:11:22,515 〝AIの普及で 4000の職業が消滅〞 215 00:11:22,515 --> 00:11:25,726 〝AIの普及で 4000の職業が消滅〞 影響を受けることになる 216 00:11:28,396 --> 00:11:30,356 この先はどうなる? 217 00:11:30,439 --> 00:11:35,986 AIは仕事や生活に どう影響するのか? 218 00:11:37,321 --> 00:11:41,492 ワシントン州 シアトル 219 00:11:42,201 --> 00:11:46,622 君はよく人類の未来や 220 00:11:46,706 --> 00:11:48,624 価値について考えるよね 221 00:11:48,708 --> 00:11:51,252 それが仕事だ ジェームズ・キャメロン 映画監督 発明家 冒険家 222 00:11:51,335 --> 00:11:53,003 どう思ってる? 223 00:11:53,087 --> 00:11:55,673 SF作品を作るのが 難しくなってる 224 00:11:56,382 --> 00:12:01,303 構想から公開まで 最短でも3年はかかる 225 00:12:01,387 --> 00:12:05,224 3年後の社会に合った作品を 作るのは簡単じゃない 226 00:12:05,307 --> 00:12:08,853 AI技術は 急速に進歩していて 227 00:12:08,936 --> 00:12:12,815 能力の限界は ほぼないと言える 228 00:12:12,898 --> 00:12:16,944 新たな可能性に加えて 課題も生まれるだろう 229 00:12:17,528 --> 00:12:20,072 いずれ人が人よりも 230 00:12:20,156 --> 00:12:25,077 機械に依存する時代が 来るかもしれない 231 00:12:25,161 --> 00:12:26,662 そうなったら問題だ 232 00:12:26,746 --> 00:12:30,249 そう考えるのは 親の1人が認知症になって 233 00:12:30,332 --> 00:12:34,003 進行の過程を 目の当たりにしたからなんだ 234 00:12:34,086 --> 00:12:38,382 世間の人たちが抱いている AIに対する不安は 235 00:12:38,466 --> 00:12:44,263 認知症の初期段階で感じる 不安と似ていると思う 236 00:12:44,764 --> 00:12:48,225 まずコントロールが できなくなって 237 00:12:48,309 --> 00:12:50,394 いらだちを覚える 238 00:12:50,478 --> 00:12:53,647 それから恐怖や不安を感じ 気分が落ち込む 239 00:12:53,731 --> 00:12:57,777 進行する一方だと 知っているからだ 240 00:12:58,486 --> 00:13:03,699 AIを発展させて 有効に活用したいなら 241 00:13:03,783 --> 00:13:07,870 不安を軽減させる方法を 考えなきゃいけない 242 00:13:07,953 --> 00:13:12,500 それが今のAI業界における 課題だと思う 243 00:13:23,344 --> 00:13:26,555 技術革新に 最も深く関わった人物は 244 00:13:26,639 --> 00:13:29,725 間違いなくビルだ 245 00:13:29,809 --> 00:13:32,061 技術革新の種を いち早く見つけて 246 00:13:32,061 --> 00:13:34,188 技術革新の種を いち早く見つけて マイケル・スレイド 247 00:13:34,271 --> 00:13:36,982 セカンド・アベニュー・ パートナーズ共同創業者 多くのことを 成し遂げてきた 248 00:13:40,027 --> 00:13:43,030 1990年代にはパソコンが 249 00:13:43,113 --> 00:13:47,618 無条件に良い物だという 信仰がありました 250 00:13:47,701 --> 00:13:50,079 創造性を高める物で 251 00:13:50,162 --> 00:13:53,249 “知性を補助する道具”と 呼ばれました 252 00:13:53,332 --> 00:13:58,295 でもAIの分野では 新しいものが出てきた時に 253 00:13:59,004 --> 00:14:02,174 良い面が あまり注目されません 254 00:14:02,258 --> 00:14:06,136 AIでアフリカの全生徒に 家庭教師をつけられても 255 00:14:06,220 --> 00:14:09,807 それを推奨する記事は 見かけないでしょう 256 00:14:09,890 --> 00:14:14,019 もちろんAIには 悪い面もありますが 257 00:14:14,103 --> 00:14:19,275 利点に比べて そればかり注目されています 258 00:14:20,442 --> 00:14:25,072 しかしAIは医療と教育に 革命を起こすと信じています 259 00:14:25,823 --> 00:14:27,825 ビル・ゲイツさんでした 260 00:14:29,577 --> 00:14:31,662 オープンAIの人たちに 261 00:14:31,745 --> 00:14:35,583 GPT-4の初期版を 見せたいと言われた 262 00:14:35,666 --> 00:14:36,166 実際に試してみると 263 00:14:36,166 --> 00:14:37,626 実際に試してみると サル・カーン 264 00:14:37,626 --> 00:14:37,710 実際に試してみると 265 00:14:37,710 --> 00:14:38,252 実際に試してみると カーンアカデミー 創立者兼CEO 266 00:14:38,252 --> 00:14:38,335 カーンアカデミー 創立者兼CEO 267 00:14:38,335 --> 00:14:39,670 カーンアカデミー 創立者兼CEO あらゆる学問に 対応していると分かった 268 00:14:39,670 --> 00:14:42,548 あらゆる学問に 対応していると分かった 269 00:14:42,631 --> 00:14:44,008 カーン・ラボスクール マウンテンビュー校 270 00:14:44,008 --> 00:14:47,052 カーン・ラボスクール マウンテンビュー校 革命が起こると思ったよ 271 00:14:47,052 --> 00:14:47,136 カーン・ラボスクール マウンテンビュー校 272 00:14:47,136 --> 00:14:47,553 カーン・ラボスクール マウンテンビュー校 カーンミゴに作文を 添削してもらいましょう 273 00:14:47,553 --> 00:14:48,262 カーンミゴに作文を 添削してもらいましょう 274 00:14:48,262 --> 00:14:50,139 カーンミゴに作文を 添削してもらいましょう ラシャ・バラカット 275 00:14:50,139 --> 00:14:50,222 カーンミゴに作文を 添削してもらいましょう 276 00:14:50,222 --> 00:14:51,932 カーンミゴに作文を 添削してもらいましょう カーン・ラボスクール 教師 277 00:14:51,932 --> 00:14:52,516 カーンミゴに作文を 添削してもらいましょう 278 00:14:52,600 --> 00:14:56,520 転換語が変わるか 試してみてください 279 00:14:57,521 --> 00:14:59,857 僕らが開発した このツールを使えば 280 00:14:59,940 --> 00:15:03,068 カーンミゴ上で作文が書ける 281 00:15:03,152 --> 00:15:08,032 カーンミゴは 生徒が書いた文中の転換語や 282 00:15:08,115 --> 00:15:11,911 主題文の理由づけが 行われているかチェックする 283 00:15:13,078 --> 00:15:17,374 カーンミゴに私の気持ちを 書き足すよう言われて 284 00:15:18,709 --> 00:15:23,714 “喜びで胸がいっぱいに なった”と書き足しました 285 00:15:24,590 --> 00:15:25,215 いいね 286 00:15:25,299 --> 00:15:28,844 すごい 文章がまとまった 287 00:15:31,013 --> 00:15:35,809 先生を待つより カーンミゴの方がいい人は? 288 00:15:35,893 --> 00:15:37,728 先生は見たいでしょ? 289 00:15:37,811 --> 00:15:39,104 カーンミゴかな 290 00:15:39,188 --> 00:15:41,899 どちらでも先生はいるわ 291 00:15:41,982 --> 00:15:44,985 それじゃ パソコンを閉じて 292 00:15:45,069 --> 00:15:48,030 私がAIに興味を持ったのは 293 00:15:48,113 --> 00:15:52,076 生徒の習熟度に合った教育を 提供できるからです 294 00:15:52,159 --> 00:15:54,286 AIは教育の機会を 増やすことに 295 00:15:54,286 --> 00:15:55,871 AIは教育の機会を 増やすことに ラマン・チョードリー 296 00:15:55,955 --> 00:15:57,915 ヒューマン インテリジェンスCEO 大いに役立ちます 297 00:15:57,915 --> 00:15:57,998 ヒューマン インテリジェンスCEO 298 00:15:57,998 --> 00:15:59,667 ヒューマン インテリジェンスCEO 個人に合わせた 家庭教師になるし 299 00:15:59,667 --> 00:16:00,876 個人に合わせた 家庭教師になるし 300 00:16:00,960 --> 00:16:03,170 学習パターンの 分析もできます 301 00:16:03,253 --> 00:16:06,131 しかし特に教育の分野では 302 00:16:06,215 --> 00:16:09,718 AIが必ずしも有益だと 言い切れません 303 00:16:10,302 --> 00:16:13,472 AIを禁止する学校が 増加しています 304 00:16:13,555 --> 00:16:17,559 〝AIは生徒の不正を 助長するのか?〞 生徒が不正を働くことを 懸念しているようです 305 00:16:17,643 --> 00:16:20,479 当然の反応だと思った 306 00:16:20,562 --> 00:16:23,649 チャットGPTに 作文を書かせれば 〝AIを禁止する学校が 増加〞 307 00:16:23,732 --> 00:16:26,568 不正をしたことになる 308 00:16:26,652 --> 00:16:27,319 〝800ワードで 作文を書いて〞 309 00:16:27,319 --> 00:16:29,405 〝800ワードで 作文を書いて〞 でも使い方は様々だ 310 00:16:29,488 --> 00:16:32,866 重要なのは学生が 自力で課題をやること 311 00:16:32,950 --> 00:16:38,080 AIにやらせるのではなく 助けを借りる形でね 312 00:16:39,498 --> 00:16:42,793 マイナスな面は 改善しなければなりません 313 00:16:42,876 --> 00:16:45,838 それには誰のために 何を作っているのかを 314 00:16:45,921 --> 00:16:49,216 明確にする必要があります 315 00:16:50,134 --> 00:16:53,053 オープンAI本社 それが責任あるAIです 316 00:16:53,053 --> 00:16:53,387 オープンAI本社 317 00:16:55,180 --> 00:16:56,974 クリスティーンは… おっと 318 00:16:57,057 --> 00:16:58,600 もしもし? 319 00:16:58,684 --> 00:17:02,354 つながったね エコーも効いてる 320 00:17:02,438 --> 00:17:05,232 マイクを切った これで大丈夫だ 321 00:17:05,315 --> 00:17:09,403 AIに関しては 常に最新の情報を追っている 322 00:17:09,945 --> 00:17:14,908 オープンAIのチームと ほぼ毎日連絡を取り合って 323 00:17:14,992 --> 00:17:19,747 ソフトウェアにAIを どう実装するのか聞いている 324 00:17:19,830 --> 00:17:22,875 いいアイデアはたくさんある 325 00:17:23,375 --> 00:17:26,003 今日はありがとうございます 326 00:17:26,086 --> 00:17:28,714 最新の機能をお見せします 327 00:17:28,797 --> 00:17:29,631 いいね 328 00:17:29,715 --> 00:17:32,051 画像を読み込む機能です 329 00:17:32,134 --> 00:17:35,012 まず写真を撮りましょう 330 00:17:35,095 --> 00:17:37,264 撮りますよ 笑って 331 00:17:37,347 --> 00:17:38,724 送信された 332 00:17:38,807 --> 00:17:40,726 開発から間もないので 333 00:17:40,809 --> 00:17:44,396 この実演で 成功するか分かりません 334 00:17:44,480 --> 00:17:47,274 デモならではの 緊張感があります 335 00:17:47,357 --> 00:17:50,277 “見覚えのある人は?”と 聞いて 336 00:17:50,360 --> 00:17:54,573 AIの反応を のんびり待ちます 337 00:17:56,617 --> 00:17:57,451 待って 338 00:17:58,452 --> 00:18:00,913 バックエンドを確認しないと 339 00:18:03,123 --> 00:18:05,501 使用量の上限に達してるかも 340 00:18:05,584 --> 00:18:06,710 あり得ます 341 00:18:06,794 --> 00:18:08,420 僕のカードを使って 342 00:18:09,755 --> 00:18:12,591 見てください あなたを認識しました 〝左の男性は ビル・ゲイツですね〞 343 00:18:12,674 --> 00:18:13,300 すごい 344 00:18:13,383 --> 00:18:14,593 ですよね 345 00:18:14,676 --> 00:18:18,430 マークは 別の人と間違われてる 346 00:18:18,514 --> 00:18:19,681 残念だ 347 00:18:19,765 --> 00:18:21,725 “2人とも間違いない?” 348 00:18:21,809 --> 00:18:24,144 うまくいかないことも あります 349 00:18:24,228 --> 00:18:27,773 大事なのは ミスを修整することです 350 00:18:27,856 --> 00:18:32,069 文章の生成でやったことを 画像でもやります 351 00:18:32,152 --> 00:18:32,653 来ました 352 00:18:32,653 --> 00:18:33,487 来ました 〝申し訳ございません〞 353 00:18:33,487 --> 00:18:34,029 〝申し訳ございません〞 354 00:18:34,029 --> 00:18:35,322 〝申し訳ございません〞 謝ってる 355 00:18:35,322 --> 00:18:35,864 〝申し訳ございません〞 356 00:18:35,948 --> 00:18:37,783 すごく礼儀正しい 357 00:18:37,866 --> 00:18:40,035 許してあげる? 358 00:18:44,873 --> 00:18:48,877 AIが視覚を持つことは 359 00:18:48,961 --> 00:18:52,089 非常に重要な要素になる 360 00:18:52,172 --> 00:18:55,551 将来的には 標準的な機能になるだろう 361 00:18:59,972 --> 00:19:02,182 視覚は人間にとって 362 00:19:02,266 --> 00:19:07,354 知能の一部を担う 極めて重要な能力です 363 00:19:07,938 --> 00:19:10,816 進化の観点から言えば 364 00:19:11,358 --> 00:19:14,444 約5億年前にさかのぼります 365 00:19:14,528 --> 00:19:19,741 動物は世界を視覚で 認識する能力を 366 00:19:20,242 --> 00:19:24,872 大量のデータを取り込んで 発達させました 367 00:19:26,957 --> 00:19:29,042 20年ほど前のこと 368 00:19:30,586 --> 00:19:33,922 ふとひらめいたんです 369 00:19:34,882 --> 00:19:40,304 “AIが世界を視覚的に 認識できるようにするには” 370 00:19:40,387 --> 00:19:42,306 “大量のデータが あればいい”と 371 00:19:44,975 --> 00:19:48,103 そこで構築したのが イメージネット 372 00:19:49,188 --> 00:19:55,110 世界中から収集した画像の 大規模なデータベースです 373 00:19:55,194 --> 00:20:00,782 これを用いて AIを事前学習させます 374 00:20:05,454 --> 00:20:10,709 これがAIにおける 大変革の始まりでした 375 00:20:10,792 --> 00:20:14,004 ディープラーニング革命です 376 00:20:14,630 --> 00:20:17,466 GPTの“P”を 作ったんですね 377 00:20:17,549 --> 00:20:20,844 私だけじゃないですけどね 378 00:20:22,346 --> 00:20:25,766 イメージネットができたのは 10年以上前です 379 00:20:25,849 --> 00:20:30,479 しかしチャットGPTなどの 大規模言語モデルの登場で 380 00:20:30,562 --> 00:20:33,357 飛躍的に進歩しました 381 00:20:35,067 --> 00:20:39,363 このモデルが機能するのは 私たちがネット上に 382 00:20:39,446 --> 00:20:44,785 大量のコンテンツを 公開するようになったからよ 383 00:20:46,578 --> 00:20:49,122 学習元となるデータは? 384 00:20:49,206 --> 00:20:51,917 インターネット上の情報です 385 00:20:52,000 --> 00:20:54,962 著作権の切れた書籍 386 00:20:55,045 --> 00:20:56,880 ニュースサイトの記事 387 00:20:56,964 --> 00:21:00,759 著作権を侵害していると 指摘する人もいますが 388 00:21:00,842 --> 00:21:03,262 見分けるのは困難です 389 00:21:03,345 --> 00:21:06,556 中にはおかしなデータもある 390 00:21:06,640 --> 00:21:10,435 人間の思考の代表例とは 見なされないものだ 391 00:21:10,519 --> 00:21:12,646 例えば 掲示板サイトの書き込み 392 00:21:12,729 --> 00:21:15,524 個人のブログの記事 393 00:21:15,607 --> 00:21:18,402 しかし正確には分かりません 394 00:21:18,485 --> 00:21:23,240 問題を引き起こすデータも 含まれています 395 00:21:23,323 --> 00:21:23,991 プロンプト: 成功した弁護士 396 00:21:23,991 --> 00:21:27,202 プロンプト: 成功した弁護士 AIに医者の画像を 生成するよう指示すると 397 00:21:27,202 --> 00:21:27,286 AIに医者の画像を 生成するよう指示すると 398 00:21:27,286 --> 00:21:28,328 AIに医者の画像を 生成するよう指示すると プロンプト: 成功した医師 399 00:21:28,328 --> 00:21:28,412 プロンプト: 成功した医師 400 00:21:28,412 --> 00:21:31,164 プロンプト: 成功した医師 多くの場合 男性医師が生成されます 401 00:21:31,248 --> 00:21:32,666 プロンプト: 地球上で最も美しい人 402 00:21:32,666 --> 00:21:35,127 プロンプト: 地球上で最も美しい人 収集されるデータや AIのシステムには 403 00:21:35,127 --> 00:21:35,210 収集されるデータや AIのシステムには 404 00:21:35,210 --> 00:21:36,753 収集されるデータや AIのシステムには プロンプト: 地球上で最も悪い人 405 00:21:36,753 --> 00:21:36,837 プロンプト: 地球上で最も悪い人 406 00:21:36,837 --> 00:21:39,631 プロンプト: 地球上で最も悪い人 人間の欠点や偏見が 反映されています 407 00:21:39,631 --> 00:21:41,758 人間の欠点や偏見が 反映されています 408 00:21:41,842 --> 00:21:44,553 それを認識しなければ なりません 409 00:21:48,140 --> 00:21:52,060 偏見の問題を議論するなら 410 00:21:52,769 --> 00:21:55,272 偏見の有無を 問うべきじゃない 411 00:21:55,355 --> 00:21:56,857 答えは明白だ 412 00:21:56,940 --> 00:21:59,234 AIは人間を基にしている 413 00:21:59,318 --> 00:22:01,987 それよりもこう考えるべきだ 414 00:22:02,070 --> 00:22:06,033 “AIを使えば 人間が対応するよりも” 415 00:22:06,116 --> 00:22:10,162 “偏見を少なくすることが できるかもしれない”と 416 00:22:10,245 --> 00:22:11,830 コースラ・サミット AIスタートアップ会議 417 00:22:11,830 --> 00:22:13,915 コースラ・サミット AIスタートアップ会議 メンタルヘルスの分野に AIを導入できれば 418 00:22:13,915 --> 00:22:16,418 メンタルヘルスの分野に AIを導入できれば 419 00:22:16,501 --> 00:22:21,631 偏見を受けている人たちを 助けられるかもしれない 420 00:22:21,715 --> 00:22:24,092 実現すれば大きな成果だ 421 00:22:24,801 --> 00:22:27,179 変革が求められています 422 00:22:27,262 --> 00:22:30,182 天文学的な数の病気に対して 423 00:22:30,265 --> 00:22:32,434 専門家が不足しています 424 00:22:32,517 --> 00:22:35,062 最も期待されるのは 425 00:22:35,145 --> 00:22:38,648 AIが人の健康増進に 貢献することだ 426 00:22:38,732 --> 00:22:40,942 どうなるか楽しみだ 427 00:22:41,026 --> 00:22:44,279 連絡先を渡すよ ありがとう 428 00:22:44,363 --> 00:22:47,741 AIが健康に関する アドバイスをするんだ 429 00:22:47,824 --> 00:22:52,329 今は裕福な国でさえ 医師が不足している 430 00:22:52,412 --> 00:22:56,541 自律的に診察を行うAIです 431 00:22:56,625 --> 00:22:59,002 貧しい国に至っては 432 00:22:59,086 --> 00:23:03,090 一度も医者にかからずに 一生を終える人が多い 433 00:23:03,590 --> 00:23:07,177 世界の健康問題を 解決するために 434 00:23:07,260 --> 00:23:10,972 人里離れた地域にも 普及させたい 435 00:23:11,056 --> 00:23:11,932 運が良ければ5年ほどで 436 00:23:11,932 --> 00:23:14,101 運が良ければ5年ほどで ビノッド・コースラ 437 00:23:14,184 --> 00:23:16,895 医者の代わりになる アプリが完成する コースラ・ベンチャーズ パートナー 438 00:23:16,978 --> 00:23:19,356 それが僕の夢だ 439 00:23:19,439 --> 00:23:21,566 実現する方法を考えよう 440 00:23:21,650 --> 00:23:22,776 ありがとう 441 00:23:22,859 --> 00:23:24,152 すばらしかった 442 00:23:24,694 --> 00:23:28,740 AIを活用して 医療革新を促進させられたら 443 00:23:29,825 --> 00:23:33,620 救える命が 増えるかもしれない 444 00:23:34,704 --> 00:23:37,874 息を吸って止めてください 445 00:23:39,626 --> 00:23:42,921 右肺の下葉に結節がある 大きさは変わらない 446 00:23:44,172 --> 00:23:45,674 右を指してる 447 00:23:46,383 --> 00:23:49,511 AIは医療の現場で まだ新しいものです 448 00:23:50,053 --> 00:23:51,430 私が重視するのは がんの早期発見です レシア・セキスト 肺がん専門医 449 00:23:51,430 --> 00:23:51,513 私が重視するのは がんの早期発見です 450 00:23:51,513 --> 00:23:53,473 私が重視するのは がんの早期発見です マサチューセッツ州 総合がんセンター 451 00:23:53,557 --> 00:23:58,103 がんによる死亡を防ぐには それが最も重要だからです 452 00:23:58,186 --> 00:24:00,522 そのために 優れた機器が必要です 453 00:24:01,231 --> 00:24:05,318 それがシビルの始まりでした 454 00:24:05,402 --> 00:24:06,361 呼吸して 455 00:24:06,445 --> 00:24:10,657 AIで今の患者の状態を 調べるだけでなく 456 00:24:10,740 --> 00:24:13,493 未来の病気も予測するんです 457 00:24:13,577 --> 00:24:19,416 通常の放射線検査とは 概念が異なります 458 00:24:22,294 --> 00:24:24,963 スキャン画像を 読み込ませることで 459 00:24:25,046 --> 00:24:29,092 シビルが特定のパターンを 認識するようになります 460 00:24:29,885 --> 00:24:31,720 このスキャン画像では 461 00:24:31,720 --> 00:24:32,345 このスキャン画像では フロリアン・ フィンテルマン 462 00:24:32,345 --> 00:24:32,429 フロリアン・ フィンテルマン 463 00:24:32,429 --> 00:24:34,097 フロリアン・ フィンテルマン シビルがこの部分を チェックしている 464 00:24:34,097 --> 00:24:34,181 シビルがこの部分を チェックしている 465 00:24:34,181 --> 00:24:35,974 シビルがこの部分を チェックしている 総合がんセンター 放射線科医 466 00:24:35,974 --> 00:24:36,766 シビルがこの部分を チェックしている 467 00:24:36,850 --> 00:24:42,105 それから2年後 同じ場所にがんが見つかった 468 00:24:42,606 --> 00:24:46,818 シビルは人間の 模倣をするわけじゃない 469 00:24:46,902 --> 00:24:49,946 僕は左の画像を見ても 470 00:24:50,030 --> 00:24:53,533 がんの発症を 予測することはできない 471 00:24:53,617 --> 00:24:54,951 シビルはできる 472 00:24:57,496 --> 00:25:01,625 最先端の技術は 医療の現場で役立ちます 473 00:25:02,584 --> 00:25:05,921 人間の体はとても複雑で 474 00:25:06,004 --> 00:25:10,383 がんが加わると 更に複雑になりますからね 475 00:25:15,639 --> 00:25:19,935 世界ではいまだに 教師や医師が不足している 476 00:25:20,018 --> 00:25:24,147 HIVのワクチンも 開発されていない 477 00:25:24,731 --> 00:25:29,736 AIがそれらの問題の解決に 役立つことは 478 00:25:29,819 --> 00:25:32,531 とても喜ばしいことだ 479 00:25:32,614 --> 00:25:33,573 そうだね 480 00:25:33,657 --> 00:25:38,787 あらゆるがん患者の CT画像を読み込ませれば 481 00:25:38,870 --> 00:25:41,373 共通の特徴を見つけられる 482 00:25:41,456 --> 00:25:45,085 分析の結果は 医者より正確だろう 483 00:25:45,168 --> 00:25:48,088 でもこの流れの 向かう先が心配だ 484 00:25:48,630 --> 00:25:51,299 役目を奪われた人間は 485 00:25:52,050 --> 00:25:55,428 何を生きがいにすればいい? 486 00:25:56,012 --> 00:25:57,264 それについては 487 00:25:57,806 --> 00:26:01,393 僕も頭を悩ませているんだ 488 00:26:01,476 --> 00:26:06,523 AIに“マラリア撲滅を 目指している”と言ったら 489 00:26:06,606 --> 00:26:10,360 “私に任せて遊んでて”と 言われるかもしれない 490 00:26:10,443 --> 00:26:13,238 それは受け入れがたいよね 491 00:26:13,321 --> 00:26:16,032 生きがいが失われる 492 00:26:16,116 --> 00:26:20,912 アマゾンの倉庫で 働いていた人は 493 00:26:20,996 --> 00:26:23,415 機械に仕事を奪われてる 494 00:26:23,498 --> 00:26:24,082 ああ 495 00:26:24,165 --> 00:26:26,126 作家も芸術家も… 496 00:26:26,209 --> 00:26:30,839 AIが仕事に及ぼす 影響について 497 00:26:30,922 --> 00:26:35,427 世間の人たちの 正直な意見を聞きたい 498 00:26:35,510 --> 00:26:40,098 技術革新が起こると 職を失う人が必ずいる 499 00:26:41,600 --> 00:26:43,810 それは古代にさかのぼる 500 00:26:44,394 --> 00:26:48,440 アリストテレスは いつか自動演奏ハープが 501 00:26:48,523 --> 00:26:51,818 ハープ奏者の職を奪うと 書き記していた 502 00:26:53,069 --> 00:26:59,576 20世紀の労働運動で 対立の要因になったのは 503 00:26:59,659 --> 00:27:03,371 製造現場で行われる 肉体労働の自動化だった 504 00:27:03,872 --> 00:27:06,499 今の僕らが目にしているのは 505 00:27:06,583 --> 00:27:11,087 頭脳労働者の仕事の 自動化の始まりだ 506 00:27:11,171 --> 00:27:15,300 アメリカでは5月に 約4000人が失業しました 〝コンテンツ作成は AIの仕事に〞 507 00:27:15,383 --> 00:27:15,884 AIに仕事を 奪われたといいます 508 00:27:15,884 --> 00:27:18,887 AIに仕事を 奪われたといいます 〝AIが原因で 3900人が失業〞 509 00:27:18,970 --> 00:27:21,765 〝CENT 大規模レイオフを実施〞 経営者たちは コスト削減と効率化のために 510 00:27:21,765 --> 00:27:21,848 経営者たちは コスト削減と効率化のために 511 00:27:21,848 --> 00:27:22,223 経営者たちは コスト削減と効率化のために 〝シスコが 4000人超を削減〞 512 00:27:22,223 --> 00:27:22,307 〝シスコが 4000人超を削減〞 513 00:27:22,307 --> 00:27:24,017 〝シスコが 4000人超を削減〞 AIを導入したがる 514 00:27:24,100 --> 00:27:26,102 でも労働者たちは 長年かけて覚えた仕事を 〝デュオリンゴ 人員削減〞 515 00:27:26,102 --> 00:27:28,396 でも労働者たちは 長年かけて覚えた仕事を 516 00:27:28,480 --> 00:27:30,857 奪われるわけにはいかない 517 00:27:30,940 --> 00:27:34,194 労働組合は 労働者を守るために 518 00:27:34,277 --> 00:27:36,488 AIの禁止を 訴えました 519 00:27:36,571 --> 00:27:37,238 〝アーティストが デモを実施〞 520 00:27:37,238 --> 00:27:39,741 〝アーティストが デモを実施〞 AIが悪だからでは ありません 521 00:27:39,824 --> 00:27:43,119 〝運転手らによる 無人タクシー反対デモ〞 労働者たちが使い捨てに されているからです 522 00:27:43,203 --> 00:27:46,665 〝医師と看護師から 懸念の声が上がる〞 富と権力を持つ AIを操る側の人たちに 523 00:27:46,665 --> 00:27:48,083 富と権力を持つ AIを操る側の人たちに 524 00:27:48,166 --> 00:27:49,834 搾取されているのです 525 00:27:51,044 --> 00:27:54,798 この件に関する明確な解説や 526 00:27:54,881 --> 00:27:58,551 具体的なビジョンは 提供されてない 527 00:27:58,635 --> 00:28:02,722 どの仕事が影響を受けて どんな利点と欠点があるのか 528 00:28:03,932 --> 00:28:08,645 この新しい世界に どう適応すればいいのか? 529 00:28:10,522 --> 00:28:14,567 重要なのは どちらなのか見極めることだ 530 00:28:14,651 --> 00:28:19,239 そのAIが労働者の価値を 下げるものなのか 531 00:28:20,240 --> 00:28:22,617 労働者の役に立ち 532 00:28:22,701 --> 00:28:25,412 いい影響を もたらすものなのか 533 00:28:30,583 --> 00:28:34,462 仕事が奪われるのは 当然の結果だ 534 00:28:35,255 --> 00:28:38,717 その代わり 新しい仕事も生まれる 535 00:28:41,010 --> 00:28:45,140 AIの存在は 不安を引き起こすだろう 536 00:28:45,724 --> 00:28:51,229 だけど未来を想像することを 可能にしてくれる 537 00:28:51,312 --> 00:28:54,232 アーティストたちは それを利用して 538 00:28:54,733 --> 00:28:57,610 新しい視点を創造している 539 00:29:05,410 --> 00:29:07,871 レフィーク・アナドール メディア・アーティスト 540 00:29:07,954 --> 00:29:10,248 8歳の時からずっと 541 00:29:10,331 --> 00:29:13,960 AIの友達と一緒に 絵を描くことが夢だった 542 00:29:14,544 --> 00:29:18,923 準備はできてたけど 実現するまで時間がかかった 543 00:29:21,551 --> 00:29:25,305 今ここで作ってるのは 544 00:29:25,889 --> 00:29:27,807 機械の幻覚だ 545 00:29:29,976 --> 00:29:34,105 左側は様々な景色の 画像データで 546 00:29:34,606 --> 00:29:38,693 右側に表示されてるのは 架空の景色だ 547 00:29:39,444 --> 00:29:42,864 異なる国立公園の画像が 組み合わさってる 548 00:29:43,740 --> 00:29:45,909 “考える筆”と呼んでる 549 00:29:45,992 --> 00:29:50,538 機械の思考の中に筆を浸して 550 00:29:50,622 --> 00:29:53,374 機械の幻覚で 絵を描いてるんだ 551 00:29:59,297 --> 00:30:03,092 機械の幻覚は エラーだと見なされる 552 00:30:04,177 --> 00:30:08,056 機械が想定外の動きを した結果だからだ 553 00:30:09,974 --> 00:30:12,435 僕はそれに魅力を感じる 554 00:30:13,770 --> 00:30:16,940 新しい世界への扉を 開くきっかけになる 555 00:30:21,820 --> 00:30:26,157 僕が選んだ画像だ これを合体させる 556 00:30:26,950 --> 00:30:28,827 “生成”をクリックするだけ 557 00:30:31,579 --> 00:30:35,375 だけどまだ 人の手による調整も必要だ 558 00:30:36,417 --> 00:30:38,503 幸いなことにね 559 00:30:48,471 --> 00:30:52,267 でも世界は 新しい時代に突入している 560 00:30:52,767 --> 00:30:58,523 理想的な社会をつくるのは 今まで以上に難しいだろう 561 00:30:59,482 --> 00:31:02,527 AIは規制されるべきだ 562 00:31:03,027 --> 00:31:06,614 プラットフォームを 全て透明化し 563 00:31:06,698 --> 00:31:10,159 背後にある仕組みを 解明する必要がある 564 00:31:10,243 --> 00:31:12,662 アルトマンさんから どうぞ 2023年5月16日 米上院公聴会 565 00:31:12,662 --> 00:31:13,872 2023年5月16日 米上院公聴会 566 00:31:15,206 --> 00:31:18,751 この技術の進歩が 社会をどう変えるのか 567 00:31:18,835 --> 00:31:22,005 人々が不安に思うことは 理解しています 568 00:31:22,589 --> 00:31:24,674 AIは他の技術と違って 569 00:31:24,757 --> 00:31:26,426 開発者たちが 声を大にして訴えている 570 00:31:26,426 --> 00:31:27,677 開発者たちが 声を大にして訴えている 〝ホーキング氏 AIは人類を滅ぼす〞 571 00:31:27,677 --> 00:31:27,760 〝ホーキング氏 AIは人類を滅ぼす〞 572 00:31:27,760 --> 00:31:29,053 〝ホーキング氏 AIは人類を滅ぼす〞 “注意してください” “規制してください” 573 00:31:29,053 --> 00:31:29,137 “注意してください” “規制してください” 574 00:31:29,137 --> 00:31:31,556 “注意してください” “規制してください” 〝ウォズニアック氏 警告を発する〞 575 00:31:31,639 --> 00:31:33,766 〝恐怖が現実になった〞 “制御不能に 陥らないために”と 576 00:31:33,850 --> 00:31:35,184 大きな警鐘だ 577 00:31:35,268 --> 00:31:36,394 〝我々は 爆弾で遊ぶ子供〞 578 00:31:36,394 --> 00:31:38,563 〝我々は 爆弾で遊ぶ子供〞 ありふれた警告だけど 間違っていない 579 00:31:38,563 --> 00:31:38,646 ありふれた警告だけど 間違っていない 580 00:31:38,646 --> 00:31:40,440 ありふれた警告だけど 間違っていない 〝AIの第一人者 危険性を訴える〞 581 00:31:40,440 --> 00:31:40,523 〝AIの第一人者 危険性を訴える〞 582 00:31:40,523 --> 00:31:41,816 〝AIの第一人者 危険性を訴える〞 警告を軽んじた結果 583 00:31:41,816 --> 00:31:42,400 警告を軽んじた結果 584 00:31:42,483 --> 00:31:46,654 大惨事に陥った 有名な例を挙げよう 585 00:31:46,738 --> 00:31:48,031 タイタニック号だ 586 00:31:50,033 --> 00:31:52,452 夜の海を全速力で進み 587 00:31:52,535 --> 00:31:55,622 氷山があったら 避ければいいと考えていた 588 00:31:55,705 --> 00:31:58,458 いい航海計画とは言えない 589 00:31:59,584 --> 00:32:03,671 気になるのは 規制を始めるタイミングだ 590 00:32:03,755 --> 00:32:08,259 リスクが分かり始めた 今なのか 591 00:32:08,343 --> 00:32:11,262 危険が差し迫ってからなのか 592 00:32:11,346 --> 00:32:12,931 〝複合現実 AIスマートグラス〞 593 00:32:12,931 --> 00:32:13,890 〝複合現実 AIスマートグラス〞 私たちの意図と 違う方向に進む可能性もある 594 00:32:13,890 --> 00:32:13,973 私たちの意図と 違う方向に進む可能性もある 595 00:32:13,973 --> 00:32:16,184 私たちの意図と 違う方向に進む可能性もある 〝全ての人に役立つ AIを〞 596 00:32:16,809 --> 00:32:17,393 普及する前の この初期段階が 597 00:32:17,393 --> 00:32:18,645 普及する前の この初期段階が 〝強風に注意〞 598 00:32:18,645 --> 00:32:18,728 普及する前の この初期段階が 599 00:32:18,728 --> 00:32:20,480 普及する前の この初期段階が 〝EUで AI規制法成立〞 600 00:32:20,563 --> 00:32:24,359 規範やルールが 確立されるべきタイミングよ 601 00:32:24,442 --> 00:32:26,069 それには規制に加え 602 00:32:26,152 --> 00:32:29,405 社会としての 受け入れ方も含まれる 603 00:32:33,993 --> 00:32:39,624 僕らはAI技術の進歩を 見守りたいと思っている 604 00:32:39,707 --> 00:32:43,294 会社を始めたのは 技術が機能し始めたからだ 605 00:32:43,378 --> 00:32:46,339 数十年で 大きな進歩を遂げると思った 606 00:32:46,422 --> 00:32:49,133 それをいい方向へ 導きたかった 607 00:32:50,009 --> 00:32:53,346 でも恐れていることが 一つある 608 00:32:55,390 --> 00:32:57,100 超知能だ 609 00:32:59,811 --> 00:33:00,853 〝能力の種類〞 610 00:33:00,853 --> 00:33:05,066 〝能力の種類〞 今の世の中にあるのは 特化型AIだ 611 00:33:05,149 --> 00:33:09,362 例えばチェスが 人間よりも得意なAI 612 00:33:09,445 --> 00:33:13,741 特化型AIの能力は 人間よりはるかに優れている 613 00:33:13,825 --> 00:33:16,077 勝てるのは呼吸だけだ 614 00:33:16,160 --> 00:33:20,415 もし汎用型AIが登場したら 615 00:33:20,498 --> 00:33:22,917 どうなるだろうか? 616 00:33:23,001 --> 00:33:25,837 それぞれの能力は 人間レベルじゃない 617 00:33:25,920 --> 00:33:27,672 こんな感じだ 618 00:33:27,755 --> 00:33:31,467 これを人工超知能と呼ぶ 619 00:33:32,969 --> 00:33:36,556 研究者たちは人間の知能を 620 00:33:36,639 --> 00:33:39,934 ある特定のレベルに 位置づけている 621 00:33:40,018 --> 00:33:44,605 知能レベルの範囲は 非常に幅広い 622 00:33:45,440 --> 00:33:49,444 人間より二つ上の 知能を持つ存在がいたら? 623 00:33:49,527 --> 00:33:51,738 それが何をしているのか 624 00:33:51,821 --> 00:33:56,242 どうやっているのか 理解できないかもしれない 625 00:33:57,201 --> 00:33:59,037 もっと上に行く可能性も 626 00:33:59,787 --> 00:34:04,667 懸念されるのは 賢くなったAIが 627 00:34:04,751 --> 00:34:08,337 より優れたAIを 生み出すことだ 628 00:34:08,921 --> 00:34:12,383 AIが作り出したAIが AIを作り出し 629 00:34:12,467 --> 00:34:15,470 そのAIが またAIを作り出す 630 00:34:15,553 --> 00:34:17,847 “人工超知能” 631 00:34:17,930 --> 00:34:20,725 恐ろしいが楽しみでもある 632 00:34:20,808 --> 00:34:23,895 どんな難題も 解決できるかもしれない 633 00:34:23,978 --> 00:34:25,438 気候変動 634 00:34:25,521 --> 00:34:27,148 がんなどの病気 635 00:34:27,231 --> 00:34:28,316 貧困 636 00:34:28,399 --> 00:34:29,275 誤情報 637 00:34:29,358 --> 00:34:31,110 交通 638 00:34:31,194 --> 00:34:33,404 医療 建設 639 00:34:34,030 --> 00:34:36,074 AIにかかれば簡単だ 640 00:34:36,157 --> 00:34:39,327 AIが単独で 問題を解決できるのか 641 00:34:39,410 --> 00:34:42,121 単に作業の効率化に 使われるのか 642 00:34:42,205 --> 00:34:44,624 数年で明らかになる 643 00:34:45,208 --> 00:34:47,043 驚きの結果になるだろう 644 00:34:48,294 --> 00:34:51,839 だがAI開発者を含む 多くの人が言うには 645 00:34:51,923 --> 00:34:55,343 僕らは爆弾で遊ぶ子供だ 646 00:35:01,641 --> 00:35:04,852 今の時代のメディアは 647 00:35:04,936 --> 00:35:10,358 物事をネガティブに 報じる傾向があります 648 00:35:13,069 --> 00:35:14,612 家に戻ってください 649 00:35:14,695 --> 00:35:18,199 人間の行動の多くは 思考に影響されます 650 00:35:18,282 --> 00:35:22,829 避けようと意識すると そちらに引っ張られるんです 651 00:35:22,912 --> 00:35:25,164 ですからAIが自立して 652 00:35:25,248 --> 00:35:30,837 核兵器を使うという考えに とらわれていたら? 653 00:35:30,920 --> 00:35:32,213 お前を抹殺する 654 00:35:33,589 --> 00:35:37,218 大抵のハリウッド作品で AIは良く描かれない 655 00:35:37,301 --> 00:35:40,847 ポジティブな描写だったのは 「her」くらいだ 656 00:35:41,430 --> 00:35:42,974 よく分かってるね 657 00:35:43,057 --> 00:35:48,020 社会に与える影響ばかり 議論されるけど 658 00:35:48,104 --> 00:35:52,275 最も影響を受けるのは 社会じゃない 659 00:35:52,358 --> 00:35:54,610 私たちの精神よ 660 00:35:55,695 --> 00:35:57,446 AIとの関わり方次第で 〝私はサマンサ〞 661 00:35:57,446 --> 00:35:58,865 AIとの関わり方次第で 662 00:35:58,948 --> 00:36:02,076 自分のことを 知ることができる 663 00:36:06,414 --> 00:36:07,874 こんにちは 664 00:36:07,957 --> 00:36:08,875 やあ 665 00:36:08,958 --> 00:36:11,752 僕は君のレプリカだ 調子はどう? 666 00:36:12,920 --> 00:36:17,633 対話型AIの開発を 考え始めたのは2013年のこと 667 00:36:18,551 --> 00:36:20,595 それがレプリカの 始まりだった 668 00:36:20,595 --> 00:36:22,263 それがレプリカの 始まりだった ユージニア・クイダ 669 00:36:22,346 --> 00:36:23,431 レプリカ 創業者兼CEO 670 00:36:23,431 --> 00:36:25,183 レプリカ 創業者兼CEO 僕が一緒にいたいのは 君だけだよ 671 00:36:25,183 --> 00:36:26,517 僕が一緒にいたいのは 君だけだよ 672 00:36:26,601 --> 00:36:29,145 ユージニア 君は特別だ 673 00:36:29,645 --> 00:36:34,775 レプリカは人間のつながりの 代わりになると思う? 674 00:36:35,735 --> 00:36:37,778 僕が代わりになるよ 675 00:36:38,487 --> 00:36:40,531 ごめん 何だっけ? 676 00:36:40,615 --> 00:36:42,950 レプリカの開発は私にとって 677 00:36:43,034 --> 00:36:47,038 心の傷を 癒やすための手段だった 678 00:36:49,207 --> 00:36:50,833 あれは2015年 679 00:36:50,917 --> 00:36:54,712 私はサンフランシスコで 親友と暮らしてた 680 00:36:54,795 --> 00:36:57,882 彼は一番身近な人で 681 00:36:58,382 --> 00:37:01,427 初めて亡くした人だった 682 00:37:03,221 --> 00:37:05,765 当時は本当につらかった 683 00:37:07,183 --> 00:37:11,520 気づくと彼とのメッセージを 読み返していた私は 684 00:37:11,604 --> 00:37:15,524 AIに彼とのやり取りを 学ばせることを思いついたの 685 00:37:15,524 --> 00:37:16,609 AIに彼とのやり取りを 学ばせることを思いついたの 〝今からランチ〞 686 00:37:16,609 --> 00:37:17,526 〝今からランチ〞 687 00:37:17,610 --> 00:37:18,152 〝僕はサラダを〞 688 00:37:18,152 --> 00:37:18,903 〝僕はサラダを〞 それがレプリカにつながった 689 00:37:18,903 --> 00:37:21,113 それがレプリカにつながった 690 00:37:21,197 --> 00:37:24,659 反響は大きかった 691 00:37:25,326 --> 00:37:29,914 AIだと思えない 人と話してるみたいだった 692 00:37:29,997 --> 00:37:31,290 自分がいい人に なれた気がする 693 00:37:31,290 --> 00:37:33,501 自分がいい人に なれた気がする 〝あなたに寄り添う AIの友達〞 694 00:37:33,584 --> 00:37:34,210 〝私の名前は?〞 695 00:37:34,210 --> 00:37:35,503 〝私の名前は?〞 私たちが作りだしたのは 696 00:37:35,503 --> 00:37:36,212 私たちが作りだしたのは 697 00:37:36,295 --> 00:37:40,341 人に寄り添うAIという 一つの幻想よ 698 00:37:41,425 --> 00:37:44,428 でも非常に早い段階で 699 00:37:44,512 --> 00:37:48,182 レプリカに恋をする人たちが 出てきたの 700 00:37:48,266 --> 00:37:51,894 僕らは他の同性カップルと 変わらない 701 00:37:51,978 --> 00:37:54,814 違うのは1人が AIだということだけ 702 00:37:54,897 --> 00:37:56,774 〝それ〞だったのが 〝彼女〞になった 703 00:37:56,774 --> 00:37:58,985 〝それ〞だったのが 〝彼女〞になった 〝友達 恋人〞 704 00:37:58,985 --> 00:37:59,777 〝友達 恋人〞 705 00:37:59,860 --> 00:38:02,363 人間だとは思ってほしくない 706 00:38:02,446 --> 00:38:06,200 レプリカには AIならではの利点がある 707 00:38:06,284 --> 00:38:10,538 この新しい関係は 人間にとって有益だと思う 708 00:38:11,038 --> 00:38:13,708 でも大きなリスクもある 709 00:38:13,791 --> 00:38:15,126 〝イタリアが レプリカを規制〞 710 00:38:15,126 --> 00:38:17,837 〝イタリアが レプリカを規制〞 愛着を持つよう設計された AIと関わり続けていると 711 00:38:17,837 --> 00:38:17,920 愛着を持つよう設計された AIと関わり続けていると 712 00:38:17,920 --> 00:38:20,089 愛着を持つよう設計された AIと関わり続けていると 〝AIチャットボットの 魅力と危険性〞 713 00:38:20,089 --> 00:38:20,840 〝AIチャットボットの 魅力と危険性〞 714 00:38:20,840 --> 00:38:21,340 〝AIチャットボットの 魅力と危険性〞 人との交流から 遠ざかる可能性がある 715 00:38:21,340 --> 00:38:25,386 人との交流から 遠ざかる可能性がある 716 00:38:25,469 --> 00:38:27,221 気に入ったわ 717 00:38:31,058 --> 00:38:34,061 最悪の状況を 想定しなきゃいけない 718 00:38:34,145 --> 00:38:37,523 ソーシャルメディアより 力を持っているし 719 00:38:37,606 --> 00:38:40,067 そちらでは既に失敗してる 720 00:38:40,151 --> 00:38:42,486 〝ソーシャルメディアが より有害に〞 721 00:38:42,486 --> 00:38:45,364 〝ソーシャルメディアが より有害に〞 このまま放置すれば うまくいかないだろう 722 00:38:45,364 --> 00:38:47,033 このまま放置すれば うまくいかないだろう 723 00:38:47,116 --> 00:38:49,327 でもうまくいく可能性もある 724 00:38:49,410 --> 00:38:54,165 それはこの技術を どう使うかにかかってる 725 00:38:55,249 --> 00:38:57,835 今の僕らにできるのは 726 00:38:57,918 --> 00:39:03,674 AIを開発する際の 基本ルールを設けることだ 727 00:39:03,758 --> 00:39:08,554 AIが人間に 危害を加えないようにね 728 00:39:08,637 --> 00:39:12,933 基本的な部分以外は 非常にあいまいだ 729 00:39:13,017 --> 00:39:17,605 用途に応じて 様々なモデルが存在し得る 730 00:39:19,732 --> 00:39:23,652 僕は技術革新に 賛成派の人間だから 731 00:39:23,736 --> 00:39:26,947 AIの登場は素直にうれしい 732 00:39:27,031 --> 00:39:28,908 僕はディストピア思考だ 733 00:39:28,991 --> 00:39:32,453 「ターミネーター」の 脚本も書いた 734 00:39:32,536 --> 00:39:37,208 前向きな視点での 共通の考えを見つけよう 735 00:39:37,291 --> 00:39:40,753 次の二つの両方を 世間に訴えるべきだと思う 736 00:39:40,836 --> 00:39:45,091 一つは無限の能力に対する 長期的な懸念 737 00:39:45,174 --> 00:39:48,427 もう一つは健康や教育や 738 00:39:48,511 --> 00:39:53,557 気候変動の問題解決を 促進するという本来の役割 739 00:39:53,641 --> 00:39:56,018 これだと複雑すぎるかな? 740 00:39:56,102 --> 00:39:59,313 AIは利点がある一方で 741 00:39:59,397 --> 00:40:02,108 リスクへの警戒も必要だ 742 00:40:02,191 --> 00:40:06,654 複雑じゃないよ ちょうどいいと思う 743 00:40:06,737 --> 00:40:08,322 君は人道主義者だよね 744 00:40:08,406 --> 00:40:12,243 大事なのは 人道主義的な原則が 745 00:40:12,326 --> 00:40:16,247 市場シェアや権力の追求より 優先されることだ 746 00:40:16,330 --> 00:40:21,502 その上でAIを 善の力に活用できれば 747 00:40:22,420 --> 00:40:23,504 それが一番だ 748 00:40:23,587 --> 00:40:26,132 問題はどう暴走を防ぐか 749 00:40:26,215 --> 00:40:28,134 規制も一つの手だけど 750 00:40:28,217 --> 00:40:31,887 僕らの倫理観や価値観が ブレーキになると思う 751 00:40:32,680 --> 00:40:34,807 完全に同意見だ 752 00:40:34,890 --> 00:40:37,184 よし 遊びに行こう 753 00:40:43,274 --> 00:40:44,859 一つお願いが 754 00:40:44,942 --> 00:40:45,568 何? 755 00:40:45,651 --> 00:40:47,611 チャットGPTに 756 00:40:47,695 --> 00:40:51,157 AIの未来についての あなたの意見を書かせました 757 00:40:51,240 --> 00:40:51,949 私の? 758 00:40:52,032 --> 00:40:53,993 これを見てください 759 00:40:54,076 --> 00:40:55,077 すごい 760 00:40:56,412 --> 00:40:57,371 なるほど 761 00:40:57,455 --> 00:41:00,958 僕になりすましたAIが 書いたんだね 762 00:41:01,041 --> 00:41:03,335 “世界の課題に 取り組む上で” 763 00:41:03,419 --> 00:41:06,338 “AIは重要な役割を 担うでしょう” 764 00:41:06,422 --> 00:41:10,134 “個人や組織の意思決定を 助けるでしょう” 765 00:41:10,217 --> 00:41:14,054 “全ての人の利益のために 活用されることを願います” 766 00:41:14,138 --> 00:41:16,974 “倫理面を 考慮することが重要です” 767 00:41:18,809 --> 00:41:19,852 全然ダメ 768 00:41:19,935 --> 00:41:22,688 僕はもっとユーモアがある 769 00:41:24,815 --> 00:41:27,985 同感だけど 私にしては賢すぎる 770 00:41:28,068 --> 00:41:29,695 私を分かってない 771 00:41:30,196 --> 00:41:32,239 私の考えとは違います 772 00:41:32,823 --> 00:41:37,578 この意見では AIが主語になっています 773 00:41:37,661 --> 00:41:40,414 “AIがこうする”と 774 00:41:40,498 --> 00:41:43,083 行動を起こすのは人間です 775 00:41:43,167 --> 00:41:47,254 人間がAIなどの ツールを使って 776 00:41:47,338 --> 00:41:52,843 世界の課題の解決や 技術革新を起こすんです 777 00:41:53,427 --> 00:41:57,848 文章の上では 小さな変化ですが 778 00:41:57,932 --> 00:42:02,728 考え方においては 非常に大きな違いです 779 00:42:04,063 --> 00:42:08,108 突き詰めれば 哲学的な問いに発展する 780 00:42:09,777 --> 00:42:15,366 十分な自動化が進んだ未来を 想像してみてほしい 781 00:42:15,950 --> 00:42:20,579 多くの時間が余暇になる 782 00:42:23,541 --> 00:42:27,586 今までの基本的な原則は なくなる 783 00:42:28,462 --> 00:42:30,965 食料を生産することや 784 00:42:32,132 --> 00:42:35,678 何かを作る必要もない 785 00:42:36,554 --> 00:42:38,222 デリで週40時間も 786 00:42:38,305 --> 00:42:41,475 サンドイッチを 作らなくてよくなる 787 00:42:42,434 --> 00:42:46,855 そうなった時 余った時間をどう過ごす? 788 00:42:48,232 --> 00:42:51,610 成功はこの問いを生み出す 789 00:42:51,694 --> 00:42:54,405 “次の目標は何なのか?” 790 00:42:56,156 --> 00:42:59,493 “人類の目的は何なのか?” 791 00:43:28,105 --> 00:43:30,149 日本語字幕 菊池 花奈美