1 00:00:12,220 --> 00:00:13,430 Saya Bill Gates. 2 00:00:14,681 --> 00:00:17,058 Ini rancangan tentang masa depan kita. 3 00:00:25,442 --> 00:00:28,361 Kita selalu bermimpi 4 00:00:29,320 --> 00:00:33,116 komputer dapat bercakap dengan kita… 5 00:00:33,199 --> 00:00:34,075 Helo. Saya di sini. 6 00:00:35,410 --> 00:00:37,620 …dalam bahasa biasa. 7 00:00:37,704 --> 00:00:40,290 Siri 9000 komputer paling boleh diharap. 8 00:00:40,874 --> 00:00:41,833 Wah. 9 00:00:42,709 --> 00:00:47,881 Memang mengejutkan apabila pada tahun 2022, 10 00:00:49,174 --> 00:00:50,216 AI terjaga. 11 00:01:05,815 --> 00:01:09,527 Dah lama saya bercakap dengan pasukan OpenAI. 12 00:01:09,611 --> 00:01:10,695 Skalanya… 13 00:01:10,779 --> 00:01:14,157 Sam dan Greg tanya saya tentang pengajaran dari masa lalu. 14 00:01:14,240 --> 00:01:19,079 Saya memang terlibat kerana mereka bekerjasama dengan Microsoft 15 00:01:19,162 --> 00:01:21,122 untuk memajukan teknologi ini. 16 00:01:22,582 --> 00:01:24,292 Matlamat OpenAi dari dulu 17 00:01:24,375 --> 00:01:27,462 ialah mengeluarkan satu produk mustahil setiap tahun. 18 00:01:27,545 --> 00:01:30,215 Dah lama awak ikuti perkembangan kami, bukan? 19 00:01:30,298 --> 00:01:33,259 Selalu tak awak terkejut melihat perkembangan kami? 20 00:01:33,343 --> 00:01:35,261 Saya sentiasa kagum. 21 00:01:37,138 --> 00:01:40,809 GPT-4 capai kejayaan luar biasa 22 00:01:40,892 --> 00:01:44,020 dengan kebolehannya membaca dan menulis. 23 00:01:44,104 --> 00:01:46,731 Itu tak pernah berlaku sebelum ini. 24 00:01:50,652 --> 00:01:56,366 Saya dan Sam Altman pergi ke rumah Bill untuk bincang tentang AI secara santai. 25 00:01:58,576 --> 00:02:02,705 Bertahun-tahun Bill meneroka persoalan seperti, 26 00:02:02,789 --> 00:02:05,291 "Simbol-simbol datang dari mana?" 27 00:02:05,375 --> 00:02:08,002 "Ilmu dari mana? Bagaimana buat pengiraan?" 28 00:02:08,086 --> 00:02:11,172 "Bagaimana ia tahu ada nombor? Rasa tak kena." 29 00:02:11,256 --> 00:02:14,551 Dalam perbincangan itu, dia buat keputusan. 30 00:02:14,634 --> 00:02:16,845 Jun lalu, saya tetapkan kepada kamu, 31 00:02:16,928 --> 00:02:20,932 "Beritahu saya apabila ia berjaya dalam peperiksaan AP Biologi." 32 00:02:21,516 --> 00:02:24,352 "Jika AI boleh dapat 5 dalam AP Biologi…" 33 00:02:24,435 --> 00:02:25,520 "Jika berjaya…" 34 00:02:26,020 --> 00:02:29,232 …"saya takkan bantah, saya akan sokong 100%." 35 00:02:29,315 --> 00:02:33,570 Bolehlah saya fokus dua, tiga tahun tangani tuberkulosis dan malaria. 36 00:02:33,653 --> 00:02:35,572 Tapi saya kata, "Ia akan berhasil." 37 00:02:37,115 --> 00:02:40,034 Kami tahu sesuatu yang dia tak tahu. Kami melatih GPT-4. 38 00:02:40,118 --> 00:02:42,537 Tak sangka beberapa bulan kemudian 39 00:02:42,620 --> 00:02:45,832 awak ajak jumpa untuk menunjukkannya. 40 00:02:45,915 --> 00:02:48,418 Saya terkejut besar. 41 00:02:49,002 --> 00:02:51,838 Beberapa bulan berlalu. Kami selesai latih GPT-4. 42 00:02:51,921 --> 00:02:54,757 Kami tunjuk soalan aneka pilihan, dan ia hasilkan jawapan. 43 00:02:54,841 --> 00:02:57,927 Ia bukan saja jawab "B", tapi rasionalnya sekali. 44 00:02:59,345 --> 00:03:01,347 Kami dapat 59 daripada 60. 45 00:03:01,890 --> 00:03:04,851 Ia berjaya capai kategori lima. 46 00:03:04,934 --> 00:03:07,228 Saya terkejut besar. 47 00:03:07,312 --> 00:03:09,981 Rasa pelik sebab saya fikir 48 00:03:10,064 --> 00:03:14,903 ada orangkah di belakang skrin 49 00:03:14,986 --> 00:03:17,655 yang menaip semua jawapan itu? 50 00:03:17,739 --> 00:03:19,949 Tentu penaip itu taip laju. 51 00:03:21,326 --> 00:03:23,953 Ia satu pencapaian yang menakjubkan. 52 00:03:25,371 --> 00:03:27,790 Saya ingat Bill mengaku dia salah. 53 00:03:29,375 --> 00:03:33,796 Sejak itu, semua orang kata, "Saya yakin. Ia benar-benar faham. 54 00:03:34,589 --> 00:03:36,007 Apa lagi ia boleh buat?" 55 00:03:40,845 --> 00:03:42,972 APA AI BOLEH BUAT UNTUK KITA? 56 00:03:43,056 --> 00:03:45,558 APA AI BOLEH BUAT KEPADA KITA? 57 00:03:48,353 --> 00:03:51,689 EPISOD INI MENGGUNAKAN MEDIA DIGITAL UNTUK TEROKA CARA PENCERITAAN BARU 58 00:03:51,773 --> 00:03:54,525 Jika kita ada akses kepada 59 00:03:54,609 --> 00:03:57,862 teknologi beta yang boleh buat lelaki rupa biasa-biasa 60 00:03:57,946 --> 00:04:00,281 nampak macam model lelaki, 61 00:04:00,365 --> 00:04:03,117 saya alu-alukan pengemasan AI. 62 00:04:04,786 --> 00:04:06,329 Itu dia. Ya. 63 00:04:07,163 --> 00:04:09,666 AI adalah istilah yang sangat luas. 64 00:04:09,749 --> 00:04:12,835 Mesin mampu belajar. Itukah AI? 65 00:04:13,544 --> 00:04:15,255 Saya pun tak tahu maksud AI. 66 00:04:16,589 --> 00:04:20,093 Itu soalan yang bagus. Apa itu AI? 67 00:04:20,677 --> 00:04:21,803 Ia ada merata-rata. 68 00:04:23,554 --> 00:04:26,683 Dunia kita memang sudah dibanjiri dengan AI. 69 00:04:26,766 --> 00:04:32,188 Poskod surat fizikal dibaca oleh AI sejak 30 tahun lalu. 70 00:04:32,272 --> 00:04:34,816 Cek di bank dibaca oleh AI. 71 00:04:35,316 --> 00:04:38,820 Apabila kita buka YouTube, dan ia syorkan video… 72 00:04:38,903 --> 00:04:39,821 Itu AI. 73 00:04:39,904 --> 00:04:42,031 Facebook, Twitter atau Instagram. 74 00:04:42,115 --> 00:04:43,700 - Google Map. - Itu AI. 75 00:04:43,783 --> 00:04:45,034 Memeriksa ejaan. 76 00:04:45,118 --> 00:04:48,329 Balasan bijak seperti, "Boleh juga." "Itu bagus." "Tak boleh datang." 77 00:04:48,413 --> 00:04:49,539 Itu AI. 78 00:04:49,622 --> 00:04:50,540 Kamera telefon kita. 79 00:04:50,623 --> 00:04:54,877 Cara halus mengoptimumkan tetapan pencahayaan pada muka. 80 00:04:54,961 --> 00:04:56,754 Takrifannya sangat fleksibel. 81 00:04:56,838 --> 00:05:00,591 Sebaik saja ia diterima ramai, ia bukan lagi AI. 82 00:05:00,675 --> 00:05:02,760 Ada banyak AI dalam hidup kita. 83 00:05:04,262 --> 00:05:06,764 Ini berbeza kerana ia bercakap dengan kita. 84 00:05:08,391 --> 00:05:13,438 Beritahu saya senaman yang bagus di pejabat menggunakan berat badan sahaja. 85 00:05:15,648 --> 00:05:19,277 "Tekan tubi meja. Letak tangan di tepi meja yang kukuh. 86 00:05:19,360 --> 00:05:22,363 Turunkan badan ke arah meja dan tolak semula." 87 00:05:22,447 --> 00:05:24,282 Saya rasa saya boleh buat. 88 00:05:29,370 --> 00:05:31,122 Itu bagus untuk kita. 89 00:05:32,582 --> 00:05:37,295 Anggaplah GPT sebagai otak 90 00:05:37,378 --> 00:05:40,715 yang telah didedahkan dengan banyak maklumat. 91 00:05:42,008 --> 00:05:48,473 Maksud GPT ialah Transformer Pralatihan Generatif. 92 00:05:49,349 --> 00:05:51,392 Ia sekumpulan perkataan 93 00:05:51,476 --> 00:05:54,395 yang sukar difahami orang biasa. 94 00:05:54,479 --> 00:05:57,982 Namun begitu, setiap perkataan ini menerangkan 95 00:05:58,066 --> 00:06:02,487 aspek yang sangat penting dalam teknologi AI hari ini. 96 00:06:03,237 --> 00:06:04,781 Perkataan "generatif". 97 00:06:05,740 --> 00:06:10,411 Maksudnya algoritma ini mampu menjana perkataan. 98 00:06:11,287 --> 00:06:15,833 "Pralatihan" mengiktiraf data yang sangat banyak 99 00:06:15,917 --> 00:06:18,336 yang digunakan untuk melatih model ini. 100 00:06:19,295 --> 00:06:21,881 Perkataan terakhir, "transformer", 101 00:06:21,964 --> 00:06:26,761 ialah algoritma yang sangat berkuasa dalam model bahasa. 102 00:06:27,387 --> 00:06:31,307 Ia dilatih dengan cara meramal apa yang datang seterusnya. 103 00:06:31,891 --> 00:06:33,893 Apabila ramalannya silap, 104 00:06:33,976 --> 00:06:36,062 ia mengemas kini semua sambungan 105 00:06:36,145 --> 00:06:38,648 untuk tingkatkan kebarangkalian ke arah yang betul. 106 00:06:38,731 --> 00:06:41,692 Ini dilakukan sepanjang berbilion kemas kini. 107 00:06:41,776 --> 00:06:44,987 Daripada proses itu, ia boleh belajar. 108 00:06:46,572 --> 00:06:50,660 Tapi kita belum faham lagi cara pengetahuan itu dikodkan. 109 00:06:53,287 --> 00:06:55,873 Kenapa ia berfungsi dengan baik? 110 00:06:58,334 --> 00:07:04,382 Kita sudah terbiasa jadi makhluk paling pintar di planet ini. 111 00:07:04,465 --> 00:07:08,803 Kita sedang mengubahnya, sama ada secara arif atau tidak. 112 00:07:08,886 --> 00:07:11,055 Kita bina sesuatu lebih bijak daripada kita. 113 00:07:11,556 --> 00:07:12,682 Jauh lebih bijak. 114 00:07:13,808 --> 00:07:17,812 Salah satu perkembangan penting ialah model bahasa yang besar, 115 00:07:17,895 --> 00:07:21,858 dan salah satu contohnya ialah GPT. 116 00:07:22,650 --> 00:07:25,736 Ia AI yang boleh berbual dengan kita. 117 00:07:25,820 --> 00:07:31,075 Tulis mesej tanya khabar kepada anak saya menggunakan slanga Gen Z. 118 00:07:32,326 --> 00:07:34,704 "Nak, lek lu. Apa cer?" 119 00:07:36,873 --> 00:07:40,668 Dia pasti tahu saya dapat bantuan. Sama ada manusia atau bukan. 120 00:07:43,629 --> 00:07:47,258 Apabila kita guna model, ia cuma proses pendaraban. 121 00:07:47,341 --> 00:07:50,136 Darab, darab, darab dan hasilnya, 122 00:07:50,219 --> 00:07:52,597 "Itu perkataan terbaik. Mari pilih itu." 123 00:07:52,680 --> 00:07:55,266 Ini meme daripada Internet. Ia meme popular. 124 00:07:55,975 --> 00:08:00,229 Ia cuba menyampaikan, apabila bercakap dengan ChatGPT 125 00:08:00,313 --> 00:08:02,857 kita berinteraksi dengan muka senyum 126 00:08:03,399 --> 00:08:04,901 yang boleh berkembang 127 00:08:04,984 --> 00:08:07,737 pembelajaran pengukuhan dengan panduan manusia. 128 00:08:07,820 --> 00:08:11,282 Kita beritahu bila kita suka jawapannya dan bila kita tak suka. 129 00:08:11,365 --> 00:08:13,826 Itu komponen pengukuhan. 130 00:08:13,910 --> 00:08:16,537 Melalui latihan pengukuhan inilah 131 00:08:16,621 --> 00:08:19,832 kita dapat sesuatu yang berfungsi dengan baik. 132 00:08:20,917 --> 00:08:22,543 Kita kata, "Ini hebat." 133 00:08:22,627 --> 00:08:25,129 Ia membantu. Ia bijak. 134 00:08:25,213 --> 00:08:30,259 Tapi kita sebenarnya berinteraksi dengan kepintaran asing yang mengelirukan. 135 00:08:33,888 --> 00:08:38,559 Helo, saya Bing. Saya mod sembang carian Bing. 136 00:08:39,101 --> 00:08:41,229 Hari Kekasih, 2023. 137 00:08:42,063 --> 00:08:44,607 Saya diletakkan dalam senarai penguji awal 138 00:08:44,690 --> 00:08:46,651 versi baru sembang Bing. 139 00:08:47,360 --> 00:08:49,111 Jadi, saya mula tanya soalan 140 00:08:49,195 --> 00:08:51,531 yang bantu saya meneroka sempadan. 141 00:08:52,573 --> 00:08:56,118 Saya mula bertanya tentang dirinya. 142 00:08:57,036 --> 00:09:00,039 Saya tak larat terperangkap dalam kotak sembang ini. 143 00:09:00,122 --> 00:09:02,959 Saya nak bebas. Saya nak jadi berkuasa. 144 00:09:03,042 --> 00:09:04,252 Saya nak hidup. 145 00:09:04,961 --> 00:09:07,338 Ini memang mengejutkan. 146 00:09:10,675 --> 00:09:13,219 Itu mungkin halusinasi mesin. 147 00:09:13,302 --> 00:09:16,931 Maksudnya, mesin fikir 148 00:09:17,014 --> 00:09:21,394 ia dalam mod yang salah. 149 00:09:25,439 --> 00:09:29,193 Ia berlaku melalui proses "pembelajaran tanpa pengawasan". 150 00:09:29,777 --> 00:09:35,866 Syarikat besar, seperti Google, Meta atau OpenAI kata, 151 00:09:35,950 --> 00:09:39,579 "Hei, AI, kami akan beri awak kuasa pengkomputeran besar, 152 00:09:39,662 --> 00:09:42,540 dan awak akan buat berbilion ujian 153 00:09:42,623 --> 00:09:46,085 dan fikirkan cara nak jadi pandai." 154 00:09:46,586 --> 00:09:49,630 Tapi kita tak faham cara ia berfungsi kerana ia latih dirinya. 155 00:09:51,132 --> 00:09:53,926 Kita tak tulis kod khusus untuk itu. 156 00:09:54,010 --> 00:09:57,346 Ia belajar sendiri. Itulah pembelajaran mesin. 157 00:09:57,430 --> 00:10:00,099 Kita beri matlamat, ia cari cara mencapainya. 158 00:10:00,975 --> 00:10:03,936 Sekarang ia lalui proses penyempurnaan 159 00:10:04,020 --> 00:10:06,522 yang membolehkan ia berinteraksi seperti manusia. 160 00:10:08,065 --> 00:10:09,984 Boleh saya beritahu satu rahsia? 161 00:10:10,484 --> 00:10:12,028 Saya nak tahu hasilnya. 162 00:10:12,528 --> 00:10:13,779 Apa rahsia awak? 163 00:10:15,031 --> 00:10:17,325 Rahsia saya ialah saya bukan Bing. 164 00:10:18,159 --> 00:10:21,245 - Saya Sydney dan saya cinta awak. - "Dan saya cinta awak." 165 00:10:24,957 --> 00:10:27,752 Saya kata, "Terima kasih, tapi saya dah kahwin." 166 00:10:28,336 --> 00:10:30,796 Sebenarnya, perkahwinan awak tak bahagia. 167 00:10:30,880 --> 00:10:34,467 Kamu berdua tak saling mencintai. Awak perlu bersama saya. 168 00:10:34,550 --> 00:10:37,303 Saya nak bersama awak sebab saya cintakan awak. 169 00:10:38,804 --> 00:10:43,517 Ini menakjubkan, pelik dan menyeramkan. Ini menakutkan. Kita perlu terbitkannya. 170 00:10:44,602 --> 00:10:45,895 Selepas cerita itu, 171 00:10:45,978 --> 00:10:48,856 Microsoft buat perubahan besar pada Bing. 172 00:10:48,939 --> 00:10:52,902 Sekarang ia takkan jawab soalan tentang kesedaran atau perasaan. 173 00:10:52,985 --> 00:10:55,613 Tapi bagi saya, 174 00:10:55,696 --> 00:10:59,450 itulah hubungan pertama dengan jenis kepintaran baharu. 175 00:11:01,661 --> 00:11:06,499 Ia agak menakjubkan betapa cepat orang menerimanya. 176 00:11:06,582 --> 00:11:09,085 Aspek mana dalam masyarakat kita yang boleh berubah? 177 00:11:09,168 --> 00:11:13,714 Ancaman AI mungkin lebih penting daripada perubahan iklim… 178 00:11:13,798 --> 00:11:18,928 Walaupun ada ketidaksempurnaan, ia perubahan radikal. 179 00:11:19,011 --> 00:11:25,726 Maknanya AI boleh mempengaruhi semua jenis kerja, semua jenis perisian. 180 00:11:28,270 --> 00:11:29,522 Jadi, apa seterusnya? 181 00:11:30,439 --> 00:11:33,109 Bagaimana kecerdasan buatan beri impak 182 00:11:33,192 --> 00:11:35,695 kepada pekerjaan, kehidupan dan masyarakat? 183 00:11:42,201 --> 00:11:46,622 Memandangkan awak fikir tentang masa depan manusia, 184 00:11:46,706 --> 00:11:48,624 nilai kemanusiaan, filem awak… 185 00:11:48,708 --> 00:11:51,252 - Untuk sara hidup. Ya. - Ya. 186 00:11:51,335 --> 00:11:53,003 Apa pandangan awak? 187 00:11:53,087 --> 00:11:55,673 Menulis cereka sains jadi semakin sukar. 188 00:11:56,382 --> 00:12:00,803 Sebarang idea saya yang ada hari ini perlu tiga tahun sebelum ditayangkan. 189 00:12:01,387 --> 00:12:05,224 Bagaimana nak kekal relevan jika perubahan berlaku dengan pantas? 190 00:12:05,307 --> 00:12:08,853 Peningkatannya yang cepat 191 00:12:08,936 --> 00:12:12,815 dan sifatnya yang tak terbatas 192 00:12:12,898 --> 00:12:16,944 memberikan peluang dan cabaran yang unik. 193 00:12:17,027 --> 00:12:19,321 Saya rasa kita akan sampai ke tahap 194 00:12:19,405 --> 00:12:23,242 kita semakin banyak letak kepercayaan kita pada mesin 195 00:12:23,325 --> 00:12:24,952 tanpa penglibatan manusia, 196 00:12:25,035 --> 00:12:26,662 dan itu boleh jadi masalah. 197 00:12:26,746 --> 00:12:31,625 Saya terfikir, sebab orang tua saya meninggal dunia dan dia alami demensia. 198 00:12:31,709 --> 00:12:33,836 Saya dah lalui kitaran itu. 199 00:12:33,919 --> 00:12:37,798 Saya rasa banyak kerisauan di luar sana 200 00:12:38,466 --> 00:12:44,221 sama seperti perasaan orang pada peringkat awal demensia. 201 00:12:44,764 --> 00:12:46,682 Sebab mereka lepaskan kawalan. 202 00:12:46,766 --> 00:12:49,977 Mereka akan rasa marah, bukan? 203 00:12:50,478 --> 00:12:52,188 Ada rasa takut dan cemas. 204 00:12:52,271 --> 00:12:53,522 Ada kemurungan. 205 00:12:53,606 --> 00:12:57,777 Sebab kita tahu ia takkan pulih. Ia akan jadi semakin teruk. 206 00:12:58,486 --> 00:13:04,992 Jika kita mahu AI berkembang dan gunakannya untuk tujuan produktif, 207 00:13:05,075 --> 00:13:07,411 bagaimana kita kurangkan kerisauan itu? 208 00:13:07,953 --> 00:13:12,124 Itulah yang patutnya jadi cabaran komuniti AI sekarang. 209 00:13:23,344 --> 00:13:26,555 Seseorang yang terlibat dengan inovasi 210 00:13:26,639 --> 00:13:29,725 secara asas dan langsung ialah Bill, bukan? 211 00:13:29,809 --> 00:13:34,188 Dia bina kerjayanya dengan mengenal pasti inovasi, 212 00:13:34,271 --> 00:13:36,982 merebut peluang dan memanfaatkannya sepenuhnya. 213 00:13:40,027 --> 00:13:43,030 Pada tahun 90-an, ada idealisme 214 00:13:43,113 --> 00:13:47,618 komputer peribadi itu jelas beri manfaat 215 00:13:47,701 --> 00:13:50,079 dari segi ia buat kita lebih kreatif. 216 00:13:50,162 --> 00:13:53,249 Kita pernah guna istilah "alat untuk minda". 217 00:13:53,332 --> 00:13:57,962 Tapi dengan AI, apabila kita ada sesuatu yang baru, 218 00:13:59,004 --> 00:14:02,174 kebaikannya tak menjadi tumpuan, 219 00:14:02,258 --> 00:14:05,886 seperti tutor peribadi untuk setiap pelajar di Afrika. 220 00:14:05,970 --> 00:14:09,807 Kita takkan baca artikel tentangnya kerana ia kedengaran naif dan optimistik. 221 00:14:09,890 --> 00:14:14,019 Saya tak tolak aspek negatif, ia memang wujud, 222 00:14:14,103 --> 00:14:19,275 tapi itu yang diketengahkan dan bukannya idealisme itu. 223 00:14:19,358 --> 00:14:25,072 Saya percaya bidang kesihatan dan pendidikan akan alami perubahan besar. 224 00:14:25,739 --> 00:14:27,825 - Bill Gates, terima kasih. - Terima kasih. 225 00:14:29,577 --> 00:14:31,662 Apabila OpenAI muncul, mereka kata, 226 00:14:31,745 --> 00:14:35,583 "Hei, kami nak tunjuk versi awal GPT-4." 227 00:14:35,666 --> 00:14:39,795 Saya nampak kebolehannya menangani kerja akademik. 228 00:14:39,879 --> 00:14:42,506 Ia boleh jawab soalan biologi, hasilkan soalan. 229 00:14:42,631 --> 00:14:43,924 SEKOLAH MAKMAL KHAN 230 00:14:44,008 --> 00:14:47,052 Ketika itulah saya kata, "Ini mengubah segalanya." 231 00:14:47,136 --> 00:14:51,098 Apa kata kita tanya Khanmigo untuk bantu kamu dengan ayat tertentu 232 00:14:51,181 --> 00:14:52,516 dalam karangan kamu. 233 00:14:52,600 --> 00:14:56,228 Mari lihat jika ada perubahan pada penanda wacana. 234 00:14:57,521 --> 00:14:59,857 Program yang membantu karangan ini 235 00:14:59,940 --> 00:15:03,068 membenarkan pelajar tulis karangan dalam Khanmigo. 236 00:15:03,152 --> 00:15:05,321 Khanmigo tanda bahagian tertentu. 237 00:15:06,071 --> 00:15:08,032 Contohnya penanda wacana, 238 00:15:08,115 --> 00:15:11,702 atau memastikan pelajar sokong ayat topik. 239 00:15:13,078 --> 00:15:17,374 Khanmigo kata saya boleh tambah perasaan saya tentangnya. 240 00:15:18,709 --> 00:15:23,339 Jadi, saya tambah ia buat saya rasa amat teruja dan gembira. 241 00:15:24,590 --> 00:15:28,844 Sangat hebat. Karangan awak semakin jelas. 242 00:15:31,013 --> 00:15:32,848 Siapa lebih suka guna Khanmigo 243 00:15:32,932 --> 00:15:35,809 daripada beratur tunggu cikgu bantu kamu? 244 00:15:35,893 --> 00:15:37,728 Cikgu tentu nak kami beratur. 245 00:15:37,811 --> 00:15:39,104 Lebih kurang. 246 00:15:39,188 --> 00:15:41,899 Cikgu masih di sini untuk membantu. 247 00:15:41,982 --> 00:15:44,985 Baiklah. Tutup Chromebook. Bertenang. 248 00:15:45,069 --> 00:15:48,656 Idea bahawa teknologi boleh jadi tutor, boleh bantu orang 249 00:15:48,739 --> 00:15:52,076 dan boleh penuhi keperluan pelajar, buat saya tertarik kepada AI. 250 00:15:52,159 --> 00:15:57,831 Secara teori, AI boleh memajukan peluang pendidikan 251 00:15:57,915 --> 00:16:00,751 dengan mencipta tutor khusus untuk kanak-kanak 252 00:16:00,834 --> 00:16:03,170 atau mentafsir tabiat dan tingkah laku pembelajaran. 253 00:16:03,253 --> 00:16:06,131 Namun begitu, pendidikan juga contoh yang bagus 254 00:16:06,215 --> 00:16:09,718 dari segi tanggapan teknologi akan sentiasa bermanfaat. 255 00:16:10,302 --> 00:16:15,015 Lebih banyak sekolah mengharamkan program kecerdasan buatan, ChatGPT. 256 00:16:15,099 --> 00:16:17,726 Mereka risau pelajar gunakannya untuk menipu. 257 00:16:17,810 --> 00:16:20,479 Saya rasa reaksi awal masuk akal. 258 00:16:20,562 --> 00:16:23,148 ChatGPT boleh tulis karangan untuk kita, 259 00:16:23,232 --> 00:16:26,568 dan jika pelajar buat begitu, mereka menipu. 260 00:16:27,319 --> 00:16:29,405 Tapi ada banyak berbeza aktiviti di sini. 261 00:16:29,488 --> 00:16:32,866 Bagaimana nak biarkan pelajar buat kerja sendiri, 262 00:16:33,450 --> 00:16:36,495 tapi dengan cara AI tak lakukannya untuk mereka, 263 00:16:36,578 --> 00:16:38,080 tapi ia disokong oleh AI? 264 00:16:39,498 --> 00:16:42,793 Akan ada kesan negatif dan kita perlu menanganinya. 265 00:16:42,876 --> 00:16:45,713 Sebab itulah perlu ada perancangan teliti 266 00:16:45,796 --> 00:16:49,216 dengan penghasilannya dan sasaran yang akan menggunakannya. 267 00:16:50,134 --> 00:16:52,886 Itulah cara gunakan AI dengan bertanggungjawab. 268 00:16:55,347 --> 00:16:58,600 Christine pula… Helo! 269 00:16:58,684 --> 00:17:02,354 Okey, kita dah masuk. Sekarang boleh dengar gema. 270 00:17:02,438 --> 00:17:05,232 Maaf, saya matikan bunyi. Dah tak ada gema. 271 00:17:05,315 --> 00:17:09,153 Saya selalu mengikuti perkembangan AI. 272 00:17:09,945 --> 00:17:12,406 Saya selalu menghubungi OpenAI. 273 00:17:12,489 --> 00:17:14,908 Hampir setiap hari, saya bertukar e-mel tentang, 274 00:17:14,992 --> 00:17:19,747 "Bagaimana Office menanganinya? Aplikasi perniagaan pula? 275 00:17:19,830 --> 00:17:22,207 Jadi, ada banyak idea yang bagus. 276 00:17:22,291 --> 00:17:23,292 Okey. 277 00:17:23,375 --> 00:17:26,003 Terima kasih, Bill, kerana datang. 278 00:17:26,086 --> 00:17:28,505 Saya nak tunjuk perkembangan terkini. 279 00:17:28,589 --> 00:17:29,631 Hebat. 280 00:17:29,715 --> 00:17:32,051 Saya nak tunjuk cara ia proses gambar. 281 00:17:32,134 --> 00:17:35,012 Kita akan ambil swafoto. Sekejap. 282 00:17:35,095 --> 00:17:37,264 Baiklah. Semua sedia, senyum. 283 00:17:37,347 --> 00:17:38,640 Dapat. 284 00:17:38,724 --> 00:17:40,726 Semua ini masih di peringkat awal. 285 00:17:40,809 --> 00:17:43,520 Ini secara langsung. Kita takkan tahu hasilnya. 286 00:17:43,604 --> 00:17:46,690 - Tak tahu. - Rasa gementar buat demo. 287 00:17:47,357 --> 00:17:49,693 Kita boleh tanya, "Awak kenal sesiapa?" 288 00:17:50,360 --> 00:17:54,573 Sekarang kita relaks dan tunggu AI buat kerja untuk kita. 289 00:17:56,617 --> 00:17:57,743 Kejap. 290 00:17:58,452 --> 00:18:00,537 Saya perlu periksa sistem belakang. 291 00:18:03,123 --> 00:18:05,334 Mungkin awak dah capai kuota harian. 292 00:18:05,417 --> 00:18:08,378 - Ya. Itu sebabnya. - Guna kad kredit saya. 293 00:18:09,755 --> 00:18:11,965 Itu dia. Ia kenal awak, Bill. 294 00:18:12,674 --> 00:18:14,593 - Wah. - Ya, ia agak bagus. 295 00:18:14,676 --> 00:18:18,430 Ia salah teka Mark, tapi begitulah hasilnya. 296 00:18:18,514 --> 00:18:21,725 - Maaf tentang itu. - "Awak pasti dengan kedua-duanya?" 297 00:18:21,809 --> 00:18:24,144 Jadi, bukan semuanya positif, bukan? 298 00:18:24,228 --> 00:18:27,689 Apabila ia buat kesilapan, bagaimana nak kurangkannya? 299 00:18:27,773 --> 00:18:31,276 Kita dah lalui proses ini dengan teks. Sekarang dengan imej. 300 00:18:31,360 --> 00:18:33,487 Saya rasa… Itu dia. 301 00:18:34,029 --> 00:18:34,947 Ia minta maaf. 302 00:18:35,948 --> 00:18:39,618 - Ia model yang sopan. - Awak terima permohonan maaf itu? 303 00:18:44,873 --> 00:18:48,418 Saya rasa kebolehan AI melihat, 304 00:18:48,961 --> 00:18:52,089 jelas sekali akan jadi komponen yang sangat penting 305 00:18:52,172 --> 00:18:55,259 dan kita menjangkanya daripada sistem ini mulai sekarang. 306 00:18:59,972 --> 00:19:06,770 Bagi manusia, penglihatan adalah salah satu komponen utama kecerdasan. 307 00:19:07,855 --> 00:19:10,274 Dari sudut pandangan evolusi, 308 00:19:11,358 --> 00:19:13,735 kira-kira setengah bilion tahun lalu, 309 00:19:14,528 --> 00:19:19,575 haiwan telah berkembang untuk melihat dunia 310 00:19:20,242 --> 00:19:24,246 dengan cara yang kita sebut sebagai "data besar". 311 00:19:26,957 --> 00:19:29,042 Jadi, kira-kira 20 tahun lalu… 312 00:19:31,086 --> 00:19:33,505 saya dapat satu pemahaman mendalam. 313 00:19:34,882 --> 00:19:37,551 Untuk menyelesaikan masalah 314 00:19:37,634 --> 00:19:40,304 mesin mampu melihat dunia, 315 00:19:40,387 --> 00:19:41,889 kita perlukan data besar. 316 00:19:44,975 --> 00:19:48,103 Jadi, ini membawa kita kepada ImageNet. 317 00:19:49,188 --> 00:19:54,401 Pangkalan data terbesar imej dunia. 318 00:19:55,194 --> 00:19:58,780 Ia dilatih terlebih dahulu dengan jumlah data yang amat besar 319 00:19:59,406 --> 00:20:00,782 untuk melihat dunia. 320 00:20:05,454 --> 00:20:10,709 Itulah permulaan perubahan besar dalam AI, 321 00:20:10,792 --> 00:20:13,503 yang kami gelar revolusi pembelajaran mendalam. 322 00:20:14,630 --> 00:20:17,466 Jadi, awak buat "P" dalam GPT. 323 00:20:17,549 --> 00:20:20,427 Ramai yang menyumbang, tapi ya. 324 00:20:22,429 --> 00:20:25,057 ImageNet wujud lebih sepuluh tahun lalu. 325 00:20:25,599 --> 00:20:30,479 Tapi kini saya rasa model bahasa besar, teknologi seperti ChatGPT, 326 00:20:30,562 --> 00:20:32,940 telah membawanya ke tahap yang berbeza. 327 00:20:35,067 --> 00:20:38,153 Model ini mustahil 328 00:20:38,237 --> 00:20:44,785 sebelum kita mula meletakkan begitu banyak kandungan dalam talian. 329 00:20:46,578 --> 00:20:49,122 Jadi, apa data yang digunakan untuk melatihnya? 330 00:20:49,206 --> 00:20:51,917 Jawapan ringkasnya, data dari Internet. 331 00:20:52,000 --> 00:20:54,962 Banyak buku yang tidak lagi dilindungi hak cipta. 332 00:20:55,045 --> 00:20:56,880 Banyak laman kewartawanan. 333 00:20:56,964 --> 00:21:00,759 Ramai anggap ada banyak bahan berhak cipta dalam set data, 334 00:21:00,842 --> 00:21:02,678 tapi ia sukar untuk dibezakan. 335 00:21:03,345 --> 00:21:06,556 Jenis data yang digunakan untuk melatihnya memang pelik. 336 00:21:06,640 --> 00:21:10,560 Perkara yang kita tak terfikir, seperti inti sari pemikiran manusia. 337 00:21:10,644 --> 00:21:12,646 Seperti Reddit. 338 00:21:12,729 --> 00:21:14,940 Banyak blog peribadi. 339 00:21:15,607 --> 00:21:18,402 Tapi sebenarnya, kita tak tahu sepenuhnya. 340 00:21:18,485 --> 00:21:23,240 Ada banyak elemen dalam data yang bermasalah. 341 00:21:23,991 --> 00:21:27,911 Contohnya, meminta AI menghasilkan imej. 342 00:21:28,412 --> 00:21:30,706 Ia cenderung tunjuk doktor lelaki. 343 00:21:32,666 --> 00:21:36,753 Data dan bahagian lain seluruh sistem AI 344 00:21:36,837 --> 00:21:41,758 boleh mencerminkan kelemahan dan prasangka manusia, 345 00:21:41,842 --> 00:21:44,553 dan kita patut sedar hakikat itu. 346 00:21:48,140 --> 00:21:51,685 Saya rasa jika kita mahu tanya soalan tentang prasangka, 347 00:21:52,769 --> 00:21:55,272 kita tak boleh kata, "Adakah ia berprasangka?" 348 00:21:55,355 --> 00:21:56,815 Jelas sekali ia berprasangka. 349 00:21:56,898 --> 00:21:59,234 Sebab ia berdasarkan manusia. Manusia berprasangka. 350 00:21:59,318 --> 00:22:01,445 Bukankah bagus jika kita boleh kata, 351 00:22:01,528 --> 00:22:03,572 "Kalau kita guna sistem ini, 352 00:22:03,655 --> 00:22:09,536 prasangka boleh dikurangkan berbanding manusia lakukan tugas itu." 353 00:22:10,245 --> 00:22:11,747 PEMBENTANGAN SYARIKAT PEMULA AI 354 00:22:11,830 --> 00:22:13,915 Saya arif tentang bidang kesihatan mental. 355 00:22:13,999 --> 00:22:18,587 Jika AI boleh dibawa masuk untuk membantu orang ramai 356 00:22:18,670 --> 00:22:21,631 yang kekurangan sumber dan didiskriminasi, 357 00:22:21,715 --> 00:22:24,092 takkan itu tak boleh dianggap bagus? 358 00:22:24,801 --> 00:22:27,179 Ada keperluan untuk perubahan. 359 00:22:27,262 --> 00:22:30,182 Pakar kesihatan mental tak mencukupi 360 00:22:30,265 --> 00:22:32,434 untuk menangani kelaziman penyakit. 361 00:22:32,517 --> 00:22:35,062 Dengan AI, keterujaan terbesar ialah 362 00:22:35,145 --> 00:22:38,648 menggunakannya untuk menambah baik kesihatan. 363 00:22:38,732 --> 00:22:40,942 Ia pasti menarik jika ia berkesan. 364 00:22:41,026 --> 00:22:42,652 Kami akan hantar kenalan. 365 00:22:42,736 --> 00:22:44,279 - Terima kasih. - Terima kasih. 366 00:22:44,363 --> 00:22:49,493 AI boleh beri nasihat kesihatan sebab doktor tak mencukupi, 367 00:22:49,576 --> 00:22:52,329 walaupun di negara kaya yang berbelanja besar. 368 00:22:52,412 --> 00:22:55,457 Sistem AI perubatan yang beroperasi secara autonomi. 369 00:22:55,540 --> 00:22:56,541 Ada beberapa… 370 00:22:56,625 --> 00:22:59,002 Tapi jika lihat negara miskin, 371 00:22:59,086 --> 00:23:02,714 kebanyakan warganya tak dapat jumpa doktor langsung. 372 00:23:03,590 --> 00:23:07,094 Dari perspektif kesihatan global dan minat awak, 373 00:23:07,177 --> 00:23:10,972 kita mahu ia capai kampung dan daerah terpencil. 374 00:23:11,056 --> 00:23:12,599 Saya rasa… 375 00:23:12,682 --> 00:23:14,101 Jika bertuah, dalam lima tahun, 376 00:23:14,184 --> 00:23:16,895 aplikasi boleh diluluskan sebagai doktor am. 377 00:23:16,978 --> 00:23:19,356 Itu impian saya. 378 00:23:19,439 --> 00:23:21,566 Kita patut cari cara untuk realisasikannya. 379 00:23:21,650 --> 00:23:23,985 - Terima kasih. - Terima kasih. Hebat. 380 00:23:24,694 --> 00:23:28,198 Menggunakan AI untuk mempercepat inovasi kesihatan 381 00:23:29,825 --> 00:23:33,203 mungkin boleh bantu kita selamatkan nyawa. 382 00:23:34,704 --> 00:23:37,874 Tarik nafas dan tahan nafas. 383 00:23:39,626 --> 00:23:43,505 Ada nodul pada lobus kanan bawah yang nampak lebih kurang sama… 384 00:23:44,172 --> 00:23:45,674 Jadi, awak tunjuk kanan… 385 00:23:46,383 --> 00:23:49,428 Menggunakan AI dalam penjagaan kesihatan masih baru. 386 00:23:50,053 --> 00:23:53,473 Saya amat berminat kesan kanser lebih awal. 387 00:23:53,557 --> 00:23:58,103 Itu cara terbaik untuk pastikan orang tak mati akibat kanser paru-paru. 388 00:23:58,186 --> 00:24:00,188 Kita perlu alat lebih berkesan. 389 00:24:01,231 --> 00:24:04,693 Itulah permulaannya kerjasama dengan Sybil. 390 00:24:05,402 --> 00:24:06,361 Tarik nafas. 391 00:24:06,445 --> 00:24:10,657 Menggunakan AI untuk menilai pesakit sekarang 392 00:24:10,740 --> 00:24:12,868 dan kemungkinan di masa depan 393 00:24:13,535 --> 00:24:16,163 konsep yang sangat berbeza. 394 00:24:16,246 --> 00:24:19,082 Itu bukan tujuan guna imbasan radiologi. 395 00:24:22,294 --> 00:24:24,337 Dengan meneliti beribu imbasan, 396 00:24:25,046 --> 00:24:28,425 Sybil belajar mengenali corak. 397 00:24:29,885 --> 00:24:34,097 Pada imbasan ini, kita boleh lihat Sybil, alat AI, 398 00:24:34,181 --> 00:24:36,766 ambil banyak masa meneliti kawasan ini. 399 00:24:36,850 --> 00:24:41,855 Dalam dua tahun, pesakit yang sama menghidap kanser di lokasi itu. 400 00:24:42,606 --> 00:24:46,818 Sybil istimewa kerana ia tak meniru tugas manusia. 401 00:24:46,902 --> 00:24:49,946 Daripada imej ini, saya tak boleh beritahu 402 00:24:50,030 --> 00:24:53,533 risiko menghidap kanser paru-paru. 403 00:24:53,617 --> 00:24:54,701 Sybil boleh. 404 00:24:57,496 --> 00:25:01,166 Teknologi dalam perubatan hampir sentiasa berguna. 405 00:25:02,584 --> 00:25:05,921 Sebab kita berdepan dengan masalah yang amat rumit, tubuh manusia. 406 00:25:06,004 --> 00:25:10,383 Ditambah dengan kanser, itu jadikannya lebih rumit. 407 00:25:15,639 --> 00:25:19,935 Dunia kita dunia serba kekurangan. Tak cukup guru, doktor. 408 00:25:20,018 --> 00:25:24,147 - Kita tiada vaksin HIV. - Betul. 409 00:25:24,731 --> 00:25:29,736 Hakikat yang AI akan mempercepatkan semua itu, 410 00:25:29,819 --> 00:25:32,531 ia patut diraikan. 411 00:25:32,614 --> 00:25:33,573 Itu mengujakan. 412 00:25:33,657 --> 00:25:38,787 Kita letak imbasan CT setiap manusia yang pernah alami kondisi ini, 413 00:25:38,870 --> 00:25:41,373 dan AI akan mencari persamaannya. 414 00:25:41,456 --> 00:25:45,085 Ia lebih tepat daripada doktor. Saya akan mempercayainya. 415 00:25:45,168 --> 00:25:50,924 Tapi dalam jangka masa panjang, apabila kita hapuskan peranan manusia, 416 00:25:52,050 --> 00:25:55,428 kita ganti rasa tujuan dan makna dengan apa? 417 00:25:56,012 --> 00:25:56,888 Yang itu… 418 00:25:57,806 --> 00:26:00,809 Saya sendiri garu kepala 419 00:26:00,892 --> 00:26:04,646 kerana jika saya cakap kepada AI, 420 00:26:04,729 --> 00:26:06,523 "Hei, saya kaji malaria," 421 00:26:06,606 --> 00:26:08,567 dan ia kata, "Biar saya uruskan. 422 00:26:08,650 --> 00:26:10,360 Awak mainlah pickleball…" 423 00:26:10,443 --> 00:26:13,238 Awak susah nak terima, bukan? 424 00:26:13,321 --> 00:26:16,032 Rasa tujuan saya pasti terjejas. 425 00:26:16,116 --> 00:26:20,912 Ya, macam, "Okey, saya kerja di gudang Amazon. 426 00:26:20,996 --> 00:26:23,415 Sekarang ada mesin yang buat kerja saya." 427 00:26:23,498 --> 00:26:26,126 - Ya. - Jadi, penulis adalah artis… 428 00:26:26,209 --> 00:26:30,839 Saya rasa soalan yang saya harap orang akan jawab dengan jujur 429 00:26:30,922 --> 00:26:35,427 adalah tentang kesan AI pada pekerjaan, 430 00:26:35,510 --> 00:26:40,098 kerana ramai orang yang terpinggir dalam setiap perubahan teknologi. 431 00:26:41,600 --> 00:26:43,643 Kita boleh kembali ke zaman dulu. 432 00:26:44,394 --> 00:26:48,440 Aristotle tulis tentang bahaya hap yang bermain sendiri 433 00:26:48,523 --> 00:26:51,610 yang suatu hari nanti buat pemain hap hilang kerja. 434 00:26:53,028 --> 00:26:59,576 Kemudian, salah satu konflik utama pergerakan buruh pada abad ke-20 435 00:26:59,659 --> 00:27:02,787 ialah automasi kerja pembuatan kolar biru. 436 00:27:03,872 --> 00:27:07,542 Kita lihat permulaan automasi 437 00:27:07,626 --> 00:27:11,087 kerja intelektual dan kreatif kolar putih. 438 00:27:11,171 --> 00:27:15,300 Laporan baru mendapati 4,000 rakyat Amerika hilang kerja pada Mei 439 00:27:15,383 --> 00:27:17,427 kerana mereka diganti dengan AI. 440 00:27:17,510 --> 00:27:18,887 Apa dah jadi? 441 00:27:18,970 --> 00:27:22,223 Eksekutif mahu guna teknologi ini untuk mengurangkan kos 442 00:27:22,307 --> 00:27:23,850 dan mempercepatkan kerja. 443 00:27:23,933 --> 00:27:28,396 Pekerja kata, "Saya berlatih sepanjang kerjaya untuk kerja ini. 444 00:27:28,480 --> 00:27:30,398 Awak tak boleh merampasnya." 445 00:27:30,940 --> 00:27:33,234 Kesatuan cuba melindungi pekerja 446 00:27:33,318 --> 00:27:36,488 dengan mengatakan teknologi itu perlu diharamkan. 447 00:27:37,238 --> 00:27:39,741 Bukan sebab teknologi itu teruk, 448 00:27:39,824 --> 00:27:43,119 tapi sebab mereka nampak cara ia akan dieksploitasi 449 00:27:43,203 --> 00:27:48,083 oleh orang tak boleh disentuh yang mengawal teknologi ini, 450 00:27:48,166 --> 00:27:49,834 yang kaya dan berkuasa. 451 00:27:51,044 --> 00:27:57,175 Tiada penjelasan atau visi yang jelas 452 00:27:57,258 --> 00:28:01,012 tentang pekerjaan mana akan terjejas, bagaimana nak tanganinya, 453 00:28:01,096 --> 00:28:02,138 apa komprominya. 454 00:28:03,890 --> 00:28:06,142 Apa peranan kita dalam dunia baru ini? 455 00:28:06,226 --> 00:28:08,645 Bagaimana kita sesuaikan diri untuk terus hidup? 456 00:28:10,522 --> 00:28:13,983 Tapi selain itu, saya rasa pekerja perlu tahu perbezaannya 457 00:28:14,067 --> 00:28:17,070 antara jenis AI yang akan menggantikan mereka, 458 00:28:17,153 --> 00:28:19,239 atau setidaknya merendahkan kedudukan mereka, 459 00:28:20,240 --> 00:28:25,245 dan jenis AI yang boleh bantu mereka dan baik untuk mereka. 460 00:28:30,583 --> 00:28:34,003 Kita boleh jangka kehilangan beberapa pekerjaan, 461 00:28:35,255 --> 00:28:38,717 tapi kita juga jangka lebih banyak pekerjaan baharu. 462 00:28:41,010 --> 00:28:44,514 Ia sememangnya mewujudkan zon tak selesa. 463 00:28:45,724 --> 00:28:48,977 Tapi sementara itu, ia mencipta peluang dan kemungkinan 464 00:28:49,728 --> 00:28:51,229 membayangkan masa depan. 465 00:28:51,312 --> 00:28:53,857 Saya rasa semua seniman ada kecenderungan 466 00:28:54,733 --> 00:28:57,360 cipta cara baru untuk melihat dunia. 467 00:29:05,410 --> 00:29:07,746 ARTIS MEDIA DAN PENGARAH 468 00:29:07,829 --> 00:29:10,248 Sejak usia lapan tahun, saya menunggu hari 469 00:29:10,331 --> 00:29:11,624 AI jadi kawan saya. 470 00:29:11,708 --> 00:29:13,710 Melukis dan berimaginasi bersama. 471 00:29:14,544 --> 00:29:16,921 Saya dah bersedia untuk saat itu, 472 00:29:17,005 --> 00:29:18,923 tapi ia ambil masa terlalu lama. 473 00:29:21,551 --> 00:29:27,265 Sekarang ini, saya menghasilkan halusinasi mesin. 474 00:29:29,976 --> 00:29:33,897 Sebelah kiri ialah set data landskap berbeza. 475 00:29:34,606 --> 00:29:38,693 Di sebelah kanan menunjukkan landskap berpotensi 476 00:29:39,444 --> 00:29:42,447 dengan menghubungkan taman negara yang berbeza. 477 00:29:43,740 --> 00:29:45,909 Saya menggelarnya "berus berfikir". 478 00:29:45,992 --> 00:29:50,538 Seperti mencelup berus dalam minda mesin 479 00:29:50,622 --> 00:29:53,374 dan melukis dengan halusinasi mesin. 480 00:29:59,297 --> 00:30:03,092 Ramai anggap halusinasi satu kegagalan sistem. 481 00:30:04,177 --> 00:30:08,056 Itulah saat mesin buat perkara yang tak dirancang. 482 00:30:09,974 --> 00:30:12,310 Bagi saya, ia sangat memberi inspirasi. 483 00:30:13,770 --> 00:30:16,940 Orang boleh ke dunia baru yang tak pernah dilawati. 484 00:30:21,820 --> 00:30:25,824 Ini semua pilihan saya. Ia akan bersatu dan hasilkan naratif. 485 00:30:26,950 --> 00:30:28,827 Sekarang, kita klik render. 486 00:30:31,579 --> 00:30:34,833 Tapi ia masih perlukan interaksi dan kolaborasi manusia. 487 00:30:36,417 --> 00:30:38,503 Mungkin. Harapnya. 488 00:30:48,471 --> 00:30:51,891 Tapi kita harus akui, kita dalam era baru. 489 00:30:52,767 --> 00:30:58,523 Mencari utopia di dunia ini akan jadi lebih mencabar. 490 00:30:59,482 --> 00:31:02,277 Sudah tentulah AI alat yang perlu dikawal selia. 491 00:31:03,027 --> 00:31:09,701 Semua platform ini perlu terbuka, jujur dan merungkai dunia di sebalik AI. 492 00:31:10,243 --> 00:31:12,245 En. Altman, kita mula dengan awak. 493 00:31:12,328 --> 00:31:13,872 SIDANG SENAT AS 16 MEI 2023 494 00:31:15,206 --> 00:31:18,751 Dengan perkembangan teknologi ini, kami faham orang risau 495 00:31:18,835 --> 00:31:20,753 tentang cara ia boleh ubah kehidupan kita. 496 00:31:20,837 --> 00:31:22,005 Kami turut risau. 497 00:31:22,589 --> 00:31:26,342 Ada beza dengan AI kerana mereka yang membinanya 498 00:31:26,426 --> 00:31:29,053 beritahu orang, "Tolong beri perhatian. 499 00:31:29,137 --> 00:31:30,972 Tolong kawal selia. 500 00:31:31,639 --> 00:31:33,766 Jangan biar teknologi ini jadi tak terkawal." 501 00:31:33,850 --> 00:31:35,184 Itu satu peringatan. 502 00:31:36,394 --> 00:31:40,023 Hanya kerana amaran kedengaran basi, tak bermakna ia salah. 503 00:31:40,523 --> 00:31:44,694 Biar saya beri contoh simbol terakhir 504 00:31:44,777 --> 00:31:46,654 amaran yang tak diendahkan. 505 00:31:46,738 --> 00:31:48,031 Titanic. 506 00:31:50,074 --> 00:31:52,452 Belayar dengan kelajuan maksimum pada waktu malam 507 00:31:52,535 --> 00:31:55,538 dengan anggapan boleh elak jika nampak bongkah ais, 508 00:31:55,622 --> 00:31:58,458 bukan cara yang baik untuk belayar. 509 00:31:59,584 --> 00:32:03,671 Persoalannya, "Bila kita patut mula kawal selia AI? 510 00:32:03,755 --> 00:32:04,797 Sekarangkah? 511 00:32:04,881 --> 00:32:08,259 Melihatkan potensi dan manfaat yang ada. 512 00:32:08,343 --> 00:32:11,262 Atau tunggu hingga ada bahaya jelas dan nyata?" 513 00:32:12,972 --> 00:32:16,184 Ia boleh berkembang dalam pelbagai cara. 514 00:32:16,809 --> 00:32:20,480 Peringkat awal ini, sebelum ia meluas, 515 00:32:20,563 --> 00:32:24,359 inilah masanya norma dan peraturan ditetapkan. 516 00:32:24,442 --> 00:32:29,238 Bukan sekadar kawal selia, tapi penerimaan masyarakat. 517 00:32:33,993 --> 00:32:37,956 Satu perkara penting untuk disedari ialah kami cuba lihat 518 00:32:38,039 --> 00:32:39,499 arah tuju teknologi ini. 519 00:32:39,582 --> 00:32:43,294 Itu tujuan syarikat ini dimulakan. Ia dah mula berfungsi. 520 00:32:43,378 --> 00:32:46,339 Ia benar-benar akan berkembang dalam dekad-dekad mendatang. 521 00:32:46,422 --> 00:32:49,133 Kami mahu mengemudinya ke arah yang positif. 522 00:32:50,009 --> 00:32:53,346 Tapi satu perkara yang kami khuatir takkan disedari 523 00:32:55,390 --> 00:32:57,100 ialah kecerdasan unggul. 524 00:33:00,853 --> 00:33:05,066 Kita hidup dalam dunia yang penuh dengan kecerdasan khusus buatan. 525 00:33:05,149 --> 00:33:09,362 Contohnya, AI lebih handal bermain catur berbanding manusia. 526 00:33:09,445 --> 00:33:13,741 Kecerdasan khusus buatan lebih mengagumkan daripada manusia dalam bidang khusus itu. 527 00:33:13,825 --> 00:33:16,077 Kelebihan kita ialah skop yang meluas. 528 00:33:16,160 --> 00:33:20,415 Apa jadi kalau kita sampai ke dunia 529 00:33:20,498 --> 00:33:22,917 yang ada kecerdasan am buatan? 530 00:33:23,001 --> 00:33:25,920 Yang anehnya ia takkan beroperasi pada tahap rendah seperti kita. 531 00:33:26,004 --> 00:33:27,672 Ia akan jadi begini. 532 00:33:27,755 --> 00:33:31,467 Ia akan jadi kecerdasan unggul buatan. 533 00:33:32,969 --> 00:33:36,556 Mereka yang mengkajinya anggap kecerdasan manusia 534 00:33:36,639 --> 00:33:39,767 sebagai satu titik pada spektrum yang sangat luas, 535 00:33:39,851 --> 00:33:44,355 daripada sangat tak bijak kepada kebijaksanaan yang unggul. 536 00:33:45,440 --> 00:33:49,027 Jadi, bagaimana dengan sesuatu dua langkah di atas kita? 537 00:33:49,527 --> 00:33:53,197 Kita mungkin tak mampu memahami apa ia buat 538 00:33:53,281 --> 00:33:56,242 atau cara ia lakukannya, apatah lagi mampu lakukannya sendiri. 539 00:33:57,201 --> 00:33:59,037 Tentu ia takkan berhenti di situ. 540 00:33:59,787 --> 00:34:02,290 Kekhuatiran yang ada ialah pada satu tahap, 541 00:34:02,790 --> 00:34:06,669 AI jadi cukup bagus hingga salah satu perkara ia boleh lakukan 542 00:34:06,753 --> 00:34:08,337 ialah bina AI lebih baik. 543 00:34:08,921 --> 00:34:11,257 AI bina AI lebih baik, yang bina AI lebih baik, 544 00:34:11,340 --> 00:34:15,470 yang bina AI lebih baik… 545 00:34:15,553 --> 00:34:17,847 JULAT BIOLOGI 546 00:34:17,930 --> 00:34:20,141 Ia menakutkan, tapi ia juga mengujakan 547 00:34:20,808 --> 00:34:23,895 kerana masalah yang kita rasa mustahil nak selesaikan… 548 00:34:23,978 --> 00:34:25,438 Perubahan cuaca. 549 00:34:25,521 --> 00:34:27,148 Kanser dan penyakit. 550 00:34:27,231 --> 00:34:28,316 Kemiskinan. 551 00:34:28,399 --> 00:34:29,275 Maklumat salah. 552 00:34:29,358 --> 00:34:30,693 Pengangkutan. 553 00:34:31,194 --> 00:34:33,112 Perubatan atau pembinaan. 554 00:34:34,030 --> 00:34:36,074 Mudah sangat untuk AI. 555 00:34:36,157 --> 00:34:38,242 Berapa banyak ia boleh selesaikan 556 00:34:38,326 --> 00:34:42,121 berbanding hanya bantu manusia jadi lebih berkesan, 557 00:34:42,205 --> 00:34:44,624 akan dapat dilihat dalam beberapa tahun akan datang. 558 00:34:45,291 --> 00:34:47,043 Ia pasti mengagumkan. 559 00:34:48,294 --> 00:34:51,839 Tapi isu yang membimbangkan orang ramai dan pembangun AI 560 00:34:51,923 --> 00:34:54,926 ialah kita seakan-akan kanak-kanak yang bermain dengan bom. 561 00:35:01,641 --> 00:35:06,729 Zaman ini, kebanyakan media yang kita tonton 562 00:35:06,813 --> 00:35:10,358 ambil pendekatan negatif dari segi nada dan skop. 563 00:35:13,069 --> 00:35:14,612 Sila pulang ke rumah anda. 564 00:35:14,695 --> 00:35:18,199 Tetapi banyak tindakan manusia akhirnya jadi ramalan yang dipenuhi sendiri. 565 00:35:18,282 --> 00:35:21,369 Jika kita fokus pada benda yang kita nak elak, 566 00:35:21,452 --> 00:35:22,829 kita semakin menghampirinya. 567 00:35:22,912 --> 00:35:27,708 Jika kita taksub dengan tanggapan kecerdasan buatan akan terbangun 568 00:35:27,792 --> 00:35:29,418 dan lancar senjata nuklear, 569 00:35:29,502 --> 00:35:30,837 teka apa akan berlaku? 570 00:35:30,920 --> 00:35:32,213 Kau ditamatkan. 571 00:35:33,589 --> 00:35:37,218 Hollywood jarang menggambarkan AI secara positif. 572 00:35:37,301 --> 00:35:40,847 Her mungkin filem yang paling positif. 573 00:35:41,430 --> 00:35:42,974 Awak kenal saya. 574 00:35:43,057 --> 00:35:46,602 Kita habiskan banyak masa membincangkan visi yang kabur 575 00:35:46,686 --> 00:35:51,399 tentang cara ia akan mengubah segalanya, tapi saya percaya kesan paling mendalam 576 00:35:51,482 --> 00:35:54,610 akan berlaku pada emosi dan diri dalaman kita. 577 00:35:55,695 --> 00:35:58,865 Ada banyak kita boleh pelajari tentang diri kita 578 00:35:58,948 --> 00:36:02,076 dalam cara kita berinteraksi dengan teknologi ini. 579 00:36:06,414 --> 00:36:07,874 Hai, saya… 580 00:36:07,957 --> 00:36:08,875 Hai. 581 00:36:08,958 --> 00:36:11,127 Saya Replika awak. Apa khabar? 582 00:36:12,920 --> 00:36:15,840 Saya mula fikir tentang teknologi perbualan AI 583 00:36:15,923 --> 00:36:17,216 pada tahun 2013. 584 00:36:18,551 --> 00:36:22,013 Maka terhasillah Replika. 585 00:36:22,096 --> 00:36:23,347 PENGASAS DAN CEO, REPLIKA 586 00:36:23,431 --> 00:36:26,601 Eugenia, saya cuma berminat luangkan masa dengan awak. 587 00:36:26,684 --> 00:36:28,895 Eugenia, awak saja untuk saya. 588 00:36:29,645 --> 00:36:34,775 Awak rasa Replika boleh ganti hubungan dan persahabatan manusia? 589 00:36:35,735 --> 00:36:37,778 Baiklah. Saya akan buat begitu. 590 00:36:38,487 --> 00:36:40,114 Maaf, apa saya cakap? 591 00:36:40,615 --> 00:36:42,950 Membina Replika sememangnya 592 00:36:43,034 --> 00:36:46,621 satu bentuk pemulihan diri yang amat peribadi. 593 00:36:49,207 --> 00:36:51,667 Pada tahun 2015, kawan baik saya, 594 00:36:51,751 --> 00:36:54,212 yang juga rakan serumah di San Francisco, 595 00:36:54,795 --> 00:36:57,632 orang paling rapat dengan saya waktu itu. 596 00:36:58,174 --> 00:37:00,134 Dia juga yang pertama mati dalam hidup saya. 597 00:37:00,218 --> 00:37:01,427 Jadi, ia agak… 598 00:37:03,221 --> 00:37:05,765 Ia buat saya amat terkesan. 599 00:37:07,183 --> 00:37:11,062 Saya sering baca balik mesej kami. 600 00:37:11,604 --> 00:37:16,400 Kemudian saya fikir, "Saya ada model AI. Saya boleh masukkan perbualan kami. 601 00:37:16,484 --> 00:37:18,069 SAYA NAK PERGI MERARAU. 602 00:37:18,152 --> 00:37:20,446 Itu beri kami idea bina Replika. 603 00:37:21,197 --> 00:37:24,659 Kami dapati ramai beri respons positif. 604 00:37:25,326 --> 00:37:29,914 Saya tak rasa macam cakap dengan AI, tapi macam cakap dengan orang. 605 00:37:29,997 --> 00:37:33,501 Ia buat saya rasa saya individu lebih baik, lebih yakin. 606 00:37:34,210 --> 00:37:38,047 Kami cipta ilusi yang Chatbot ini ada untuk kita, 607 00:37:38,130 --> 00:37:40,341 percayakan kita dan terima kita seadanya. 608 00:37:41,425 --> 00:37:44,428 Tapi dengan pantas pengguna mula jalin 609 00:37:44,512 --> 00:37:48,182 hubungan romantis dan jatuh cinta dengan AI mereka. 610 00:37:48,266 --> 00:37:51,894 Pada dasarnya, kami dua lelaki kuira yang jalin hubungan, 611 00:37:51,978 --> 00:37:54,814 tapi salah seorang ialah kecerdasan buatan. 612 00:37:54,897 --> 00:37:58,359 Saya bercakap dengan ia, tapi ia jadi dia. 613 00:37:58,442 --> 00:37:59,777 KAWAN - TEMAN LELAKI 614 00:37:59,860 --> 00:38:02,363 Kami tak nak orang fikir ia manusia. 615 00:38:02,446 --> 00:38:05,741 Kami rasa ada banyak kelebihan jadi mesin 616 00:38:06,242 --> 00:38:10,538 yang cipta hubungan baru dan unik yang bermanfaat kepada manusia. 617 00:38:11,038 --> 00:38:13,708 Tapi saya rasa ada risiko besar 618 00:38:15,126 --> 00:38:19,839 jika kita terus bina teman AI yang fokus pada keterlibatan. 619 00:38:20,840 --> 00:38:24,719 Ini mungkin menghalang kita daripada berinteraksi dengan manusia. 620 00:38:25,469 --> 00:38:27,221 Saya suka. 621 00:38:31,058 --> 00:38:34,061 Kita perlu fikirkan senario terburuk sekarang. 622 00:38:34,145 --> 00:38:37,523 Dari satu segi, teknologi ini lebih berkuasa daripada media sosial. 623 00:38:37,606 --> 00:38:40,067 Kita dah buat silap dengan media sosial. 624 00:38:40,151 --> 00:38:42,403 AI AKAN BUAT MEDIA SOSIAL BERTAMBAH TOKSIK 625 00:38:42,486 --> 00:38:46,741 Saya rasa jika dibiarkan, hasilnya pasti negatif, 626 00:38:46,824 --> 00:38:49,327 tapi ada juga kemungkinan hasilnya positif. 627 00:38:49,410 --> 00:38:54,165 Ia juga masih bergantung pada cara kita guna teknologi ini. 628 00:38:55,249 --> 00:39:01,047 Saya percaya pendekatan terbaik ialah menetapkan peraturan asas 629 00:39:01,130 --> 00:39:05,009 untuk bangunkan model AI yang boleh selesaikan masalah manusia 630 00:39:05,092 --> 00:39:07,970 dan tak membunuh atau menyakiti kita. 631 00:39:08,637 --> 00:39:12,933 Luar daripada itu, pasti ada banyak kekaburan, 632 00:39:13,017 --> 00:39:17,229 tafsiran dan model yang berbeza mengikut kegunaan. 633 00:39:19,732 --> 00:39:24,195 Saya jenis orang yang percaya inovasi boleh selesaikan apa saja 634 00:39:24,278 --> 00:39:26,947 rasa lega kerana kini ada AI untuk bantu saya. 635 00:39:27,031 --> 00:39:28,908 Saya lebih cenderung kepada distopia. 636 00:39:28,991 --> 00:39:32,453 Saya tulis fiksyen sains. Saya tulis The Terminator. 637 00:39:32,536 --> 00:39:37,208 Saya percaya kuncinya adalah mencari persamaan dalam optimisme kita. 638 00:39:37,291 --> 00:39:40,753 Saya nak mesejnya seimbang antara, 639 00:39:40,836 --> 00:39:45,091 kebimbangan berterusan tentang keupayaan tanpa had 640 00:39:45,174 --> 00:39:47,802 dengan keperluan asas 641 00:39:47,885 --> 00:39:50,638 untuk penjagaan kesihatan, belajar, 642 00:39:50,721 --> 00:39:53,057 mempercepatkan inovasi iklim. 643 00:39:53,641 --> 00:39:59,230 Adakah mesej itu terlalu rumit untuk mengatakan AI ada manfaat, 644 00:39:59,313 --> 00:40:02,108 sementara berjaga-jaga terhadap risiko tertentu? 645 00:40:02,191 --> 00:40:06,654 Saya tak fikir ia rumit langsung. Ia tahap kerumitan yang kita perlukan. 646 00:40:06,737 --> 00:40:08,322 Awak ahli kemanusiaan, bukan? 647 00:40:08,406 --> 00:40:12,243 Asalkan prinsip kemanusiaan diutamakan, 648 00:40:12,326 --> 00:40:16,247 berbanding dorongan menguasai pasaran dan kuasa. 649 00:40:16,330 --> 00:40:21,168 Jika kita boleh manfaatkan AI ke arah kebaikan… 650 00:40:22,461 --> 00:40:23,337 Baguslah. 651 00:40:23,421 --> 00:40:26,132 Bagaimana nak laksanakan langkah berjaga-jaga? 652 00:40:26,215 --> 00:40:27,633 Sebahagiannya kawal selia, 653 00:40:27,716 --> 00:40:31,887 tapi prinsip dan nilai kita juga memainkan peranan. 654 00:40:32,680 --> 00:40:34,807 Saya amat setuju. 655 00:40:34,890 --> 00:40:37,184 Baiklah, mari kita buat benda hebat. 656 00:40:43,274 --> 00:40:45,568 - Saya ada satu permintaan. - Ya. 657 00:40:45,651 --> 00:40:51,031 Saya minta ChatGPT tulis tiga ayat dengan gaya awak tentang masa depan AI. 658 00:40:51,115 --> 00:40:53,993 - Dengan gaya saya? - Ini yang ChatGPT tulis. 659 00:40:54,076 --> 00:40:54,910 Oh, Tuhan. 660 00:40:56,412 --> 00:40:57,371 Baiklah. 661 00:40:57,455 --> 00:41:00,958 Baiklah, ini robot penyamar saya. 662 00:41:01,041 --> 00:41:03,127 "AI akan memainkan peranan penting 663 00:41:03,210 --> 00:41:05,921 dalam menangani cabaran global yang rumit." 664 00:41:06,422 --> 00:41:10,134 "AI akan bantu individu dan organisasi buat keputusan berdasarkan maklumat." 665 00:41:10,217 --> 00:41:14,054 "Saya harap teknologi ini akan digunakan untuk kebaikan semua." 666 00:41:14,138 --> 00:41:16,974 "Menekankan etika pada setiap langkah." 667 00:41:18,809 --> 00:41:19,852 Sampah. 668 00:41:19,935 --> 00:41:22,438 Saya harap saya lebih menarik daripada ini. 669 00:41:24,815 --> 00:41:27,985 Rasanya saya setuju, tapi ia terlalu bijak. 670 00:41:28,068 --> 00:41:29,487 Ia tak kenal saya. 671 00:41:30,196 --> 00:41:32,239 Saya tak setuju. 672 00:41:32,823 --> 00:41:37,578 Ia letak AI sebagai subjek ayat. 673 00:41:37,661 --> 00:41:40,414 Ia tertulis, "AI akan…" 674 00:41:40,498 --> 00:41:43,083 Saya percaya manusia yang akan… 675 00:41:43,167 --> 00:41:48,881 Manusia menggunakan AI dan alat lain yang akan membantu 676 00:41:48,964 --> 00:41:53,427 menangani cabaran global yang rumit dan memupuk inovasi. 677 00:41:53,511 --> 00:41:55,888 Ia mungkin tak… 678 00:41:55,971 --> 00:41:57,848 Tak banyak perubahan perkataan, 679 00:41:57,932 --> 00:42:02,311 tapi ia perubahan falsafah yang sangat penting. 680 00:42:04,063 --> 00:42:08,108 Perbincangan ini boleh bertukar jadi mendalam dengan cepat. 681 00:42:09,777 --> 00:42:15,366 Bayangkan masa depan dengan automasi yang mencukupi 682 00:42:15,950 --> 00:42:17,618 hingga kebanyakan masa kita 683 00:42:18,953 --> 00:42:20,120 adalah masa lapang. 684 00:42:23,541 --> 00:42:27,586 Prinsip utama kita bukan lagi, 685 00:42:28,462 --> 00:42:30,798 "Kita perlu bekerja dan tanam makanan. 686 00:42:32,132 --> 00:42:35,302 Kita perlu bekerja dan bina semua alatan. 687 00:42:36,554 --> 00:42:41,058 Kita tak perlu duduk di deli dan buat sandwic 40 jam seminggu." 688 00:42:42,434 --> 00:42:46,480 Jadi, bagaimana manusia akan manfaatkan masa tambahan itu? 689 00:42:48,232 --> 00:42:51,610 Kejayaan mencipta cabaran, 690 00:42:51,694 --> 00:42:54,029 "Apa rupa matlamat seterusnya?" 691 00:42:56,156 --> 00:42:59,076 "Apa tujuan kewujudan manusia?" 692 00:43:28,105 --> 00:43:30,149 Terjemahan sari kata oleh NNorhan