1 00:00:16,059 --> 00:00:17,977 Saat aku menjalankan Microsoft… 2 00:00:18,061 --> 00:00:20,480 Hadirin, sambutlah Bill Gates. 3 00:00:21,397 --> 00:00:25,026 …kami sangat sukses, 4 00:00:25,109 --> 00:00:28,404 tapi saat itu aku mengerti akan ada berbagai pendapat. 5 00:00:28,488 --> 00:00:33,034 Jika masuk ke internet, terdapat apa yang orang pikirkan tentang Bill Gates. 6 00:00:33,117 --> 00:00:34,535 Kita bisa memukulnya. 7 00:00:34,619 --> 00:00:36,662 Bahkan melempar pai ke matanya. 8 00:00:37,163 --> 00:00:41,375 Kemudian ketika aku melakukan filantropi secara penuh, 9 00:00:41,459 --> 00:00:43,377 itu benar-benar mulai menggila. 10 00:00:43,461 --> 00:00:46,297 Benarkah jika kau menjatuhkan uang 10.000 dolar, 11 00:00:46,380 --> 00:00:49,550 itu tak sepadan dengan waktumu untuk membungkuk dan mengambilnya lagi? 12 00:00:49,634 --> 00:00:50,468 Tidak. 13 00:00:51,385 --> 00:00:55,807 Kekayaan ekstrem tentu saja memicu pertanyaan tentang motif kita, 14 00:00:55,890 --> 00:00:59,185 tapi ini berada dalam level yang benar-benar baru. 15 00:00:59,268 --> 00:01:01,479 KONSPIRASI NYATA YANG ADA DI INTERNET 16 00:01:01,562 --> 00:01:03,314 Mari kita lihat yang pertama. 17 00:01:06,234 --> 00:01:10,530 "Bill Gates dan tatanan dunia liberal sedang mengatur skema 18 00:01:10,613 --> 00:01:12,698 untuk memaksa orang makan serangga. 19 00:01:13,199 --> 00:01:16,035 Agenda mereka adalah untuk melemahkan kelas bawah 20 00:01:16,119 --> 00:01:18,871 dengan makanan serangga rendah protein." 21 00:01:20,498 --> 00:01:22,500 Aku akan sedih jika melakukan itu. 22 00:01:22,583 --> 00:01:23,584 Oke. Berikutnya. 23 00:01:24,377 --> 00:01:28,631 Ini lebih baik. "Bill Gates adalah kadal yang bisa berubah bentuk, 24 00:01:28,714 --> 00:01:32,718 bagian dari ras reptil termasuk Tom Hanks dan Lady Gaga. 25 00:01:33,469 --> 00:01:36,889 Para manusia kadal ini diam-diam melakukan kontrol global." 26 00:01:39,142 --> 00:01:41,269 Seseorang pernah bilang ini padaku. 27 00:01:41,352 --> 00:01:45,106 Tapi aku tak tahu Tom Hanks terlibat di dalamnya. Itu bagus. 28 00:01:45,189 --> 00:01:46,399 Berikutnya. 29 00:01:47,233 --> 00:01:51,279 "Bill Gates mengejar keabadian dengan meminum darah bayi." 30 00:01:52,947 --> 00:01:58,369 "Lahan pertanian luas milik Bill Gates diam-diam memasok kentang ke McDonald's 31 00:01:58,452 --> 00:02:03,541 untuk menanamkan vaksin Happy Meal ke kentang goreng mereka satu per satu." 32 00:02:04,125 --> 00:02:05,585 Aku makan McDonald's. 33 00:02:05,668 --> 00:02:07,003 Oke, yang terakhir. 34 00:02:08,045 --> 00:02:09,964 "Setelah kecelakaan mobil fatal, 35 00:02:10,047 --> 00:02:13,968 Bill Gates dan mantan istrinya Melinda telah digantikan oleh klona. 36 00:02:14,468 --> 00:02:17,096 Sebuah tim ilmuwan menciptakan pengganti 37 00:02:17,180 --> 00:02:20,391 untuk menjaga agar kendalinya atas dunia tak berakhir." 38 00:02:20,474 --> 00:02:21,726 Pernah dengar itu? 39 00:02:21,809 --> 00:02:24,020 Belum, kurasa Melinda masih orang sungguhan. 40 00:02:24,103 --> 00:02:25,229 Kalau kau? 41 00:02:25,313 --> 00:02:26,647 Aku berusaha. 42 00:02:32,528 --> 00:02:37,074 FAKTA ATAU KONSEKUENSI? 43 00:02:37,158 --> 00:02:39,785 KESALAHAN SISTEM 44 00:02:43,456 --> 00:02:46,709 Jadi, aku ingin bertanya padamu tentang kebenaran. 45 00:02:47,210 --> 00:02:51,005 Kau menganggapku sebagai orang yang didorong oleh data dan angka. 46 00:02:51,088 --> 00:02:54,133 Menurutmu ada perbedaan antara data dan kebenaran? 47 00:02:54,634 --> 00:03:01,015 Tidak juga. Maksudku, data adalah kumpulan fakta 48 00:03:01,098 --> 00:03:03,893 tentang berapa banyak barang yang dijual, 49 00:03:03,976 --> 00:03:05,645 ada berapa orang, 50 00:03:06,145 --> 00:03:08,731 kegiatan apa yang mereka lakukan? 51 00:03:08,814 --> 00:03:11,567 Itu semacam cara kita membuat keputusan. 52 00:03:12,693 --> 00:03:15,613 Hanya saja terkadang orang tak mengambil keputusan menurut fakta. 53 00:03:15,696 --> 00:03:17,782 Tapi menurut emosi atau narasi 54 00:03:17,865 --> 00:03:21,911 atau sesuatu yang diyakini orang sebagai kebenaran. 55 00:03:22,620 --> 00:03:24,705 PROFESOR STUDI INFORMASI 56 00:03:24,789 --> 00:03:27,583 "Pendapatku tentang konsep seperti kebenaran?" 57 00:03:27,667 --> 00:03:29,460 SEJARAWAN TEORI KONSPIRASI 58 00:03:29,543 --> 00:03:31,921 Kau ingin mulai dengan pertanyaan mudah. 59 00:03:32,004 --> 00:03:34,590 Kurasa ada hal-hal yang disebut fakta. 60 00:03:34,674 --> 00:03:37,468 Jika tanganku kumasukkan ke api, itu sakit. 61 00:03:37,551 --> 00:03:41,514 Tapi orang mempunyai cara berbeda dalam berpikir, merasionalisasi, 62 00:03:41,597 --> 00:03:43,057 mengklaim tahu sesuatu. 63 00:03:43,140 --> 00:03:47,520 Aku mulai berpikir lebih sadar soal bagaimana kita menciptakan kebenaran. 64 00:03:47,603 --> 00:03:48,896 Kebenaran bagi siapa? 65 00:03:48,980 --> 00:03:51,399 Kebenaran menjadi sesuatu yang bisa dinegosiasikan, 66 00:03:51,482 --> 00:03:56,070 dan menjadi sesuatu yang lebih mirip opini atau bahkan lebih buruk, keyakinan. 67 00:03:58,614 --> 00:04:01,784 Dunia ini terlalu rumit 68 00:04:01,867 --> 00:04:08,207 untuk memiliki cara yang lengkap berdasarkan fakta dalam memahami perilaku, 69 00:04:08,291 --> 00:04:11,377 cuaca, ekonomi, dan sebagainya. 70 00:04:11,460 --> 00:04:15,381 Jadi, kita memakai jalan pintas seperti, "Aku percaya orang ini." 71 00:04:16,799 --> 00:04:18,676 CBS Television menghadirkan 72 00:04:18,759 --> 00:04:22,179 reporter dan analis berita terkemuka, Edward R. Murrow. 73 00:04:22,263 --> 00:04:26,183 Untuk pertama kalinya, orang bisa duduk di rumah dan melihat dua laut sekaligus. 74 00:04:26,267 --> 00:04:27,768 Kami terkesan dengan media ini. 75 00:04:27,852 --> 00:04:31,731 Kami berharap bisa belajar memakainya dan tak menyalahgunakannya. 76 00:04:32,773 --> 00:04:36,652 Ada periode singkat saat kita beranggapan sebagai makhluk rasional 77 00:04:36,736 --> 00:04:40,114 yang punya keyakinan menurut fakta yang bisa diverifikasi. 78 00:04:40,197 --> 00:04:42,325 Tapi kita tidak hidup seperti itu. 79 00:04:42,408 --> 00:04:45,661 Akan butuh waktu lama jika kita tak percaya kata orang. 80 00:04:45,745 --> 00:04:49,498 Para ahli berkata, "Jangan percaya hanya karena itu diunggah." 81 00:04:49,582 --> 00:04:52,460 Q-Anon menyebar luas beberapa bulan terakhir. 82 00:04:53,044 --> 00:04:56,213 Internet memungkinkan adanya fantasi 83 00:04:56,297 --> 00:04:59,133 bahwa kita mengungkap kebenaran sendiri. 84 00:05:00,176 --> 00:05:02,011 Tapi kepercayaan tidak begitu. 85 00:05:02,094 --> 00:05:06,974 Kita tak bisa mengurangi kepercayaan di suatu kelompok dan menambah yang lain. 86 00:05:07,058 --> 00:05:10,186 Kepercayaan cuma bisa naik atau turun, dan jika turun, 87 00:05:10,269 --> 00:05:12,188 itu mengacaukan banyak hal. 88 00:05:12,271 --> 00:05:15,149 Apa pun yang kita dengar, kita duduk dan seperti… 89 00:05:15,232 --> 00:05:17,276 Entah harus percaya apa. 90 00:05:17,360 --> 00:05:19,820 Kepercayaan pada tetangga, pada pemimpin… 91 00:05:19,904 --> 00:05:21,113 Orang-orang, bangun! 92 00:05:21,697 --> 00:05:23,366 …dan institusi pengetahuan… 93 00:05:23,449 --> 00:05:25,159 Kau CNN. Kau berita bohong. 94 00:05:25,743 --> 00:05:27,870 …dan itu akan kembali dan menyerang. 95 00:05:27,953 --> 00:05:29,997 Kau tak tahu aku mau melindungimu? 96 00:05:30,081 --> 00:05:32,833 - Kenapa… - Kebebasan! 97 00:05:33,417 --> 00:05:35,878 KOTA NEW YORK 98 00:05:38,172 --> 00:05:40,591 Selalu ada teori konspirasi di luar sana. 99 00:05:41,175 --> 00:05:44,637 Kita meremehkan betapa kreatifnya orang Amerika, 100 00:05:44,720 --> 00:05:47,056 dan kurasa aku sering ke lapangan… 101 00:05:47,139 --> 00:05:49,100 PEMBAWA ACARA SINIAR DAN KOMEDIAN 102 00:05:49,183 --> 00:05:52,645 dengan ide, pertanyaan, dan mungkin argumen rasional seputar pertanyaan itu. 103 00:05:52,728 --> 00:05:53,979 Aku ke kampanye Trump 104 00:05:54,063 --> 00:05:56,774 di negara bagian mengambang Ohio dan Wisconsin 105 00:05:56,857 --> 00:06:00,027 untuk mengetahui yang mereka tahu dan kita tidak tahu. 106 00:06:00,111 --> 00:06:03,239 - Barack Obama terlibat 9/11. - Bagian mana? 107 00:06:03,322 --> 00:06:06,742 Dia tak selalu ada, liburan terus, tak pernah di kantor. 108 00:06:06,826 --> 00:06:10,538 Menurutmu kenapa Barack Obama tak ada di Oval Office pada 9/11? 109 00:06:10,621 --> 00:06:11,705 Aku tak tahu. 110 00:06:11,789 --> 00:06:14,500 Itu dimulai di era Trump 111 00:06:14,583 --> 00:06:18,462 saat kami mendapat cerita dan teori yang tidak terduga. 112 00:06:18,546 --> 00:06:19,964 Itu lebih dari sekadar 113 00:06:20,047 --> 00:06:23,467 "Aku tak setuju dengan pandanganmu. Aku konservatif," 114 00:06:23,551 --> 00:06:25,970 hingga "Aku menciptakan kenyataan baru," 115 00:06:26,053 --> 00:06:29,014 tapi juga hal-hal yang belum pernah kudengar. Gila. 116 00:06:29,098 --> 00:06:32,643 Saat itu, kupikir, "Aku ingin tahu di mana saja ini terjadi." 117 00:06:32,726 --> 00:06:33,644 SIARAN LANGSUNG 118 00:06:33,727 --> 00:06:36,689 Jika kalian suka konspirasi dan/atau komputer, 119 00:06:36,772 --> 00:06:40,067 kalian mungkin tahu Bill Gates. Semoga tak salah ucap. 120 00:06:40,151 --> 00:06:44,196 Entah itu dari kontrol populasi sampai vaksin mikrocip, 121 00:06:44,280 --> 00:06:48,117 teorinya luas, dan konsekuensinya di dunia nyata juga nyata. 122 00:06:48,200 --> 00:06:53,289 Jadi, Kathryn Joyce dan Ike Sriskandarajah akan membantuku menggalinya. 123 00:06:53,372 --> 00:06:57,585 Bantu aku mengungkap bagaimana konspirasi ini bisa melekat pada mereka, 124 00:06:57,668 --> 00:07:01,005 apa kebenaran dalam beberapa teori ini, 125 00:07:01,088 --> 00:07:02,965 dan mana yang harus kupercaya. 126 00:07:03,048 --> 00:07:07,386 Sebab aku siap menghabiskan waktu dan uang untuk konspirasi bagus. 127 00:07:07,470 --> 00:07:09,388 Jadi, semoga kalian bisa bantu. 128 00:07:09,972 --> 00:07:14,059 Mari kita kembali ke masa lalu, oke? Mari kembali ke tahun 2010. 129 00:07:14,143 --> 00:07:15,019 GHANA, AFRIKA 130 00:07:15,102 --> 00:07:19,607 Saat yayasan kami pertama kali berdiri, itu fokus pada kesehatan reproduksi. 131 00:07:19,690 --> 00:07:23,652 Pertumbuhan penduduk di negara miskin jadi masalah terbesar mereka. 132 00:07:23,736 --> 00:07:28,866 Ibu yang mau membatasi anak harus diberi alat dan pendidikan untuk melakukan itu. 133 00:07:29,492 --> 00:07:34,872 Gates Foundation melihat komunitas pedesaan di Ghana, 134 00:07:34,955 --> 00:07:40,252 lalu mereka mencari cara untuk memperluas akses ke keamanan kontrasepsi 135 00:07:40,336 --> 00:07:44,381 untuk wanita yang ingin bisa mengatur kesuburan mereka 136 00:07:44,465 --> 00:07:46,133 atau merencanakan kelahiran. 137 00:07:46,217 --> 00:07:50,387 Ini berubah menjadi teori konspirasi yang sangat rumit. 138 00:07:50,471 --> 00:07:55,643 Mereka mengklaim bahwa Gates Foundation mendanai eksperimen pengendalian populasi 139 00:07:55,726 --> 00:07:58,270 untuk membatasi populasi Afrika. 140 00:07:58,354 --> 00:07:59,772 Dari mana asal teorinya? 141 00:07:59,855 --> 00:08:03,359 Ini memanfaatkan banyak isu lama yang sangat ampuh. 142 00:08:04,276 --> 00:08:06,487 Ada pelanggaran hak asasi manusia. 143 00:08:06,570 --> 00:08:07,863 Pada tahun 1960-an, 144 00:08:07,947 --> 00:08:11,450 sepertiga dari wanita Puerto Rico akhirnya disterilkan. 145 00:08:12,034 --> 00:08:14,411 Ada Tuskegee Study. 146 00:08:14,495 --> 00:08:18,123 Ada banyak isu. Kita, sebagai masyarakat, telah melakukan ini. 147 00:08:18,207 --> 00:08:23,087 - Kita mensterilkan orang secara paksa. - Asal kau tahu, aku belum melakukannya. 148 00:08:23,170 --> 00:08:26,048 Ada beberapa tahun di masa kuliahku 149 00:08:26,131 --> 00:08:30,844 saat aku lupa tentang apa yang kulakukan, tapi bisa kupastikan, bukan itu. 150 00:08:31,512 --> 00:08:32,346 Itu bagus. 151 00:08:32,429 --> 00:08:36,684 Tapi bagaimana bisa berubah cepat dari nol menjadi pengendalian populasi, 152 00:08:36,767 --> 00:08:38,561 khususnya dengan Bill Gates? 153 00:08:38,644 --> 00:08:40,938 Ini melibatkan aktivis antiaborsi… 154 00:08:41,021 --> 00:08:43,023 PAWAI UNTUK KEHIDUPAN 155 00:08:43,107 --> 00:08:47,194 …yang secara sinis mengambil alih kepentingan-kepentingan ini. 156 00:08:47,695 --> 00:08:48,904 Lalu pada tahun 2012 157 00:08:48,988 --> 00:08:53,576 ketika Gates Foundation benar-benar terlibat dalam kampanye besar yang baru, 158 00:08:53,659 --> 00:08:55,244 semua jadi jelas. 159 00:08:55,327 --> 00:08:58,581 Organisasi-organisasi barat yang kaya ini 160 00:08:58,664 --> 00:09:01,834 tak hanya menyuruh kami untuk mengendalikan populasi, 161 00:09:01,917 --> 00:09:04,670 mereka datang dengan obat mereka sendiri. 162 00:09:04,753 --> 00:09:06,505 Ini tragedi! 163 00:09:06,589 --> 00:09:07,548 UNJUK RASA ANTIABORSI 164 00:09:07,631 --> 00:09:09,216 Ini genosida. 165 00:09:11,885 --> 00:09:14,847 Satu alasan teori konspirasi ini menjadi menarik 166 00:09:14,930 --> 00:09:17,016 adalah karena ada sedikit kebenaran 167 00:09:17,099 --> 00:09:19,727 bahwa layanan kesehatan tidak dan belum adil. 168 00:09:25,190 --> 00:09:28,319 Aku sering bilang bahwa Bill Gates bukan Darth Vader. 169 00:09:28,402 --> 00:09:29,236 "Kok tahu?" 170 00:09:29,320 --> 00:09:31,530 "Aku kenal dia. Dia sibuk bekerja." 171 00:09:31,614 --> 00:09:33,907 Aku bertemu dengannya 109 kali. 172 00:09:34,491 --> 00:09:38,454 Bagaimana kau melihat keadaan saat ini, terutama di internet? 173 00:09:39,121 --> 00:09:42,583 Kita akan melihat kembali masa ini sebagai salah satu periode besar penemuan. 174 00:09:42,666 --> 00:09:45,836 Kurasa banyak orang yang memulai internet melihatnya 175 00:09:45,919 --> 00:09:48,464 sebagai cara untuk menyatukan, memperluas pengetahuan, 176 00:09:48,547 --> 00:09:50,382 dan banyak hal awalnya begitu. 177 00:09:50,466 --> 00:09:51,759 Apa yang terjadi? 178 00:09:51,842 --> 00:09:53,677 Itu berubah, 'kan? 179 00:09:55,346 --> 00:09:56,680 Kau dapat surel. 180 00:09:58,140 --> 00:10:00,851 Itu keputusan bisnis sejak awal 181 00:10:00,934 --> 00:10:05,189 untuk membuat platform, membuat ruang, membuat taman bermain, 182 00:10:05,272 --> 00:10:07,066 dan mengundang semua orang. 183 00:10:07,149 --> 00:10:11,153 Saat peluncuran pertama, kami berharap 400, 500 orang bergabung. 184 00:10:11,236 --> 00:10:15,199 Sekarang kami punya 100.000 orang, jadi apa pun bisa terjadi. 185 00:10:15,282 --> 00:10:20,704 Karena tanpa kita di seluruh dunia yang terus mengisi ruang ini 186 00:10:20,788 --> 00:10:25,167 dengan ekspresi diri kita, apa pun bentuknya, 187 00:10:25,250 --> 00:10:27,920 ini pada dasarnya adalah bejana kosong. 188 00:10:28,587 --> 00:10:32,633 Jadi, itu jadi model bisnis "Kita akan selesaikan masalahnya nanti." 189 00:10:33,133 --> 00:10:36,261 Hukum ini adalah UU yang benar-benar revolusioner 190 00:10:36,762 --> 00:10:39,390 yang akan membawa masa depan ke hadapan kita. 191 00:10:39,473 --> 00:10:42,434 Dulu, jika kita bertanggung jawab atas semua yang ada di platform, 192 00:10:42,518 --> 00:10:45,229 kita bisa dituntut bahkan sebelum mulai. 193 00:10:45,979 --> 00:10:48,607 Jadi, mereka mencoba menciptakan perlindungan 194 00:10:48,691 --> 00:10:50,317 agar perusahaan ini tumbuh. 195 00:10:50,401 --> 00:10:54,321 Internet berubah terlalu cepat. Isinya berubah terlalu cepat. 196 00:10:54,405 --> 00:10:58,617 Jika pemerintah berpikir bisa mengendalikan, menetapkan, dan mengaturnya 197 00:10:58,701 --> 00:11:01,829 saat masih dalam tahap awal, itu pasti gagal. 198 00:11:02,454 --> 00:11:08,752 Jadi, undang-undang khusus ini, disebut Pasal 230, memutuskan bahwa 199 00:11:08,836 --> 00:11:14,466 alih-alih platform bertanggung jawab atas konten yang muncul di layanan mereka, 200 00:11:14,550 --> 00:11:19,221 mereka justru dibebaskan dari tanggung jawab atas materi tersebut. 201 00:11:19,847 --> 00:11:22,725 RUU ini melindungi konsumen dari monopoli. 202 00:11:22,808 --> 00:11:26,770 Ini menjamin keberagaman suara yang menjadi sandaran demokrasi kita. 203 00:11:27,438 --> 00:11:31,108 Mungkin yang terpenting, hal ini meningkatkan kebaikan bersama. 204 00:11:31,692 --> 00:11:33,944 Tapi saat Pasal 230 muncul, 205 00:11:34,027 --> 00:11:37,489 kita bicara tentang perusahaan yang memiliki dinding modem 206 00:11:37,573 --> 00:11:39,742 dan koneksi T1 ke internet. 207 00:11:39,825 --> 00:11:44,788 Jadi, masuk akal untuk menganggap perusahaan-perusahaan ini tidak lebih 208 00:11:44,872 --> 00:11:48,751 dari saluran netral untuk informasi seperti bayangan Pasal 230. 209 00:11:49,960 --> 00:11:54,214 Dan sekarang UU ini melindungi orang kaya dan perusahaan paling kuat 210 00:11:54,298 --> 00:11:55,507 dalam sejarah dunia. 211 00:11:57,217 --> 00:12:00,220 Mereka tak menduga betapa bagusnya media tersebut 212 00:12:00,304 --> 00:12:03,557 untuk sembunyi dan jadi anonim dengan cara yang jahat. 213 00:12:04,308 --> 00:12:08,020 Kau tahu, TV dan siaran, siaran bahkan memiliki batas. 214 00:12:08,645 --> 00:12:11,315 Surat kabar dan media fisik memiliki batas, 215 00:12:11,398 --> 00:12:14,443 tapi kemudian hal adiktif dan asyik ini dikenalkan 216 00:12:14,526 --> 00:12:16,487 dan penuh dengan hal-hal gila. 217 00:12:16,570 --> 00:12:18,447 Itu cantik. Sangat berkilau. 218 00:12:18,530 --> 00:12:21,366 Itu sangat menarik, dan hidup kita membosankan. 219 00:12:21,450 --> 00:12:23,577 Itu agar kita tertarik, bukan? 220 00:12:23,660 --> 00:12:26,413 Jika kita masih di sana, maka itu memutar hal 221 00:12:26,497 --> 00:12:31,210 yang terus membuat kita makin terobsesi dan kita tak akan pernah kembali. 222 00:12:33,086 --> 00:12:34,213 - Hai. - Hai, Bill. 223 00:12:35,214 --> 00:12:39,885 Latar belakang kita berbeda. Aku bukan seniman dan kau bukan pemrogram. 224 00:12:39,968 --> 00:12:44,097 Oke, tapi rasanya tak adil saat kau bilang kau bukan seniman. 225 00:12:44,181 --> 00:12:47,768 - Kau baik sekali. - Tapi aku jelas bukan pemrogram. 226 00:12:47,851 --> 00:12:51,980 Mengingat semua hal yang terjadi pada kita dengan misinformasi, 227 00:12:52,064 --> 00:12:55,317 apa kau merasa empat tahun terakhir ini lebih intens? 228 00:12:55,400 --> 00:13:00,489 Kurasa kita telah melihat bagaimana misinformasi merusak hidup banyak orang. 229 00:13:00,572 --> 00:13:01,824 Tentu saja. 230 00:13:01,907 --> 00:13:05,410 Cara kita mengonsumsi informasi saat ini 231 00:13:05,494 --> 00:13:11,041 semakin mengaburkan batas antara hiburan dan konten faktual 232 00:13:11,124 --> 00:13:13,168 dibandingkan dengan sebelumnya. 233 00:13:13,252 --> 00:13:16,755 Ya, gagasan bahwa jika itu agak ekstrem dan lucu, 234 00:13:17,464 --> 00:13:22,594 itu hampir seperti, "Yah, oke, mungkin itu tidak benar, tapi itu membuatku tertawa," 235 00:13:22,678 --> 00:13:24,638 atau, "Aku harap itu benar." 236 00:13:24,721 --> 00:13:26,890 Ya, cerita menghiburnya adalah, 237 00:13:26,974 --> 00:13:31,395 "Bill Gates benci omongan orang soal dia dalam kaitannya dengan vaksin," 238 00:13:31,478 --> 00:13:34,648 atau "Lady Gaga malu mendengar rumor ini," 239 00:13:34,731 --> 00:13:38,861 tapi aku terbiasa dengan berita bohong tentangku sejak usiaku 20 tahun. 240 00:13:38,944 --> 00:13:41,697 Jadi, aku penampil. Kurasa itu cukup lucu. 241 00:13:42,614 --> 00:13:45,033 Orang jelas berpikir kau bukan dirimu 242 00:13:45,117 --> 00:13:47,494 karena kau memakai banyak riasan dan… 243 00:13:47,578 --> 00:13:51,456 Aku memang seperti ini. Aku memang benar-benar seperti ini. 244 00:13:51,540 --> 00:13:54,668 Ini cangkir tempatku minum setiap hari. 245 00:13:54,751 --> 00:13:58,088 Ini berlian yang kumasukkan ke kopiku saat gugup. 246 00:13:58,171 --> 00:13:59,965 Bukan berlian asli. Ini palsu. 247 00:14:00,549 --> 00:14:06,388 Aku merasa aku tahu secara langsung betapa masyarakat amat benci dimanipulasi. 248 00:14:06,471 --> 00:14:09,933 Manipulasi hiburan adalah bagian besar dari karierku. 249 00:14:10,517 --> 00:14:14,980 Saat aku pergi ke MTV Awards dengan tentara yang dibebastugaskan 250 00:14:15,063 --> 00:14:18,692 selama "Don't Ask, Don't Tell," aku memakai gaun daging, 251 00:14:18,775 --> 00:14:22,154 dan penggemarku suka karena mereka pikir itu cerdas. 252 00:14:22,237 --> 00:14:26,241 Mereka bilang, "Ia memakai hiburan untuk melanjutkan agenda politik," 253 00:14:26,325 --> 00:14:28,493 tapi itu meresahkan orang-orang 254 00:14:28,577 --> 00:14:31,914 yang tak mau bicara soal hak LGBTQ+ pada saat itu. 255 00:14:31,997 --> 00:14:34,207 Hentikan konser Lady Gaga! 256 00:14:34,291 --> 00:14:38,253 Ya, cara sesatmu tidak sejalan dengan nilai-nilai agama, Sayang. 257 00:14:38,337 --> 00:14:39,463 Cara sesatku? 258 00:14:40,422 --> 00:14:44,635 Dengan melakukan hal yang mengganggu, kurasa yang ingin kukatakan adalah 259 00:14:44,718 --> 00:14:47,804 aku tahu sebagai penampil betapa publik membenci itu. 260 00:14:48,388 --> 00:14:51,183 Dalam kasusku, kebanyakan soal vaksin. 261 00:14:51,808 --> 00:14:54,937 Aku memang terkait dengan vaksin. Bagian itu benar. 262 00:14:55,020 --> 00:14:59,149 Tapi jika hanya ada satu atau dua, dan itu bukan fenomena luas, 263 00:14:59,232 --> 00:15:04,571 aku akan mencoba mengatakan, "Hei, tunggu. Serang yang lain. Jangan serang vaksin." 264 00:15:04,655 --> 00:15:07,908 Kau mungkin tidak tersinggung secara pribadi karenanya, 265 00:15:07,991 --> 00:15:09,368 tapi itu bisa memengaruhi 266 00:15:09,451 --> 00:15:14,206 hubungan masyarakat terhadap vaksin dan kepercayaan mereka selama satu dekade. 267 00:15:14,289 --> 00:15:18,377 Dan jika publik kehilangan kepercayaan, tak ada cara menghentikannya. 268 00:15:18,460 --> 00:15:19,294 Ya. 269 00:15:21,630 --> 00:15:24,424 Ike, aku mau melibatkanmu dalam percakapan juga. 270 00:15:24,508 --> 00:15:28,178 Ada sesuatu dalam karakter Amerika, kebutuhan akan pembubuhan. 271 00:15:28,261 --> 00:15:32,557 Di setiap hal, kita melontarkan ide, lalu membubuhi satu fakta tambahan. 272 00:15:32,641 --> 00:15:36,061 Ini seperti permainan bisikan berantai. 273 00:15:36,144 --> 00:15:39,648 Di situlah kita dapat teori konspirasi vaksin mikrocip. 274 00:15:39,731 --> 00:15:41,441 Sudahkah ada nama yang bagus? 275 00:15:41,525 --> 00:15:43,944 Konspirasi COVID? Konspirasi mikrocip? 276 00:15:44,027 --> 00:15:47,447 Kurasa akan kusebut teori konspirasi vaksin mikrocip. 277 00:15:47,531 --> 00:15:49,366 - Oke. - Ada ide lebih baik? 278 00:15:49,449 --> 00:15:53,954 Tidak. Maksudku, itu bertele-tele, tapi berisi semua istilah yang bisa dicari 279 00:15:54,037 --> 00:15:55,455 yang berguna di Reddit. 280 00:15:55,539 --> 00:15:59,126 - Itu mudah dicari di mesin pencari. - Apa itu? Beri aku gagasan umum. 281 00:15:59,209 --> 00:16:02,129 Oke, jadi aku mendengarkan The Breakfast Club… 282 00:16:02,713 --> 00:16:05,173 Pagi, Semuanya. Ini The Breakfast Club. 283 00:16:05,257 --> 00:16:08,635 Jika kalian baru bergabung, kami bicara soal Donald Trump. 284 00:16:08,719 --> 00:16:11,304 Kemarin ia dan istrinya kena virus korona. 285 00:16:11,388 --> 00:16:13,724 Menurut kalian itu nyata atau hoaks? 286 00:16:13,807 --> 00:16:16,393 Apa ia benar-benar terkena virus korona? 287 00:16:17,144 --> 00:16:18,770 Jadi, dia siaran saat pagi, 288 00:16:18,854 --> 00:16:22,524 lalu memulai percakapan ke arah yang tak kuduga. 289 00:16:22,607 --> 00:16:24,776 Ini Charlamagne Tha God, Lenard McKelvey bicara. 290 00:16:24,860 --> 00:16:27,112 Aku tak percaya. Ini mungkin cuma aksi 291 00:16:27,195 --> 00:16:30,949 untuk membuat vaksin murah yang dikeluarkan terlihat aman. 292 00:16:31,033 --> 00:16:33,827 Dia akan pakai itu di TV nasional, lalu sembuh, 293 00:16:33,910 --> 00:16:36,705 dan memberi ilusi bahwa vaksinnya aman. 294 00:16:36,788 --> 00:16:39,291 Ia jadi pahlawan karena mencobanya pertama. 295 00:16:39,374 --> 00:16:43,462 Jutaan orang mengantre vaksin dan bum! Implan mikrocip untuk kalian. 296 00:16:44,296 --> 00:16:48,300 Dan aku seperti, "Wow. Semua orang tahu dia bercanda, 'kan?" 297 00:16:48,383 --> 00:16:50,010 Aku ingat itu selama COVID. 298 00:16:50,093 --> 00:16:53,055 Itu saat semua orang menjadi gila karena terkurung. 299 00:16:53,138 --> 00:16:56,224 Dan ide apakah kita harus memercayai vaksin ini, 300 00:16:56,308 --> 00:16:58,602 itu pokok pembicaraan. 301 00:16:58,685 --> 00:17:02,189 Ya, tapi dia mengatakannya empat kali. 302 00:17:02,272 --> 00:17:05,609 Mikrocip. Implan mikrocip! Mikrocip. Di pantat kalian. 303 00:17:05,692 --> 00:17:06,902 Aku seperti, 304 00:17:06,985 --> 00:17:11,531 "Aku khawatir orang akan mendengar ini dan tidak berpikir dia bercanda." 305 00:17:12,032 --> 00:17:13,825 Dan aku punya pertanyaan, 306 00:17:13,909 --> 00:17:18,080 "Apakah orang-orang percaya ini? Berapa banyak orang yang percaya ini? 307 00:17:18,705 --> 00:17:22,918 Dan apa efeknya dalam perjuangan kita melawan COVID?" 308 00:17:23,001 --> 00:17:26,963 Aku terkejut bahwa saat itu kau masih berharap pesannya bisa jelas. 309 00:17:27,047 --> 00:17:27,964 Ya. 310 00:17:28,048 --> 00:17:33,011 Ingatanku saat itu, pikiran kita kacau, memikirkan Tiger King dan resep sourdough. 311 00:17:33,887 --> 00:17:39,976 Jadi, aku ingin tahu apakah kita bisa menerapkan metodologi pelacakan kontak 312 00:17:40,060 --> 00:17:43,605 untuk melacak kebohongan sampai ke asalnya. 313 00:17:43,688 --> 00:17:50,654 Dan awal dari teori konspirasi vaksin mikrocip ini dimulai 314 00:17:50,737 --> 00:17:54,533 dengan Reddit AMA yang dibawakan Bill Gates. 315 00:17:54,616 --> 00:17:56,076 INI BILL GATES BEKERJA DARI RUMAH 316 00:17:56,159 --> 00:18:00,288 Dan dia memperkirakan masa depan akan mengharuskan kita semua 317 00:18:00,372 --> 00:18:03,667 memiliki semacam paspor digital. 318 00:18:03,750 --> 00:18:07,546 Bukan mikrocip, bukan sesuatu yang ditanamkan ke tubuh, 319 00:18:07,629 --> 00:18:09,840 tapi di situlah semuanya dimulai. 320 00:18:09,923 --> 00:18:14,386 Jadi, untuk melanjutkan, apa yang terjadi usai orang melihat AMA? 321 00:18:14,970 --> 00:18:19,182 Itu menyebar melalui internet ke Swedia. 322 00:18:19,266 --> 00:18:20,225 SEATTLE - SWEDIA 323 00:18:20,308 --> 00:18:22,394 Di mana beberapa peretasbio… 324 00:18:22,477 --> 00:18:27,190 Orang yang suka menyuntikkan teknologi ke tubuh agar berubah menjadi Iron Man? 325 00:18:27,774 --> 00:18:30,569 Orang-orang ini adalah pendukungnya. 326 00:18:30,652 --> 00:18:35,866 Mereka menyuntik timah ke nadi dan mendukung gagasan manusia jadi robot? 327 00:18:35,949 --> 00:18:40,579 Mereka pendukung kuat teknologi implan. 328 00:18:40,662 --> 00:18:43,456 - Aku di sini bukan atas nama mereka. - Ayolah. 329 00:18:43,540 --> 00:18:46,793 Inilah sebabnya orang tak bisa percaya media. Jujurlah. 330 00:18:46,877 --> 00:18:49,337 - Oke, mereka agak gila. - Terima kasih. 331 00:18:49,421 --> 00:18:52,549 Ini dua kali dua belas milimeter. 332 00:18:52,632 --> 00:18:56,136 Ukurannya sama dengan sebutir beras. 333 00:18:56,720 --> 00:19:00,140 Para peretasbio ini mencari peluang 334 00:19:00,223 --> 00:19:04,686 untuk mengedepankan isu mikrocip yang dapat ditanamkan pada manusia. 335 00:19:04,769 --> 00:19:10,066 Aku melakukan sistem masuk tunggal di laptop, membuka ponsel, masuk rumah. 336 00:19:10,692 --> 00:19:13,987 Cypher, si peretasbio yang memperhatikan ini, 337 00:19:14,070 --> 00:19:17,657 mengunggah judul, sedikit provokatif, sedikit menyesatkan. 338 00:19:17,741 --> 00:19:18,950 Itu berbunyi, 339 00:19:19,034 --> 00:19:23,747 "Bill Gates akan memakai implan mikrocip untuk melawan virus korona." 340 00:19:23,830 --> 00:19:25,081 Dia mengunggah judul. 341 00:19:25,165 --> 00:19:27,459 Apa artinya? Apa dia punya koran? 342 00:19:28,335 --> 00:19:31,630 Ini masalahnya. Kita bisa unggah judul seolah-olah fakta. 343 00:19:31,713 --> 00:19:33,715 Dia terlampau yakin dan berkata, 344 00:19:33,798 --> 00:19:36,509 "Ini akan disuntikkan ke tubuh." 345 00:19:36,593 --> 00:19:38,970 Ya, dan kau tahu cara kerja internet. 346 00:19:39,054 --> 00:19:42,599 Itu menghancurkan umat manusia lebih cepat dari dugaan kita? 347 00:19:42,682 --> 00:19:43,516 Kau tahu… 348 00:19:43,600 --> 00:19:47,312 Kita harus bicara dengan pria yang ada di awal gerakan komputer. 349 00:19:47,395 --> 00:19:50,899 Siapa namanya? Bill. Bill Gates. 350 00:19:56,154 --> 00:20:00,992 Halo, ini Adam dari Law of Liberty. Aku ingin berbagi artikel hari ini. Lihat. 351 00:20:01,076 --> 00:20:05,872 Artikel ini sampai ke meja seorang pendeta Jacksonville. 352 00:20:05,956 --> 00:20:08,166 Dia membuat video YouTube. 353 00:20:08,250 --> 00:20:09,584 Artikel ini berbunyi, 354 00:20:09,668 --> 00:20:12,671 “Bill Gates akan meluncurkan kapsul yang dapat ditanam pada manusia 355 00:20:12,754 --> 00:20:15,090 yang memiliki 'sertifikat digital' 356 00:20:15,173 --> 00:20:19,135 dan bisa menunjukkan siapa yang kena virus korona." 357 00:20:19,219 --> 00:20:23,807 Ini cukup mengkhawatirkan untuk orang Kristen yang percaya Alkitab 358 00:20:23,890 --> 00:20:26,393 dan tahu isi Alkitab tentang akhir zaman. 359 00:20:26,476 --> 00:20:30,355 Tahu bahwa Alkitab berkata akan ada Antikristus, 360 00:20:30,438 --> 00:20:35,318 seorang pria yang mengaku sebagai Tuhan yang memuliakan Naga, 361 00:20:35,402 --> 00:20:36,361 yaitu Iblis. 362 00:20:36,444 --> 00:20:38,488 Dia memberi judul videonya 363 00:20:38,571 --> 00:20:43,159 "Bill Gates - Implan Vaksin Mikrocip untuk melawan Virus Korona." 364 00:20:44,160 --> 00:20:46,204 Dia menambahkan kata "vaksin". 365 00:20:46,288 --> 00:20:47,455 BILL GATES JAHAT 366 00:20:47,539 --> 00:20:48,415 TOLAK VAKSIN 367 00:20:48,498 --> 00:20:52,711 Saya sudah membaca artikel tentang penanaman cip dengan vaksin. 368 00:20:52,794 --> 00:20:56,589 Kapan lidah ular Bill Gates akan keluar dari mulutnya, 369 00:20:56,673 --> 00:20:59,509 dan kapan tanduk dan ekornya muncul? 370 00:20:59,592 --> 00:21:02,512 Jadi, saat kamera, 5G keluar, apa? 371 00:21:02,595 --> 00:21:04,764 Semua orang dipindai? Kita dipindai? 372 00:21:05,640 --> 00:21:09,728 Ya, aku ingat aku mendatangi unjuk rasa antivaksin di Orange County. 373 00:21:09,811 --> 00:21:11,938 Orang-orang bicara soal Bill Gates. 374 00:21:12,522 --> 00:21:14,816 Mereka bicara seolah-olah dia Thanos. 375 00:21:14,899 --> 00:21:18,445 Seolah-olah dia ingin seperenam dari populasi lenyap. 376 00:21:23,867 --> 00:21:26,494 Penting untuk bilang bahkan sebelum pandemi, 377 00:21:26,578 --> 00:21:29,622 ada sekelompok orang yang antivaksin. 378 00:21:29,706 --> 00:21:30,999 VAKSIN MEMBUNUH 379 00:21:31,082 --> 00:21:35,503 Ada beberapa yang berhaluan kiri, beberapa berhaluan kanan, 380 00:21:35,587 --> 00:21:38,381 dan keduanya sama-sama punya rasa kebebasan 381 00:21:38,465 --> 00:21:40,675 dan skeptisisme terhadap pemerintah. 382 00:21:40,759 --> 00:21:45,472 Bagaimana itu berubah menjadi, "Ada cip di vaksin." 383 00:21:45,555 --> 00:21:50,310 Bagaimana itu bisa melewati jarum? Aku tak tahu. Dan apa sumber dayanya? 384 00:21:51,186 --> 00:21:56,649 Itu pertama kalinya aku mengalami teori konspirasi menyeluruh 385 00:21:56,733 --> 00:22:00,153 yang menyatakan aku terlibat dalam terciptanya pandemi ini. 386 00:22:00,236 --> 00:22:02,989 Itu salah satu yang paling ekstrem. 387 00:22:03,490 --> 00:22:08,119 Jadi, itu hal yang sangat baru dan sangat mengejutkan. 388 00:22:11,289 --> 00:22:15,543 Nah, selama pandemi, kita sering mengobrol. 389 00:22:15,627 --> 00:22:19,255 Sebagian besar adalah "Oke, wow. Dunia menjadi sedikit gila. 390 00:22:19,339 --> 00:22:20,298 Kau tak apa? 391 00:22:20,382 --> 00:22:23,802 Kau melihatnya sepertiku? Kau dengar yang terbaru?" 392 00:22:23,885 --> 00:22:28,139 Komunikasi terus-menerus kita soal itu seperti terapi secara psikologis. 393 00:22:28,223 --> 00:22:30,016 PROFESOR UNIVERSITAS TERKEMUKA 394 00:22:31,434 --> 00:22:35,814 Karena setidaknya aku tahu seseorang yang mengerti apa yang aku alami. 395 00:22:35,897 --> 00:22:37,357 FAUCI SALAH 396 00:22:37,440 --> 00:22:39,442 Bunuh Bill Gates! 397 00:22:39,526 --> 00:22:43,363 Pada awal pandemi, orang menuduhku meraup uang 398 00:22:43,446 --> 00:22:47,951 dan bahkan mengatakan bahwa aku sengaja mengeluarkan vaksin 399 00:22:48,034 --> 00:22:50,412 yang telah menyebabkan jutaan kematian. 400 00:22:50,495 --> 00:22:52,789 - Benar. - Itu membalikkan kebenaran. 401 00:22:52,872 --> 00:22:55,834 Alih-alih menghabiskan miliaran untuk menyelamatkan jutaan, 402 00:22:55,917 --> 00:22:58,878 aku membunuh jutaan untuk menghasilkan miliaran. 403 00:22:58,962 --> 00:23:04,634 Ya, saat kita bicara dengan orang yang berpandangan amat tidak benar, 404 00:23:04,717 --> 00:23:09,097 dan kita bilang, "Itu tak benar. Bagaimana kau sampai pada kesimpulan itu?" 405 00:23:09,180 --> 00:23:12,600 yang sering terjadi, "Seseorang menunjukkan sebuah twit." 406 00:23:12,684 --> 00:23:14,936 Jadi, kita bisa menerima kebohongan, 407 00:23:15,019 --> 00:23:19,065 mengetwitkan, dan mengetwitkan ulang 100.000 kali, lalu jadi fakta. 408 00:23:21,109 --> 00:23:22,819 KOTA NEW YORK 409 00:23:22,902 --> 00:23:24,946 Aku ingat kita punya aturan 410 00:23:25,029 --> 00:23:28,283 pada waktu tertentu saat malam kau dilarang main ponsel… 411 00:23:28,366 --> 00:23:29,367 PUTRI DAN PENDIRI PHIA 412 00:23:29,451 --> 00:23:33,538 jadi terkadang saat ibumu tidur, aku yang harus menegakkan aturan, 413 00:23:33,621 --> 00:23:36,791 tapi akhirnya kau punya ponsel kedua atau semacamnya. 414 00:23:36,875 --> 00:23:40,503 Tapi apa kau merasa, bahkan di usia ini, menggunakan ponsel 415 00:23:40,587 --> 00:23:43,006 dan medsos lebih dari yang kau mau? 416 00:23:43,089 --> 00:23:47,218 Astaga, ya. TikTok sangat adiktif. Aku selalu membukanya. 417 00:23:47,302 --> 00:23:50,513 Apa kau pernah melihat misinformasi gila tentangku? 418 00:23:51,222 --> 00:23:53,892 Misnformasi gila tentangmu? Sangat sering. 419 00:23:53,975 --> 00:23:56,811 Bahkan temanku menjauhiku karena rumor vaksin ini. 420 00:23:56,895 --> 00:24:00,690 Tapi aku mahasiswa kesehatan masyarakat di Stanford, dan ada banyak cara 421 00:24:00,773 --> 00:24:05,445 mengomunikasikan info kesehatan masyarakat atau data ilmiah yang akurat. 422 00:24:05,528 --> 00:24:06,488 Entahlah. 423 00:24:06,571 --> 00:24:12,160 Aku perlu belajar lebih banyak karena aku masih percaya 424 00:24:13,161 --> 00:24:15,455 komunikasi digital bisa jadi kekuatan 425 00:24:15,538 --> 00:24:17,999 untuk menyatukan kita, untuk berdebat dengan sehat. 426 00:24:18,082 --> 00:24:21,294 Satu hal yang tak kau mengerti tentang daring adalah 427 00:24:21,377 --> 00:24:25,215 bukan logika dan fakta yang menang. Orang ingin melarikan diri. 428 00:24:25,298 --> 00:24:27,717 Mereka ingin tertawa, video yang menarik. 429 00:24:27,800 --> 00:24:30,803 Mereka ingin lari dari kenyataan yang membosankan. 430 00:24:30,887 --> 00:24:34,933 Dan video daringmu yang paling populer adalah saat kau mencoba dab. 431 00:24:35,016 --> 00:24:38,978 Bill, bisakah kau melakukan dab? Wow, Bill! 432 00:24:39,062 --> 00:24:40,188 Atau melompati kursi. 433 00:24:40,271 --> 00:24:43,441 Benarkah kau bisa melompati kursi dari posisi berdiri? 434 00:24:44,025 --> 00:24:47,403 Tergantung pada ukuran kursinya. Aku akan curang sedikit. 435 00:24:48,154 --> 00:24:48,988 Ya! 436 00:24:49,572 --> 00:24:52,367 Itu yang terpopuler karena orang ingin pelarian, 437 00:24:52,450 --> 00:24:54,911 jadi fakta dan logika tak selalu menang. 438 00:24:54,994 --> 00:24:58,498 Tapi soal aku menghasilkan banyak uang dari vaksin, 439 00:24:58,581 --> 00:25:00,625 aku sulit mencari tahu asalnya. 440 00:25:00,708 --> 00:25:06,464 Itu tidak seperti organisasi politik. Itu hanya kegilaan, dan siapa penyebarnya? 441 00:25:06,548 --> 00:25:09,759 Orang ketakutan. Kita terjebak di rumah selama pandemi. 442 00:25:09,842 --> 00:25:11,344 Kita mencemaskan nyawa. 443 00:25:11,427 --> 00:25:15,807 Orang tak tahu harus percaya apa, jadi itulah yang dilakukan masyarakat. 444 00:25:15,890 --> 00:25:20,311 Ya, pandemi ini jelas menunjukkan kondisi terburuk dari media sosial. 445 00:25:21,229 --> 00:25:23,189 Terlalu menyederhanakan hal-hal. 446 00:25:23,273 --> 00:25:28,236 Ini menakutkan bagiku karena demokrasi kuanggap sebagai perdebatan mengenai isu 447 00:25:28,319 --> 00:25:32,574 dan bukannya pemisahan total antara kita dan mereka. 448 00:25:32,657 --> 00:25:35,535 Bagaimana jika ada pandemi lebih parah… 449 00:25:35,618 --> 00:25:38,079 Jangan katakan itu. Kau akan dituduh. 450 00:25:38,162 --> 00:25:41,583 - Itu benar. Aku mengerjakannya. - Jangan. Potong itu. 451 00:25:42,375 --> 00:25:45,503 Kau tak bisa memberi tahu orang sesuatu akan terjadi, 452 00:25:45,587 --> 00:25:47,714 lalu saat itu terjadi, mereka, "Oh!" 453 00:25:47,797 --> 00:25:48,881 Ini tidak lucu? 454 00:25:49,674 --> 00:25:54,137 Ini konten pendek yang buruk, akan viral, dan dilihat jutaan kali, jika kau katakan. 455 00:25:54,220 --> 00:25:55,054 Oke. 456 00:25:58,308 --> 00:26:00,268 Aku meneliti sejarah hukum abad pertengahan 457 00:26:00,351 --> 00:26:03,187 dan aku mengkaji bagaimana sejarah tercipta. 458 00:26:03,271 --> 00:26:08,109 Bagaimana sejarah resmi bisa dibangun? Bagian apa yang dimasukkan? 459 00:26:08,860 --> 00:26:11,613 Selalu ada semacam kombinasi faktor, 460 00:26:11,696 --> 00:26:15,700 tapi teori konspirasi selalu punya cerita yang sama. 461 00:26:17,410 --> 00:26:21,289 Pada suatu hari, kita bahagia dan semuanya baik-baik saja. 462 00:26:22,915 --> 00:26:26,085 Kita memegang kendali dan kita aman. 463 00:26:27,211 --> 00:26:31,382 Kemudian monster-monster berkuasa, tapi tak ada yang tahu itu. 464 00:26:32,467 --> 00:26:33,843 Semuanya tampak baik 465 00:26:33,926 --> 00:26:37,347 karena monster memastikan semua itu dirahasiakan. 466 00:26:37,430 --> 00:26:41,517 Mereka bisa berubah bentuk dan ukuran, dan terlihat seperti apa pun. 467 00:26:42,435 --> 00:26:46,397 Tapi monster inilah yang mengendalikan media. 468 00:26:46,481 --> 00:26:48,483 Mereka mengendalikan citra mereka. 469 00:26:48,566 --> 00:26:52,403 Dan hanya sedikit orang yang benar-benar bisa melihat monster ini. 470 00:26:52,987 --> 00:26:54,989 Dan jika kalian cukup istimewa, 471 00:26:55,073 --> 00:26:58,618 kalian bisa melihat monsternya tak peduli seperti apa mereka. 472 00:27:00,495 --> 00:27:03,414 Cuma pahlawan dalam cerita yang tahu kebenarannya, 473 00:27:03,498 --> 00:27:05,500 lalu datang menyelamatkan dunia. 474 00:27:05,583 --> 00:27:07,794 Tentu saja ini cerita yang menarik. 475 00:27:07,877 --> 00:27:10,296 Aku pembunuh naga? Ya, aku mau! 476 00:27:10,380 --> 00:27:15,635 Dan kemudian muncullah perangkat ajaib yang disebut internet. 477 00:27:16,761 --> 00:27:18,596 Ini dongeng tentang siapa kita, 478 00:27:18,680 --> 00:27:21,599 dan semacam perjalanan pahlawan tentang diri kita, 479 00:27:21,683 --> 00:27:27,772 dan inti dari teori konspirasi adalah caranya membantu kita melihat diri kita. 480 00:27:28,356 --> 00:27:33,528 Ini pertarungan kebaikan melawan kejahatan dan begitulah cara mereka melihat dunia. 481 00:27:34,654 --> 00:27:35,780 - Tamat. - Tamat. 482 00:27:36,656 --> 00:27:38,116 Itu buku yang aneh. 483 00:27:38,199 --> 00:27:41,536 - Haruskah kita membacanya lagi? - Tidak! 484 00:27:41,619 --> 00:27:43,079 Oke. 485 00:27:45,915 --> 00:27:47,750 KANTOR GATES VENTURES 486 00:27:47,834 --> 00:27:52,046 Kita tak melacak misinformasi secara struktural hingga awal pandemi. 487 00:27:52,130 --> 00:27:53,631 - Halo. - Hei, Bill. 488 00:27:53,715 --> 00:27:54,549 - Hai. - Hai, Bill. 489 00:27:54,632 --> 00:27:59,345 Bill sangat mengkhawatirkan misinformasi tentang topik dan isu yang dia kerjakan. 490 00:27:59,429 --> 00:28:03,307 Perubahan iklim, kesiapan pandemi, kesehatan global yang lebih luas. 491 00:28:03,391 --> 00:28:06,394 Kami harus siap dengan apa yang terjadi di sektor itu. 492 00:28:06,477 --> 00:28:10,106 Kami akan menunjukkan sesuatu yang belum kau lihat. 493 00:28:10,189 --> 00:28:12,775 Beberapa hal yang sedang hangat sekarang, 494 00:28:12,859 --> 00:28:15,194 dan maaf, beberapa agak suram. 495 00:28:15,987 --> 00:28:18,906 Jika kita melihat perkembangan misinformasi, 496 00:28:18,990 --> 00:28:20,950 itu biasanya isu individual saja. 497 00:28:21,033 --> 00:28:25,121 Yang terjadi adalah orang-orang pandai menggabungkan hal-hal 498 00:28:25,204 --> 00:28:29,834 ke teori konspirasi besar yang mencakup mikrocip, lahan pertanian, 499 00:28:29,917 --> 00:28:33,045 teknologi vaksin, tentang dalang urusan dunia. 500 00:28:33,129 --> 00:28:37,675 Jadi, ini platform yang terus menampilkan misinformasi tentangmu. 501 00:28:37,759 --> 00:28:39,844 Apa yang kau lihat sekarang 502 00:28:39,927 --> 00:28:44,974 adalah semua unggahan dan isu yang berkontribusi pada semua volume itu. 503 00:28:45,057 --> 00:28:49,979 Tapi apa masih ada hal seperti mikrocip? Itu turun ke nol, atau masih ada? 504 00:28:50,062 --> 00:28:54,192 Tidak, itu masih seperempat dari begitu banyak bagian itu. 505 00:28:54,692 --> 00:28:56,652 Ini cukup menarik. 506 00:28:56,736 --> 00:28:59,781 Garis biru ini hanya tentang iklim. 507 00:29:00,281 --> 00:29:03,701 Banyak dari ini adalah soal mendalangi persediaan makanan. 508 00:29:03,785 --> 00:29:06,329 Biar kuperlihatkan yang ini. 509 00:29:06,412 --> 00:29:09,749 Salah satu rumor yang muncul dan teori konspirasi adalah 510 00:29:09,832 --> 00:29:13,836 kau telah merekayasa kutu yang ketika mereka menggigit orang, 511 00:29:13,920 --> 00:29:17,215 mereka membuat orang alergi terhadap daging tradisional. 512 00:29:17,298 --> 00:29:22,136 Dan ini adalah teori untuk mendorong permintaan daging sintetis. 513 00:29:22,220 --> 00:29:26,933 Rupanya 450.000 orang Amerika telah digigit kutu ini 514 00:29:27,016 --> 00:29:30,228 dan mereka sekarang akan beralih ke pengganti daging. 515 00:29:30,311 --> 00:29:33,981 Dan itu adalah rencana mencari keuntungan dari daging sintetis. 516 00:29:34,065 --> 00:29:35,775 Jelas, yang aneh dari ini, 517 00:29:35,858 --> 00:29:39,612 kurasa ini disebarkan secara luas karena ini amat tak masuk akal 518 00:29:39,695 --> 00:29:42,490 hingga orang normal akan berkata, "Ini gila." 519 00:29:42,573 --> 00:29:45,076 Dan reaksi itu akan dihitung netral atau positif. 520 00:29:45,159 --> 00:29:48,120 Senang kau tertawa. Bagiku ini sangat menyedihkan. 521 00:29:48,204 --> 00:29:51,666 Sangat menarik untuk mengetahui cara melawannya 522 00:29:51,749 --> 00:29:54,502 karena jika dilawan dapat memperburuk keadaan. 523 00:29:54,585 --> 00:29:56,963 Benar. Bahkan jika kita memeriksa fakta, 524 00:29:57,046 --> 00:30:00,132 itu malah menyoroti cerita kepada lebih banyak orang. 525 00:30:00,216 --> 00:30:01,217 Ya. 526 00:30:01,300 --> 00:30:03,719 Aku suka kumpulan kata itu. Fantastis. 527 00:30:03,803 --> 00:30:06,389 - Ya. - Itu daftar tugasku. 528 00:30:08,391 --> 00:30:11,561 Dalam hal misinformasi, Bill cukup toleran. 529 00:30:11,644 --> 00:30:15,982 Beberapa tuduhan itu sangat gila dan itu hampir membuatnya tertawa. 530 00:30:16,983 --> 00:30:18,860 Tapi saat bicara dengan Bill, 531 00:30:18,943 --> 00:30:22,613 kurasa misinformasi sangat membingungkan baginya 532 00:30:22,697 --> 00:30:27,285 karena masih belum jelas bagaimana cara mengatasi masalah ini 533 00:30:27,368 --> 00:30:30,705 dengan cara yang sistemik dan mendasar. 534 00:30:30,788 --> 00:30:31,956 Di masa pandemi, 535 00:30:32,039 --> 00:30:35,835 saat kita menonton video orang-orang di rumah sakit berkata, 536 00:30:35,918 --> 00:30:37,753 "Sekarang aku mau vaksinnya," 537 00:30:37,837 --> 00:30:41,215 itu dijelaskan kepada mereka bahwa itu sudah telat. 538 00:30:41,299 --> 00:30:42,508 "AKU SEHARUSNYA DIVAKSIN." 539 00:30:42,592 --> 00:30:45,094 Kita bisa menganggap jutaan kematian 540 00:30:45,177 --> 00:30:49,140 disebabkan oleh beberapa misinformasi ini. 541 00:30:49,223 --> 00:30:55,271 Memang agak sulit untuk memahami hal itu. 542 00:30:58,649 --> 00:31:02,945 Saat aku berusia awal 20-an, Ada desas-desus bahwa aku laki-laki. 543 00:31:03,613 --> 00:31:05,990 Dan aku pergi ke seluruh dunia. 544 00:31:06,073 --> 00:31:10,202 Maksudku, aku bepergian untuk tur, untuk mempromosikan album rekamanku, 545 00:31:10,286 --> 00:31:13,956 dan hampir setiap wawancara, mereka bilang, "Kau tahu, kami…" 546 00:31:14,040 --> 00:31:17,001 Ada foto di internet yang telah direkayasa. 547 00:31:17,084 --> 00:31:17,919 Oh wow. 548 00:31:18,002 --> 00:31:21,505 Dan mereka seperti, "Ada rumor bahwa kau laki-laki. 549 00:31:21,589 --> 00:31:22,715 Apa pendapatmu?" 550 00:31:22,798 --> 00:31:24,926 Pernah buka internet, Lady Gaga? 551 00:31:25,009 --> 00:31:27,720 - Aku menjauh. - Ya. Itu penuh rumor bodoh. 552 00:31:27,803 --> 00:31:28,721 - Benarkah? - Oh ya. 553 00:31:30,181 --> 00:31:33,059 - Mau dengar beberapa? - Aku tak punya pilihan. 554 00:31:33,142 --> 00:31:37,605 Ada yang bilang Lady Gaga sebenarnya seorang pemuda dengan penis besar. 555 00:31:37,688 --> 00:31:40,566 Bagaimana dengan rumor gila soal kau hermafrodit? 556 00:31:40,650 --> 00:31:42,860 Bagaimana perasaanmu saat membacanya? 557 00:31:43,361 --> 00:31:45,988 Ini menarik. Artis akan mengatakan, 558 00:31:46,072 --> 00:31:48,532 "Ini tak benar." Kau malah santai saja. 559 00:31:48,616 --> 00:31:50,785 Kenapa aku membuang waktuku 560 00:31:50,868 --> 00:31:53,579 dan mengumumkan apa aku punya penis atau tidak? 561 00:31:53,663 --> 00:31:56,165 Penggemarku tak peduli, begitu juga aku. 562 00:31:56,248 --> 00:31:58,834 Aku tak menjawab pertanyaannya 563 00:31:59,335 --> 00:32:02,797 karena aku tak merasa jadi korban kebohongan itu, 564 00:32:02,880 --> 00:32:06,884 tapi aku berpikir tentang bagaimana dengan anak-anak yang dituduh 565 00:32:06,968 --> 00:32:10,179 dan berpikir figur publik sepertiku akan merasa malu? 566 00:32:10,262 --> 00:32:13,933 Kurasa maksudku adalah aku pernah berada dalam situasi 567 00:32:14,016 --> 00:32:17,687 di mana memperbaiki rumor bukanlah demi… 568 00:32:17,770 --> 00:32:20,398 Aku memperbaikinya demi kebaikan orang lain. 569 00:32:21,107 --> 00:32:22,149 Dalam hal itu, 570 00:32:22,233 --> 00:32:25,027 aku mencoba memprovokasi dengan cara lain. 571 00:32:25,111 --> 00:32:29,365 Aku menggunakan misinformasi untuk menciptakan gangguan lain. 572 00:32:29,949 --> 00:32:34,203 Kurasa orang-orang berasumsi bahwa seorang penampil sepertiku, 573 00:32:34,286 --> 00:32:37,081 penampilanku tidak nyata, 574 00:32:37,164 --> 00:32:41,002 tapi bagiku itu hal paling nyata yang akan orang lihat tentangku. 575 00:32:41,085 --> 00:32:42,545 Itu jauh lebih nyata 576 00:32:42,628 --> 00:32:47,341 dari semua rumor yang dirancang untuk mengorbitkanku 577 00:32:47,425 --> 00:32:49,427 untuk mendapat lebih banyak klik. 578 00:32:49,510 --> 00:32:50,344 Ya. 579 00:32:52,888 --> 00:32:55,725 Menurutmu kita punya taktik untuk mengurangi ini? 580 00:32:55,808 --> 00:33:00,980 Itu masalah yang sangat sensitif karena kita ingin memastikan 581 00:33:01,063 --> 00:33:03,983 ada unsur kuat soal kebebasan berpendapat. 582 00:33:04,734 --> 00:33:09,613 Tapi kebebasan berpendapat tak mengizinkan kita berteriak, "Api" di bioskop, 583 00:33:09,697 --> 00:33:12,658 jadi kita harus mempertimbangkan tindakan yang harus diambil. 584 00:33:12,742 --> 00:33:17,747 Studi menunjukkan TikTok mungkin mendorong konten berbahaya untuk pengguna mudanya. 585 00:33:17,830 --> 00:33:19,832 Kita harus membuat pilihan. 586 00:33:19,915 --> 00:33:23,836 Apa kita memprioritaskan kebebasan berpendapat dan berekspresi… 587 00:33:23,919 --> 00:33:24,795 PENULIS 588 00:33:24,879 --> 00:33:30,384 atau kita ingin menghapus konten berbahaya? 589 00:33:31,552 --> 00:33:34,388 Itu pelanggaran berat terhadap Amandemen Pertama 590 00:33:34,472 --> 00:33:39,393 soal kendali pemerintah atas Twitter lama dan itu tidak terjadi lagi. 591 00:33:39,477 --> 00:33:42,021 Jadi, itulah fungsi Amandemen Pertama. 592 00:33:42,104 --> 00:33:45,816 Aku tak butuh kuliah soal kebebasan berpendapat dari Elon Musk. 593 00:33:45,900 --> 00:33:49,945 Dia memutuskan kapan melakukan kebebasan berpendapat di platformnya. 594 00:33:50,029 --> 00:33:52,198 Itu tak dipahami dalam skala itu 595 00:33:52,281 --> 00:33:55,493 dan itu memberi kekuatan besar kepada pelaku kejahatan. 596 00:33:58,370 --> 00:34:02,792 Aku sering teringat kasus pengadilan yang disebut Packer v. Utah. 597 00:34:02,875 --> 00:34:06,670 Utah melarang pemasangan iklan tembakau di negara bagiannya. 598 00:34:06,754 --> 00:34:08,881 Packer, perusahaan tembakau, bilang, 599 00:34:08,964 --> 00:34:12,134 "Kami punya hak kebebasan berpendapat. Kami bisa memasang iklan." 600 00:34:12,218 --> 00:34:14,261 Kasusnya dibawa ke Mahkamah Agung. 601 00:34:14,345 --> 00:34:16,889 Keputusannya ditulis oleh Hakim Brandeis. 602 00:34:17,556 --> 00:34:19,767 Pada dasarnya dia berargumen 603 00:34:19,850 --> 00:34:23,145 bahwa memasang iklan di papan reklame di ruang komunitas 604 00:34:23,229 --> 00:34:25,689 menciptakan kondisi di mana orang harus berpaling. 605 00:34:25,773 --> 00:34:27,274 Mengalihkan pandangan. 606 00:34:27,358 --> 00:34:30,611 Kita memberi terlalu banyak hak istimewa untuk pembicara 607 00:34:30,694 --> 00:34:32,571 dan tak banyak untuk pendengar. 608 00:34:32,655 --> 00:34:36,575 Media sosial bukanlah soal tuturan atau tindak tutur. 609 00:34:36,659 --> 00:34:38,202 Ini soal amplifikasi. 610 00:34:38,285 --> 00:34:42,581 Jika aku memilih untuk berlangganan pada informasimu, tak masalah, 611 00:34:42,665 --> 00:34:45,167 tapi apa artinya dipaksa melihat? 612 00:34:45,251 --> 00:34:46,752 Itu hal yang berbeda. 613 00:34:48,504 --> 00:34:51,132 Hak kita untuk jadi berengsek dan pembenci, 614 00:34:51,215 --> 00:34:54,301 kita bisa melakukannya, dan kontennya bisa terus ada. 615 00:34:54,385 --> 00:34:55,803 Bisa ada di platform. 616 00:34:55,886 --> 00:34:58,222 Orang yang mencari bisa menemukannya. 617 00:34:58,305 --> 00:35:02,768 Tapi platform tidak berkewajiban untuk memasukkannya ke umpan algoritmik. 618 00:35:03,561 --> 00:35:06,730 Jadi, pertanyaan tentang siapa yang menentukan batasan 619 00:35:06,814 --> 00:35:10,317 antara hak kebebasan berekspresi dan bahaya dunia nyata 620 00:35:10,401 --> 00:35:13,028 menurutku adalah pertanyaan untuk zaman kita. 621 00:35:13,112 --> 00:35:15,614 MEJA BUNDAR MISINFORMASI OBSERVATORIUM INTERNET STANFORD 622 00:35:15,698 --> 00:35:20,035 Semua yang dibangun saat ini dibangun di era polarisasi. 623 00:35:20,119 --> 00:35:23,956 Itu dibahas oleh ilmuwan sosial, sudah ada sebelum ada internet. 624 00:35:24,039 --> 00:35:27,835 Kita bicara tentang disinformasi, rumor, misinformasi, 625 00:35:27,918 --> 00:35:30,296 dan itu menjadi personal bagi individu. 626 00:35:30,796 --> 00:35:33,048 Pak Gates, kau melihat ini terjadi? 627 00:35:33,132 --> 00:35:37,303 Apa ini ada di radarmu, atau ini fenomena mengejutkan? 628 00:35:37,887 --> 00:35:44,768 Aku tak menyadari dunia digital akan membiarkan orang-orang berkumpul 629 00:35:44,852 --> 00:35:48,898 dan bersenang-senang dalam hal-hal yang tidak nyata, 630 00:35:48,981 --> 00:35:51,525 jadi aku sebenarnya cukup khawatir soal itu. 631 00:35:51,609 --> 00:35:53,861 Apakah ini sesuatu yang semakin buruk, 632 00:35:53,944 --> 00:35:57,364 atau ada titik balik dan keadaan bisa sedikit membaik? 633 00:35:57,448 --> 00:36:02,077 Kurasa ada masalah teknologi dan masalah sosial yang bersinggungan. 634 00:36:02,161 --> 00:36:05,873 Medsos membawa semua orang ke ruang dan infrastruktur yang sama, 635 00:36:05,956 --> 00:36:07,249 jadi ada dinamika 636 00:36:07,333 --> 00:36:09,585 di mana beberapa rekomendasi, kurasi, 637 00:36:09,668 --> 00:36:12,796 dan keputusan desain yang buruk dibuat secara tidak sengaja. 638 00:36:14,798 --> 00:36:18,761 Platform membuat orang tetap daring dengan memberi rasa kebersamaan. 639 00:36:18,844 --> 00:36:23,349 Aku memakai metafora kawanan burung jalak. Ada kawanan yang berputar-putar. 640 00:36:23,432 --> 00:36:27,394 Itu terjadi karena setiap burung bisa melihat tujuh burung terdekat. 641 00:36:27,895 --> 00:36:29,396 Satu burung berubah arah, 642 00:36:29,480 --> 00:36:33,651 lalu tercipta efek mengalir di mana segala sesuatunya bergerak cepat. 643 00:36:34,151 --> 00:36:37,404 Tapi mereka tak tahu apa yang dilakukan kawanan lainnya. 644 00:36:37,488 --> 00:36:41,700 Saat kau melihat sesuatu yang muncul di beranda dan menekan tombol suka, 645 00:36:41,784 --> 00:36:44,787 kau tak berpikir itu punya dampak. 646 00:36:44,870 --> 00:36:48,707 Tapi begitu terlibat, kau memberinya banyak info soal minatmu. 647 00:36:48,791 --> 00:36:51,669 Jika kau antivaksin, kau mungkin suka chemtrails. 648 00:36:51,752 --> 00:36:54,004 Jika kau suka itu, kau mungkin suka bumi datar. 649 00:36:54,088 --> 00:36:58,467 Itu mendorongmu memberikan rekomendasi karena itu memperebutkan perhatianmu 650 00:36:58,550 --> 00:37:01,303 dengan platform lain yang melakukan hal sama. 651 00:37:01,387 --> 00:37:03,264 ANTIVAKSIN | SKEPTIS-COVID 652 00:37:03,347 --> 00:37:07,059 Kesalahanku adalah berpikir bahwa orang-orang yang duduk di sana 653 00:37:07,142 --> 00:37:09,478 kebanyakan mencoba mengumpulkan fakta 654 00:37:09,561 --> 00:37:12,648 sehingga akan ada lebih sedikit misinformasi. 655 00:37:12,731 --> 00:37:16,860 Tapi saat kita terhubung ke berbagai hal di internet, bahkan aku, 656 00:37:16,944 --> 00:37:19,113 jika sebuah artikel memiliki judul, 657 00:37:19,196 --> 00:37:23,450 "Orang yang Tak Kau Setujui Secara Politik Lebih Bodoh dari Dugaanmu," 658 00:37:23,534 --> 00:37:28,956 aku mungkin mengklik itu dan berpikir, "Hei, ya! Benar. Ya." 659 00:37:29,873 --> 00:37:32,918 Akibat dari polarisasi di Amerika Serikat, 660 00:37:33,002 --> 00:37:36,255 percakapan ini menjadi pertarungan yang sangat partisan, 661 00:37:36,338 --> 00:37:37,756 padahal terjadi secara global. 662 00:37:38,424 --> 00:37:39,466 KAIRO, MESIR 663 00:37:39,550 --> 00:37:42,428 Pada tahun 2010, kelompok aktivis mulai menyadari 664 00:37:42,511 --> 00:37:45,347 internet adalah alat ampuh untuk mengorganisasi. 665 00:37:45,431 --> 00:37:48,100 Kebangkitan Dunia Arab terlihat paling jelas. 666 00:37:50,894 --> 00:37:53,063 Ini membangunkan pemerintah. 667 00:37:53,147 --> 00:37:56,191 Mereka tak lagi menganggapnya sebagai orang yang bicara di internet. 668 00:37:56,275 --> 00:37:57,443 Kini menggulingkan rezim. 669 00:37:57,526 --> 00:38:01,155 Jadi, yang terlihat adalah pemerintah memasukkan internet 670 00:38:01,238 --> 00:38:03,574 ke dalam alat propaganda mereka. 671 00:38:03,657 --> 00:38:06,785 Negara Islam memproduksi karya propaganda 672 00:38:06,869 --> 00:38:08,829 setiap hari. 673 00:38:09,496 --> 00:38:13,000 Yang gamblang dilakukan ISIS, dilakukan Rusia diam-diam. 674 00:38:13,083 --> 00:38:16,045 Tiba-tiba, ada perang melawan semua. 675 00:38:16,128 --> 00:38:19,089 Faksi berbeda bertarung demi perhatian dan pengaruh 676 00:38:19,173 --> 00:38:21,467 dan kekuatan nyata di dunia nyata. 677 00:38:21,550 --> 00:38:25,512 Kita telah melihat operasi pengaruh yang berasal dari Arab Saudi, Mesir, 678 00:38:25,596 --> 00:38:28,807 India, Pakistan, Yordania, astaga, AS. 679 00:38:28,891 --> 00:38:30,225 - AS. - Ya, 'kan? 680 00:38:30,851 --> 00:38:34,980 Tak ada yang tak melakukannya untuk memanipulasi ruang informasi musuh. 681 00:38:35,064 --> 00:38:38,400 Ini terkait dengan konsep lama dari perang dan dominasi. 682 00:38:38,484 --> 00:38:41,570 Jika kita mengaktifkan kelompok kecil di satu negara 683 00:38:41,653 --> 00:38:43,697 melawan kelompok di negara lain, 684 00:38:43,781 --> 00:38:49,953 kita bisa mengacaukan musuh menggunakan ketegangan yang ada di dunia. 685 00:38:50,537 --> 00:38:54,333 Masalah disinformasi ini meningkat secara signifikan 686 00:38:54,416 --> 00:38:58,462 karena kita kewalahan dan dibanjiri informasi. 687 00:38:58,545 --> 00:39:03,092 Tak ada waktu atau ruang untuk merenung dan memproses sesuatu secara mendalam. 688 00:39:03,175 --> 00:39:07,179 Akibatnya, kita akan menerima begitu saja apa yang ada di depan kita. 689 00:39:07,930 --> 00:39:10,474 Dan kurasa orang-orang curiga dan skeptis 690 00:39:10,557 --> 00:39:14,395 pada dunia di depan mereka, tapi kita tak punya pilihan lain. 691 00:39:16,772 --> 00:39:19,608 Pada akhirnya, ini masalah sosial, 692 00:39:19,691 --> 00:39:22,736 dan harus ada hukum dan peraturan 693 00:39:22,820 --> 00:39:25,823 yang mendorong solusi untuk ini. 694 00:39:27,074 --> 00:39:30,244 Negara lain akan menghadapinya dengan cara berbeda, 695 00:39:30,327 --> 00:39:33,539 tapi di AS, itu sangat rumit. 696 00:39:34,373 --> 00:39:37,000 Anda bicara tentang reformasi yang Anda buat. 697 00:39:37,084 --> 00:39:39,420 Saya rasa itu bukan solusi. 698 00:39:39,503 --> 00:39:41,797 Kongres harus membantu Anda. 699 00:39:42,423 --> 00:39:48,220 Kami tak bisa lagi memercayai Meta dan, sejujurnya, media sosial lainnya 700 00:39:48,303 --> 00:39:52,724 untuk memberikan perlindungan terhadap anak-anak dan orang tua. 701 00:39:52,808 --> 00:39:57,938 Pak Zuckerberg, kenapa perusahaan Anda tidak dituntut karena ini? 702 00:39:58,522 --> 00:40:02,734 - Bukankah Anda harus bertanggung jawab? - Senator, saya sudah jawab. 703 00:40:02,818 --> 00:40:05,529 Coba lagi. Bisa Anda tanggung secara pribadi? 704 00:40:05,612 --> 00:40:07,448 Ada keluarga korban di sini. 705 00:40:07,531 --> 00:40:11,618 Bisa minta maaf kepada orang yang dirugikan oleh unggahan Anda? 706 00:40:11,702 --> 00:40:13,078 Tunjukkan fotonya. 707 00:40:14,037 --> 00:40:17,624 Sulit mengharapkan mereka mengambil tanggung jawab untuk mengatur diri mereka. 708 00:40:17,708 --> 00:40:20,919 Kita harus merestrukturisasi seluruh aparatur 709 00:40:21,003 --> 00:40:23,505 di mana perusahaan teknologi ini beroperasi 710 00:40:23,589 --> 00:40:27,092 untuk memastikan orang-orang benar-benar dilindungi, 711 00:40:27,176 --> 00:40:30,220 terutama yang paling rentan dalam masyarakat kita. 712 00:40:30,304 --> 00:40:31,555 Aku percaya 713 00:40:31,638 --> 00:40:35,142 pada lingkungan moderasi konten yang lebih terdesentralisasi 714 00:40:35,225 --> 00:40:37,644 di mana pengguna memiliki kontrol lebih 715 00:40:37,728 --> 00:40:41,773 dibandingkan Mark Zuckerberg atau orang lain yang harus memutuskan 716 00:40:41,857 --> 00:40:45,277 ini kebijakannya dan akan diterapkan pada dua miliar orang. 717 00:40:45,360 --> 00:40:49,323 Internet dibayar oleh pembayar pajak, jadi mereka mengambil yang kita bayar, 718 00:40:49,406 --> 00:40:52,659 lalu membuat keputusan yang mempengaruhi masyarakat, 719 00:40:52,743 --> 00:40:54,369 yang menimbulkan dampak, 720 00:40:54,453 --> 00:40:58,081 entah itu kecanduan atau pemberontakan atau radikalisasi, 721 00:40:58,165 --> 00:41:00,334 tapi kemudian tak bertanggung jawab. 722 00:41:00,417 --> 00:41:03,462 Kita tak berbuat apa-apa. Tidak ada. Nol. 723 00:41:06,256 --> 00:41:10,260 Kurasa disinformasi dilanggengkan oleh kita semua. 724 00:41:10,344 --> 00:41:11,428 Benar sekali. 725 00:41:11,512 --> 00:41:15,307 Kurasa kita tidak bisa menyalahkan media sosial begitu saja 726 00:41:15,390 --> 00:41:18,435 karena tidak memastikan mereka punya praktik yang lebih baik. 727 00:41:18,519 --> 00:41:22,147 Kurasa kita juga harus menegakkan standar 728 00:41:22,231 --> 00:41:25,776 yang ingin kita pertahankan di platform kita sendiri. 729 00:41:25,859 --> 00:41:27,945 Kita membuatnya sangat mudah 730 00:41:29,238 --> 00:41:31,114 untuk mengunggah apa pun. 731 00:41:31,198 --> 00:41:37,204 Jika seseorang yang ada di taman bermain akan kasar dan jahat, 732 00:41:37,287 --> 00:41:41,208 dan beberapa lusin anak mendengarnya, itu tidak bagus, 733 00:41:41,291 --> 00:41:43,001 tapi semoga mereka akan dewasa. 734 00:41:43,085 --> 00:41:45,629 Tapi kita duduk di rumah kita sendiri, 735 00:41:45,712 --> 00:41:49,967 dan jika seseorang mempertanyakan nilai-nilai tradisional kita, 736 00:41:50,050 --> 00:41:52,553 kita hanya duduk di sana dan mengetik, 737 00:41:53,095 --> 00:41:56,848 lalu sistem mengambilnya dan bukan hanya di taman bermain, 738 00:41:56,932 --> 00:41:58,517 itu dilihat jutaan orang. 739 00:41:59,101 --> 00:42:01,562 Jadi, menyalahkan individu itu sulit 740 00:42:01,645 --> 00:42:05,524 karena itu adalah bagian dari sifat manusia yang diamplifikasi. 741 00:42:07,150 --> 00:42:09,695 Saat kau bicara tentang taman bermain, 742 00:42:09,778 --> 00:42:11,530 apa yang kupikirkan adalah, 743 00:42:11,613 --> 00:42:15,784 jika banyak orang di taman bermain berteriak satu sama lain bersamaan, 744 00:42:15,867 --> 00:42:18,245 aku merasa ada yang akan menenangkannya. 745 00:42:18,328 --> 00:42:19,329 Kau benar. 746 00:42:19,413 --> 00:42:22,374 Di taman bermain, jika keadaan di luar kendali, 747 00:42:22,457 --> 00:42:25,043 ada orang dewasa yang akan muncul. 748 00:42:25,127 --> 00:42:29,756 Bahkan saat kita menyerang seseorang di taman bermain, wajah mereka terlihat. 749 00:42:29,840 --> 00:42:32,843 Mungkin mereka akan menangis atau akan lari. 750 00:42:32,926 --> 00:42:37,306 Kita seperti, "Apakah itu niatku? Aku membuat orang itu merasa buruk." 751 00:42:37,389 --> 00:42:41,143 Saat kita duduk mengetik, dan kita merasa kita sangat pintar, 752 00:42:41,226 --> 00:42:45,897 kita tak melihat reaksi orang yang membuat kita berpikir dua kali. 753 00:42:48,442 --> 00:42:52,446 Katakanlah kita ingin memahami orang dengan sudut pandang berbeda. 754 00:42:52,529 --> 00:42:55,616 Adakah cara untuk memahami hal itu secara lebih luas? 755 00:42:55,699 --> 00:42:58,577 Ya, menurutku kita harus sengaja mencarinya. 756 00:42:58,660 --> 00:43:02,623 Jika kita ingin sisi lain, kita harus benar-benar mencarinya. 757 00:43:02,706 --> 00:43:07,169 Algoritma menyesuaikan pandangan kita atau konten yang paling sering dibuka. 758 00:43:07,252 --> 00:43:11,715 Kita harus menjadi lebih sadar mana yang benar dan mana yang tidak benar. 759 00:43:11,798 --> 00:43:17,804 Ya, aku ingin sesekali mendengar jika ada kelompok sayap kanan dengan alasan kuat, 760 00:43:17,888 --> 00:43:21,808 mengapa mereka memahami perspektif kita secara berbeda. 761 00:43:21,892 --> 00:43:23,935 - Aku mau itu masuk temamu. - Sama. 762 00:43:24,019 --> 00:43:25,812 Aku ingin jadi penengah. 763 00:43:25,896 --> 00:43:28,273 Makanya penting mengutak-atik algoritma. 764 00:43:28,357 --> 00:43:32,986 Jika bisa, "Aku mau lihat konten dari kedua sisi. Jangan labeli aku kiri." 765 00:43:33,070 --> 00:43:37,616 Aku mau ubah algoritma untuk bilang, "Aku tak mau melihat ini. Aku mau ini." 766 00:43:37,699 --> 00:43:40,577 Jika aku bisa mengaturnya, itu akan asyik. 767 00:43:42,954 --> 00:43:46,416 Jadi, sekarang masalah dengan media sosial adalah 768 00:43:46,500 --> 00:43:50,962 kita menggoyahkan kepercayaan secara lebih luas dalam suatu masyarakat. 769 00:43:51,630 --> 00:43:55,967 Begitu kita merusak kepercayaan, kita harus menggantinya dengan sesuatu. 770 00:43:56,051 --> 00:43:58,637 Kita tak bisa terus bersikap skeptis 771 00:43:58,720 --> 00:44:01,431 karena itu tidak menghasilkan pengetahuan. 772 00:44:01,515 --> 00:44:06,645 Jika satu-satunya premis adalah apa yang kita pikir tahu, kita tidak tahu, 773 00:44:06,728 --> 00:44:10,524 kita tak bisa beranjak. Itu tak membawa kita ke mana pun. 774 00:44:10,607 --> 00:44:13,610 Bukan lagi konspirasi saat kita menyelidiki sendiri. 775 00:44:13,694 --> 00:44:15,737 Kau menuduh kami, tapi tak bisa, 776 00:44:15,821 --> 00:44:18,073 makanya menjelekkan kami, padahal kau yang jahat. 777 00:44:18,156 --> 00:44:20,867 Aku tak dengar karena kau pakai masker bodoh. 778 00:44:21,618 --> 00:44:25,497 Sekarang kita melihat semacam konspirasi tanpa teori 779 00:44:25,580 --> 00:44:28,250 yang hampir menggantikan teori konspirasi yang sebenarnya. 780 00:44:28,333 --> 00:44:30,752 Mereka melawan kita. 781 00:44:30,836 --> 00:44:33,880 Teori kenapa mereka tak ingin kita tahu sama sekali tidak ada. 782 00:44:33,964 --> 00:44:38,135 Alasan kenapa "mereka" melakukan ini bahkan tidak dibahas. 783 00:44:38,218 --> 00:44:42,472 Kita sampai pada titik kritis di sini di mana banyak dari kita menyadari 784 00:44:42,556 --> 00:44:46,393 bahwa sistem yang ada saat ini membuat kita kewalahan. 785 00:44:46,476 --> 00:44:50,522 Itu mengisolasi dan memecah kita. Itu membuat kita sedikit gila. 786 00:44:50,605 --> 00:44:55,235 Bill Gates menganggap dirinya Tuhan, mengendalikan tata surya. 787 00:44:55,318 --> 00:44:59,489 Makanya kini Bill Gates mendukung program teknologi peredupan matahari. 788 00:44:59,573 --> 00:45:04,661 Terima kasih, Bill Gates, karena mencoba menipu kami bahwa ini benar-benar salju. 789 00:45:04,745 --> 00:45:05,996 Salju bisa mencair. 790 00:45:09,291 --> 00:45:10,625 Kita bisa apa? 791 00:45:10,709 --> 00:45:13,086 Aku tak bisa membiarkannya menggangguku 792 00:45:13,170 --> 00:45:18,216 karena beberapa orang memiliki pandangan yang paling negatif terhadap pekerjaanku. 793 00:45:18,300 --> 00:45:23,221 Tapi aku butuh tingkat penerimaan tertentu untuk dapat bermitra dengan pemerintah 794 00:45:23,305 --> 00:45:26,683 dan filantropis lain dan merekrut ilmuwan terbaik. 795 00:45:26,767 --> 00:45:31,188 Jadi, apa pun yang mulai mengacaukan pemahaman tentang kami, 796 00:45:31,271 --> 00:45:33,648 apa yang kami capai, itu bermasalah. 797 00:45:34,191 --> 00:45:36,651 Apa menurutmu kita sedang memasuki era 798 00:45:36,735 --> 00:45:40,781 di mana mengembalikan umat manusia ke dunia nyata bisa memungkinkan? 799 00:45:41,364 --> 00:45:44,951 Ya, tapi sebagiannya bukan karena aku punya rencana khusus. 800 00:45:45,035 --> 00:45:46,161 Ayolah, Bill. 801 00:45:47,245 --> 00:45:52,250 Tidak, aku terkadang mengelak dan bilang, "Hei, generasiku melakukan banyak hal, 802 00:45:52,334 --> 00:45:55,962 tapi kami memberi sedikit kekacauan pada generasi berikutnya." 803 00:45:56,046 --> 00:45:58,548 Kita punya masalah polarisasi digital 804 00:45:58,632 --> 00:46:02,093 yang melebihi akses ke informasi, 805 00:46:02,177 --> 00:46:06,473 dan hei, anak muda, buatlah aturan baru. 806 00:46:06,556 --> 00:46:07,390 Benar. 807 00:46:07,474 --> 00:46:11,436 Atau bersainglah dalam keunggulan, bukan dalam kegilaan. 808 00:46:12,020 --> 00:46:16,274 Tapi aku merasa bersalah bahwa aku tak punya solusinya. 809 00:46:18,318 --> 00:46:22,239 Jadi, untuk siswa di sini, kebanyakan Gen Z, 810 00:46:22,322 --> 00:46:26,201 menurut kalian ada kesenjangan generasi dalam hal disinformasi? 811 00:46:26,284 --> 00:46:29,246 Aku tak bilang anak muda melakukannya lebih baik. 812 00:46:29,329 --> 00:46:34,960 Generasi muda kini punya insentif sosial untuk mengungkapkan pandangan. 813 00:46:35,043 --> 00:46:38,547 Sementara generasi lebih tua melihat sesuatu dan marah, 814 00:46:38,630 --> 00:46:39,965 mungkin membagikannya, 815 00:46:40,048 --> 00:46:43,176 generasi lebih muda terdorong untuk membagikannya 816 00:46:43,260 --> 00:46:44,469 dan berlagak ahli. 817 00:46:44,553 --> 00:46:47,556 Kurasa itu malah lebih berbahaya. 818 00:46:47,639 --> 00:46:50,016 Ya, aku skeptis dengan isi berandaku. 819 00:46:50,100 --> 00:46:52,644 Aku tahu aku tak bisa dimanipulasi. 820 00:46:52,727 --> 00:46:56,022 Dengan keyakinan itu, aku masuk ke algoritma dan bilang, 821 00:46:56,106 --> 00:46:58,316 "Ya, beri aku lebih banyak info itu." 822 00:46:58,400 --> 00:47:00,819 Aku terus membaca karena aku takkan dimanipulasi. 823 00:47:00,902 --> 00:47:03,405 Adik bungsuku sembilan tahun lebih muda. 824 00:47:03,488 --> 00:47:05,740 Dia 20 tahun, jadi dia Gen Z, 825 00:47:05,824 --> 00:47:08,535 dan aku melihat perbedaan besar di antara kami. 826 00:47:11,037 --> 00:47:13,081 Aku cepat ketinggalan zaman. 827 00:47:13,164 --> 00:47:17,252 Seperti, Facebook, kurasa itu tak populer lagi. 828 00:47:17,335 --> 00:47:19,671 - Kau punya? - Aku tak punya Facebook. 829 00:47:19,754 --> 00:47:23,216 Berapa banyak identitas yang biasanya kau punya di sistem? 830 00:47:24,175 --> 00:47:25,218 Berapa apa? 831 00:47:25,302 --> 00:47:28,138 Apa kau punya persona lain pada sistem yang sama? 832 00:47:28,221 --> 00:47:30,473 Maksudmu akun? Ya, aku punya. 833 00:47:30,557 --> 00:47:32,517 Biasanya ada akun publik besar, 834 00:47:32,601 --> 00:47:35,687 lalu akun untuk mengunggah banyak untuk teman dekat 835 00:47:35,770 --> 00:47:38,023 yang isinya hal-hal lucu. 836 00:47:38,106 --> 00:47:42,444 Ya, aku paham, tapi aku orang yang serius. 837 00:47:42,527 --> 00:47:47,032 Bagaimana aku menjaga persona serius itu dan tidak menjadi pria membosankan? 838 00:47:47,115 --> 00:47:51,036 Orang mau melihat seseorang yang tak mereka pahami menjalani hidup. 839 00:47:51,119 --> 00:47:53,705 Aku paham saat orang melihat akunku, 840 00:47:53,788 --> 00:47:57,500 itu karena nama belakangku atau ketertarikan pada keluarga kita. 841 00:47:57,584 --> 00:48:01,713 Lalu aku bisa mengisinya sering kali dengan foto wajahku 842 00:48:01,796 --> 00:48:04,758 atau foto terbuka, dan aku dapat lebih banyak suka… 843 00:48:04,841 --> 00:48:08,094 Tidak, tapi aku bisa mengisinya dengan tema kesehatan reproduksi. 844 00:48:08,178 --> 00:48:11,139 Lalu orang-orang belajar dari konten itu juga. 845 00:48:11,222 --> 00:48:15,769 Karena aku melakukan pekerjaan ini, aku memberi info soal keadilan reproduksi 846 00:48:15,852 --> 00:48:18,229 atau wanita punya hak atas tubuh mereka. 847 00:48:18,313 --> 00:48:22,525 Pelecehan daringku juga meningkat seiring dengan peningkatan pengikut. 848 00:48:22,609 --> 00:48:27,447 Kau memilih menggunakan media sosial untuk mendidik dan membuat gerakan. 849 00:48:27,530 --> 00:48:30,533 Ya, jadi ada perbedaan tipis antara menjadi relevan 850 00:48:30,617 --> 00:48:32,619 dan mewujudkan agenda sebenarnya. 851 00:48:32,702 --> 00:48:35,413 Ini datanya, sainsnya, faktanya. 852 00:48:35,497 --> 00:48:38,416 Video siaran langsung saat kau bicara soal harimu 853 00:48:38,500 --> 00:48:40,001 kurasa akan keren. 854 00:48:40,085 --> 00:48:40,919 Baiklah. 855 00:48:41,002 --> 00:48:44,214 - Dan kirimi aku pesan, bukan surel. - Ada apa dengan surel? 856 00:48:44,297 --> 00:48:47,050 Orang tak pakai surel untuk komunikasi pribadi. 857 00:48:47,133 --> 00:48:50,220 - 40 tahun lalu, kami sering pakai. - Aku yakin itu. 858 00:48:50,303 --> 00:48:53,723 Tidak tahun ini dan juga tidak di masa depan. 859 00:48:56,685 --> 00:48:57,894 - Kau tak apa? - Ya. 860 00:48:58,395 --> 00:49:00,397 Kita sudah selesai. Terima kasih. 861 00:49:01,815 --> 00:49:04,234 Aku harus bagaimana? Bangun dan berjalan? 862 00:49:04,317 --> 00:49:05,944 - Terima kasih. - Terima kasih. 863 00:49:06,569 --> 00:49:12,409 Keinginan manusia untuk hidup berdampingan dan memikirkan negara atau dunia, 864 00:49:12,492 --> 00:49:17,706 bukannya kita melawan mereka di dalam negeri, adalah sebuah tantangan. 865 00:49:18,707 --> 00:49:23,795 Perubahan iklim hanyalah salah satu contoh dari hal yang harus kita pecahkan bersama. 866 00:49:23,878 --> 00:49:27,632 Namun, sekarang dengan misinformasi, kemajuan itu terancam. 867 00:49:28,258 --> 00:49:32,804 Tapi aku berharap kita akan meminimalkan dampak buruk dari misinformasi 868 00:49:32,887 --> 00:49:36,057 dan terus meningkatkan peran kita sebagai manusia. 869 00:49:37,017 --> 00:49:38,476 Ada hal yang bisa dilakukan 870 00:49:38,560 --> 00:49:42,856 untuk tidak berengsek dengan orang yang tak setuju dengan kita. 871 00:49:42,939 --> 00:49:44,232 Pertama, baca buku. 872 00:49:44,733 --> 00:49:47,986 Renungkan dan coba pahami pandangan orang lain. 873 00:49:48,069 --> 00:49:50,321 Kedua, jalan-jalan. Ke mana saja. 874 00:49:50,405 --> 00:49:52,657 Cari pengalaman berbeda, meski di dekat rumah. 875 00:49:52,741 --> 00:49:55,076 Ketiga, mengakui sesuatu. 876 00:49:55,160 --> 00:49:58,413 Mau tahu aku ingin orang bagaimana? Berpikir aku benar. 877 00:49:58,496 --> 00:50:01,291 Dan mengakui kerentanan kalau mereka bisa salah. 878 00:50:01,374 --> 00:50:04,502 Kurasa kita tak pernah punya obrolan berisi pengakuan. 879 00:50:04,586 --> 00:50:06,880 Jika kita bisa bikin manusia sehat dan bisa bilang, 880 00:50:06,963 --> 00:50:09,299 "Kurasa aku mungkin salah tentang ini," 881 00:50:10,008 --> 00:50:11,426 maka ada harapan. 882 00:50:46,503 --> 00:50:49,047 Terjemahan subtitle oleh Seto Hidayat