1 00:00:19,978 --> 00:00:24,775 "TAK ADA HAL BESAR YANG MEMASUKI KEHIDUPAN MANUSIA TANPA KUTUKAN." 2 00:00:24,858 --> 00:00:27,861 SOPHOKLES 3 00:00:31,156 --> 00:00:34,660 Ya, mulailah. Silakan duduk dan buat dirimu nyaman. 4 00:00:37,579 --> 00:00:39,498 - Kau baik-baik saja? - Ya. 5 00:00:43,043 --> 00:00:44,628 Pengambilan gambar pertama, tandai! 6 00:00:46,880 --> 00:00:48,924 Mau mulai dengan memperkenalkan dirimu? 7 00:00:50,467 --> 00:00:53,637 Halo, Dunia. Aku Bailey. Pengambilan gambar ketiga. 8 00:00:54,179 --> 00:00:56,265 - Kau baik-baik saja? - Ini bagian terburuk. 9 00:00:57,516 --> 00:00:58,517 Aku tak suka ini. 10 00:00:59,851 --> 00:01:02,229 Aku bekerja di Facebook pada tahun 2011 dan 2012. 11 00:01:02,312 --> 00:01:05,190 Aku salah satu pegawai awal Instagram. 12 00:01:05,274 --> 00:01:08,694 Aku bekerja di Google, YouTube. 13 00:01:08,777 --> 00:01:11,697 Apple, Google, Twitter, Palm. 14 00:01:12,739 --> 00:01:15,534 Aku membantu merintis Mozilla Labs dan beralih ke Firefox. 15 00:01:15,617 --> 00:01:17,995 Sudah siap? Semuanya... 16 00:01:18,078 --> 00:01:18,954 Bagus. 17 00:01:21,206 --> 00:01:22,582 Aku bekerja di Twitter. 18 00:01:23,000 --> 00:01:26,169 Pekerjaan terakhirku di sana adalah Wakil Presiden Senior Perekayasaan. 19 00:01:27,462 --> 00:01:29,256 Aku mantan Presiden Pinterest. 20 00:01:29,339 --> 00:01:32,718 Sebelum itu, aku Direktur Monetisasi 21 00:01:32,801 --> 00:01:34,261 di Facebook selama lima tahun. 22 00:01:34,344 --> 00:01:37,973 Saat di Twitter, kuhabiskan beberapa tahun mengelola platform pengembang mereka, 23 00:01:38,056 --> 00:01:40,225 lalu aku menjadi Kepala Produk Pelanggan. 24 00:01:40,309 --> 00:01:44,271 Aku penemu bersama Google Drive, Gmail Chat, 25 00:01:44,354 --> 00:01:46,857 Halaman Facebook, dan tombol "Suka" Facebook. 26 00:01:47,441 --> 00:01:50,777 Ya. Ini sebabnya kuhabiskan delapan bulan 27 00:01:50,861 --> 00:01:52,779 berbicara berulang kali dengan pengacara. 28 00:01:54,031 --> 00:01:55,407 Ini membuatku takut. 29 00:01:58,410 --> 00:02:02,914 Saat di sana, aku selalu merasa, pada dasarnya, itu demi kebaikan. 30 00:02:03,373 --> 00:02:05,375 Entah apa aku merasa seperti itu lagi. 31 00:02:05,459 --> 00:02:10,589 Aku meninggalkan Google pada Juni 2017 karena masalah etika. 32 00:02:10,672 --> 00:02:14,134 Bukan hanya di Google, tapi industri ini secara umum. 33 00:02:14,217 --> 00:02:15,427 Aku sangat khawatir. 34 00:02:16,720 --> 00:02:17,679 Sangat khawatir. 35 00:02:19,097 --> 00:02:21,808 Saat ini mudah untuk melupakan fakta 36 00:02:21,892 --> 00:02:27,814 bahwa alat ini telah menciptakan hal-hal indah di dunia. 37 00:02:27,898 --> 00:02:30,233 Mereka mempertemukan anggota keluarga yang hilang 38 00:02:30,317 --> 00:02:31,943 dan menemukan donor organ. 39 00:02:32,027 --> 00:02:35,614 Maksudku, ada perubahan sistemik berarti 40 00:02:35,697 --> 00:02:37,866 yang terjadi di seluruh dunia 41 00:02:37,949 --> 00:02:40,202 karena semua platform positif ini. 42 00:02:41,036 --> 00:02:42,954 Kurasa kita naif 43 00:02:43,330 --> 00:02:44,915 soal sisi lain dari koin itu. 44 00:02:45,540 --> 00:02:48,585 Ya, setelah semua ini dirilis, mereka membentuk hidup sendiri. 45 00:02:48,668 --> 00:02:52,005 Cara mereka digunakan tak sesuai dengan harapan kita. 46 00:02:52,089 --> 00:02:56,510 Aku sangat percaya tak ada yang berniat menimbulkan semua konsekuensi ini. 47 00:02:56,802 --> 00:02:59,554 Tak ada orang jahat. Sama sekali tidak. 48 00:03:01,640 --> 00:03:03,600 Lantas apa masalahnya? 49 00:03:09,231 --> 00:03:11,358 Apa ada masalah dan apa itu? 50 00:03:18,407 --> 00:03:20,158 Sulit memberi satu jawaban ringkas... 51 00:03:20,242 --> 00:03:22,119 Aku mencoba membahas beragam masalah. 52 00:03:22,577 --> 00:03:23,578 Apa masalahnya? 53 00:03:28,208 --> 00:03:32,254 DOKUMENTER NETFLIX ORIGINAL 54 00:03:33,588 --> 00:03:35,340 Meski menghadapi lonjakan kritik, 55 00:03:35,424 --> 00:03:37,676 perusahaan teknologi besar makin berkembang. 56 00:03:37,759 --> 00:03:40,929 Seluruh industri teknologi berada di bawah pengawasan tingkat baru. 57 00:03:41,012 --> 00:03:43,724 Studi baru mengungkap kaitan 58 00:03:43,807 --> 00:03:46,143 antara kesehatan mental dan penggunaan media sosial. 59 00:03:46,226 --> 00:03:48,478 Hadir untuk membahas riset terbaru... 60 00:03:49,187 --> 00:03:51,398 ...yang terjadi tanpa diliput sama sekali. 61 00:03:51,481 --> 00:03:54,025 Puluhan juta warga Amerika sangat kecanduan 62 00:03:54,109 --> 00:03:56,319 terhadap perangkat elektronik mereka. 63 00:03:56,403 --> 00:03:59,364 Itu diperparah oleh fakta kini kita bisa mengasingkan diri... 64 00:03:59,448 --> 00:04:00,699 KAWANMU MENANDAIMU DI FOTO 65 00:04:00,782 --> 00:04:02,742 ...dalam gelembung, berkat teknologi kami. 66 00:04:02,826 --> 00:04:04,578 Berita palsu menjadi lebih maju 67 00:04:04,661 --> 00:04:06,788 dan mengancam masyarakat di seluruh dunia. 68 00:04:06,872 --> 00:04:10,333 Kami tak menduga ini saat membuat Twitter lebih dari 12 tahun lalu. 69 00:04:10,417 --> 00:04:12,502 Pemerintah mengatakan mereka tak yakin 70 00:04:12,586 --> 00:04:14,754 serangan siber Rusia akan berhenti. 71 00:04:14,838 --> 00:04:18,133 YouTube dipaksa berfokus membersihkan situsnya. 72 00:04:18,216 --> 00:04:21,553 TikTok, jika Anda berbicara dengan remaja di luar sana, 73 00:04:21,636 --> 00:04:24,014 mustahil mereka akan menghapusnya... 74 00:04:24,097 --> 00:04:26,349 Hei, Isla, bisa tolong siapkan meja? 75 00:04:26,433 --> 00:04:27,517 Ada pertanyaan serius 76 00:04:27,601 --> 00:04:29,978 soal apakah media sosial membuat anak kita depresi. 77 00:04:30,061 --> 00:04:32,105 Isla, bisa tolong siapkan mejanya? 78 00:04:32,189 --> 00:04:35,317 Prosedur kosmetik ini menjadi sangat populer di kalangan remaja 79 00:04:35,400 --> 00:04:37,944 hingga ahli bedah plastik menamai sindrom baru untuk itu, 80 00:04:38,028 --> 00:04:40,822 Dismorfia Snapchat, dengan pasien muda yang ingin operasi 81 00:04:40,906 --> 00:04:43,742 agar mereka bisa mirip dengan swafoto berfilter mereka. 82 00:04:43,825 --> 00:04:45,911 Aku masih bingung kenapa kau memberinya itu. 83 00:04:45,994 --> 00:04:49,581 Aku harus bagaimana? Setiap anak lain di kelasnya punya. 84 00:04:50,165 --> 00:04:51,166 Usianya baru 11 tahun. 85 00:04:51,249 --> 00:04:55,086 Cass, tak ada yang memaksamu memilikinya. Kau bisa tak terhubung selama kau mau. 86 00:04:55,170 --> 00:04:59,341 Hei, aku terhubung tanpa ponsel. Aku sedang mengakses internet. 87 00:04:59,424 --> 00:05:03,094 Lagi pula, itu bukan koneksi nyata. Itu hanya omong kosong... 88 00:05:03,178 --> 00:05:04,971 Kapitalisme pengawasan telah membentuk 89 00:05:05,055 --> 00:05:07,766 politik dan budaya dalam cara yang tak banyak orang pahami. 90 00:05:07,849 --> 00:05:10,101 ISIS mengilhami para pengikutnya lewat internet 91 00:05:10,185 --> 00:05:12,812 dan kini penganut supremasi kulit putih melakukannya juga. 92 00:05:12,896 --> 00:05:14,147 Baru-baru ini di India, 93 00:05:14,231 --> 00:05:17,442 massa hakim jalanan di internet telah membunuh lusinan orang... 94 00:05:17,526 --> 00:05:20,362 Ini bukan sekadar berita palsu, tapi juga berkonsekuensi. 95 00:05:20,445 --> 00:05:24,074 Bagaimana cara menangani wabah di era maraknya berita palsu? 96 00:05:24,157 --> 00:05:26,993 Bisakah kita tertular virus korona dengan memakan makanan Cina? 97 00:05:27,536 --> 00:05:32,541 Kita telah berubah dari era informasi menjadi era disinformasi. 98 00:05:32,624 --> 00:05:34,668 Demokrasi kita sedang diserang. 99 00:05:34,751 --> 00:05:38,505 Maksudku adalah, "Kurasa alat yang telah diciptakan hari ini  100 00:05:38,588 --> 00:05:41,800 mulai mengikis struktur sosial dari cara kerja masyarakat." 101 00:06:00,151 --> 00:06:03,446 Asa memberi ucapan sambutan. Kita putar videonya. 102 00:06:04,197 --> 00:06:07,325 Lalu, "Hadirin, sambutlah Tristan Harris." 103 00:06:07,409 --> 00:06:08,827 - Benar. - Bagus. 104 00:06:08,952 --> 00:06:09,953 Jadi, aku naik... 105 00:06:11,204 --> 00:06:12,038 dan... 106 00:06:12,122 --> 00:06:13,748 MANUSIAWI AGENDA BARU TEKNOLOGI 107 00:06:13,832 --> 00:06:16,042 Intinya katakan, "Terima kasih sudah datang." 108 00:06:17,919 --> 00:06:22,048 Jadi, hari ini, aku ingin membahas agenda baru untuk teknologi. 109 00:06:22,132 --> 00:06:25,468 Alasan kami ingin melakukannya adalah karena jika kita tanyai orang, 110 00:06:25,552 --> 00:06:27,804 "Apa yang salah di industri teknologi saat ini?" 111 00:06:28,346 --> 00:06:31,641 Ada banyak keluhan, skandal, 112 00:06:31,725 --> 00:06:33,894 pencurian data, kecanduan teknologi, 113 00:06:33,977 --> 00:06:35,979 berita palsu, polarisasi, 114 00:06:36,062 --> 00:06:37,689 dan beberapa pemilu yang diretas. 115 00:06:38,189 --> 00:06:41,610 Namun, adakah sesuatu di balik semua masalah ini 116 00:06:41,693 --> 00:06:44,654 yang menyebabkan semua ini terjadi sekaligus? 117 00:06:46,448 --> 00:06:48,658 - Itu sudah bagus? - Bagus sekali. Ya. 118 00:06:50,827 --> 00:06:52,954 Aku hanya mencoba... Aku mau orang melihat... 119 00:06:53,038 --> 00:06:55,206 ada masalah yang terjadi di industri teknologi. 120 00:06:55,290 --> 00:07:00,211 Itu tak bernama dan itu terkait dengan satu sumber... 121 00:07:05,091 --> 00:07:06,801 Saat kita melihat sekeliling, 122 00:07:07,218 --> 00:07:09,387 rasanya dunia menjadi gila. 123 00:07:12,766 --> 00:07:15,185 Kita harus menanyai diri, apa ini normal? 124 00:07:16,102 --> 00:07:18,897 Atau kita semua terpengaruh semacam mantra? 125 00:07:22,317 --> 00:07:25,153 MANTAN PAKAR ETIKA DESAIN GOOGLE 126 00:07:25,236 --> 00:07:27,906 PENDIRI BERSAMA CENTER FOR HUMANE TECHNOLOGY 127 00:07:27,989 --> 00:07:30,492 Kuharap lebih banyak orang bisa memahami cara kerjanya 128 00:07:30,575 --> 00:07:34,037 karena ini seharusnya bukan hal yang hanya diketahui industri teknologi. 129 00:07:34,120 --> 00:07:36,289 Itu hal yang seharusnya semua orang tahu. 130 00:07:47,384 --> 00:07:48,301 - Halo! - Hai. 131 00:07:48,760 --> 00:07:50,595 - Tristan. Senang bertemu kau. - Tristan? 132 00:07:50,679 --> 00:07:51,721 - Ya. - Bagus. 133 00:07:53,181 --> 00:07:55,934 Tristan Harris adalah mantan pakar etika desain Google 134 00:07:56,017 --> 00:07:59,354 dan dijuluki sebagai hal paling mirip dengan nurani bagi Silicon Valley. 135 00:07:59,437 --> 00:08:01,189 Dia meminta industri teknologi membawa 136 00:08:01,272 --> 00:08:04,192 hal yang dia sebut "desain etis" pada produknya. 137 00:08:04,275 --> 00:08:06,903 Jarang ada orang dalam teknologi yang sejujur itu, 138 00:08:06,986 --> 00:08:10,281 tapi Tristan Harris percaya seseorang harus melakukannya. 139 00:08:11,324 --> 00:08:12,701 Dulu di Google, 140 00:08:12,784 --> 00:08:16,037 aku ada di tim Gmail dan mulai kelelahan 141 00:08:16,121 --> 00:08:18,581 karena kami begitu sering membahas... 142 00:08:19,457 --> 00:08:23,169 harus seperti apa bentuk kotak masuk dan warnanya. 143 00:08:23,253 --> 00:08:25,880 Aku merasa kecanduan surel 144 00:08:26,297 --> 00:08:27,716 dan kuanggap itu menarik 145 00:08:27,799 --> 00:08:31,511 bahwa tak ada orang di Gmail yang mencoba membuatnya tak begitu adiktif. 146 00:08:31,970 --> 00:08:34,514 Kupikir, "Apa ada lagi yang memikirkan ini? 147 00:08:34,597 --> 00:08:36,391 Belum kudengar ada yang membahas ini." 148 00:08:36,850 --> 00:08:41,229 Aku merasa frustrasi dengan industri teknologi secara umum 149 00:08:41,312 --> 00:08:43,273 karena kita seolah-olah tersesat. 150 00:08:46,985 --> 00:08:49,821 Aku berjuang untuk mencari tahu 151 00:08:49,904 --> 00:08:52,574 cara kami bisa mengubahnya dari dalam. 152 00:08:55,201 --> 00:08:59,497 Saat itulah kuputuskan membuat presentasi, semacam ajakan untuk bergerak. 153 00:09:00,999 --> 00:09:04,961 Setiap hari, aku pulang dan mengerjakannya selama beberapa jam setiap malam. 154 00:09:06,171 --> 00:09:11,885 Pada dasarnya tertulis, belum pernah ada 50 desainer, 155 00:09:12,427 --> 00:09:15,263 dari pria kulit putih berusia 20-35 tahun di California, 156 00:09:15,889 --> 00:09:19,726 membuat keputusan yang akan berdampak pada dua miliar orang. 157 00:09:21,019 --> 00:09:24,439 Dua miliar orang akan mendapat ide yang tak mereka niatkan 158 00:09:24,522 --> 00:09:28,401 karena desainer di Google berkata, "Ini cara notifikasi bekerja 159 00:09:28,485 --> 00:09:30,779 di layar yang kau lihat saat bangun pagi." 160 00:09:30,862 --> 00:09:35,283 Kami punya tanggung jawab moral sebagai Google untuk pecahkan masalah ini. 161 00:09:36,076 --> 00:09:37,744 Aku mengirim presentasi ini 162 00:09:37,827 --> 00:09:41,790 ke 15 hingga 20 rekan terdekatku di Google. 163 00:09:41,873 --> 00:09:44,959 Aku sangat gugup dan tak yakin bagaimana reaksinya. 164 00:09:46,461 --> 00:09:48,046 Saat bekerja keesokan harinya, 165 00:09:48,129 --> 00:09:50,465 mayoritas laptop menampilkan presentasi itu. 166 00:09:50,548 --> 00:09:52,050 PERHATIAN 167 00:09:52,133 --> 00:09:54,552 Kemudian pada hari itu, ada 400 penonton serentak, 168 00:09:54,636 --> 00:09:57,972 jadi, itu terus menyebar. Aku menerima surel dari seisi perusahaan. 169 00:09:58,181 --> 00:10:00,266 Orang-orang di setiap departemen berkata, 170 00:10:00,350 --> 00:10:02,852 "Aku setuju. Kulihat ini memengaruhi anak-anakku 171 00:10:02,936 --> 00:10:06,856 dan orang-orang di sekitarku. Kita harus melakukan sesuatu." 172 00:10:07,482 --> 00:10:10,819 Rasanya seperti aku meluncurkan revolusi atau semacamnya. 173 00:10:11,861 --> 00:10:15,198 Kemudian, aku tahu Larry Page diberi tahu soal presentasi ini 174 00:10:15,281 --> 00:10:17,116 dalam tiga pertemuan terpisah hari itu. 175 00:10:17,951 --> 00:10:20,286 Itu menciptakan semacam momen budaya 176 00:10:20,870 --> 00:10:23,206 yang harus Google anggap serius. 177 00:10:26,000 --> 00:10:26,918 Lalu... 178 00:10:28,461 --> 00:10:29,295 sirna. 179 00:10:34,300 --> 00:10:36,136 Semua orang pada tahun 2006... 180 00:10:37,345 --> 00:10:39,222 termasuk kami di Facebook, 181 00:10:39,305 --> 00:10:43,393 sangat mengagumi Google dan apa yang telah Google bangun, 182 00:10:43,476 --> 00:10:47,397 yaitu sebuah layanan yang sangat berguna, 183 00:10:47,480 --> 00:10:51,442 yang sejauh kami tahu, memberi banyak kebaikan bagi dunia. 184 00:10:51,526 --> 00:10:55,196 Mereka pun membangun mesin penghasil uang paralel. 185 00:10:55,697 --> 00:11:00,034 Kami sangat iri dengan itu. Bagi kami, itu tampak sangat elegan 186 00:11:00,827 --> 00:11:02,162 dan sempurna. 187 00:11:03,037 --> 00:11:05,206 Facebook sudah ada selama dua tahun 188 00:11:05,874 --> 00:11:08,376 dan aku direkrut untuk mencari tahu 189 00:11:08,459 --> 00:11:10,587 model bisnis untuk perusahaan. 190 00:11:10,670 --> 00:11:13,423 Aku Direktur Monetisasi. Intinya adalah, 191 00:11:13,506 --> 00:11:17,051 "Kau yang akan mencari tahu cara hal ini menghasilkan uang." 192 00:11:17,135 --> 00:11:19,804 Ada banyak orang yang melakukan banyak pekerjaan, 193 00:11:19,888 --> 00:11:25,643 tapi aku jelas salah satu orang yang menunjukkan... 194 00:11:26,769 --> 00:11:28,605 kami harus menghasilkan uang... 195 00:11:29,314 --> 00:11:33,651 dan kurasa model pengiklanan ini mungkin cara yang paling elegan. 196 00:11:43,077 --> 00:11:44,454 Video apa yang baru Ibu kirim? 197 00:11:44,537 --> 00:11:47,790 Itu dari gelar wicara, tapi cukup bagus. Pria itu genius. 198 00:11:47,874 --> 00:11:50,668 Dia membahas penghapusan media sosial, yang harus kau lakukan. 199 00:11:50,752 --> 00:11:52,879 Aku mungkin harus mulai memblokir surelnya. 200 00:11:52,962 --> 00:11:56,049 Sungguh, aku tak paham ucapannya. Dia lebih buruk dariku. 201 00:11:56,132 --> 00:11:58,468 - Dia hanya memakainya untuk resep. - Juga bekerja. 202 00:11:58,551 --> 00:12:00,637 - Serta video olahraga. - Juga tahu kabar kita. 203 00:12:00,720 --> 00:12:03,306 Serta kabar semua orang yang pernah dia temui di hidupnya. 204 00:12:04,933 --> 00:12:07,894 Jika Anda memeriksa umpan berita media sosial 205 00:12:07,977 --> 00:12:11,731 sambil menonton kami, Anda harus taruh ponselnya dan dengarkan 206 00:12:11,814 --> 00:12:14,817 karena tamu kita berikutnya telah menulis buku yang luar biasa 207 00:12:14,901 --> 00:12:18,112 soal betapa itu menghancurkan hidup kita. 208 00:12:18,196 --> 00:12:19,447 Tolong sambut penulis 209 00:12:19,530 --> 00:12:24,452 Ten Arguments For Deleting Your Social Media Accounts Right Now, 210 00:12:24,535 --> 00:12:25,787 Jaron Lanier. 211 00:12:26,287 --> 00:12:27,288 Itu benar. 212 00:12:27,997 --> 00:12:31,834 Perusahaan seperti Google dan Facebook adalah yang terkaya 213 00:12:31,918 --> 00:12:33,628 dan tersukses sepanjang masa. 214 00:12:34,295 --> 00:12:36,839 Mereka punya pegawai yang relatif sedikit. 215 00:12:36,923 --> 00:12:40,760 Mereka punya komputer raksasa yang mudah menghasilkan uang, bukan? 216 00:12:41,511 --> 00:12:45,223 Untuk apa mereka dibayar? Itu pertanyaan yang sangat penting. 217 00:12:47,308 --> 00:12:50,186 Aku sudah menjadi investor di bidang teknologi selama 35 tahun. 218 00:12:51,020 --> 00:12:54,357 Pada 50 tahun pertama Silicon Valley, industri ini membuat produk, 219 00:12:54,440 --> 00:12:56,526 perangkat keras dan lunak, dijual ke pelanggan. 220 00:12:56,609 --> 00:12:58,403 Itu bisnis yang sederhana. 221 00:12:58,486 --> 00:13:01,531 Selama sepuluh tahun terakhir, perusahaan terbesar di Silicon Valley 222 00:13:01,614 --> 00:13:03,866 berbisnis dengan menjual penggunanya. 223 00:13:03,950 --> 00:13:05,910 Bahkan kini agak basi untuk mengatakannya, 224 00:13:05,994 --> 00:13:09,205 tapi karena kita tak membayar produk yang kita gunakan, 225 00:13:09,288 --> 00:13:12,166 pengiklan membayar produk yang kita gunakan. 226 00:13:12,250 --> 00:13:14,085 Pengiklan adalah pelanggannya. 227 00:13:14,711 --> 00:13:16,087 Kitalah yang dijual. 228 00:13:16,170 --> 00:13:17,630 Pepatah klasiknya adalah, 229 00:13:17,714 --> 00:13:21,592 "Jika kau tak membayar produknya, berarti kaulah produknya." 230 00:13:21,676 --> 00:13:23,302 KAULAH PRODUKNYA 231 00:13:23,386 --> 00:13:27,140 Banyak orang berpikir, "Google hanyalah kotak pencarian 232 00:13:27,223 --> 00:13:29,851 dan Facebook hanya tempat untuk melihat kabar teman-temanku 233 00:13:29,934 --> 00:13:31,102 dan melihat foto mereka." 234 00:13:31,185 --> 00:13:35,481 Namun, mereka tak sadar mereka bersaing memikat perhatianmu. 235 00:13:36,524 --> 00:13:41,112 Jadi, Facebook, Snapchat, Twitter, Instagram, YouTube, 236 00:13:41,195 --> 00:13:45,491 model bisnis perusahaan seperti ini adalah membuat orang terpaku di layar. 237 00:13:46,284 --> 00:13:49,579 Mari kita cari tahu cara mendapatkan perhatian orang ini 238 00:13:49,662 --> 00:13:50,955 sebanyak mungkin. 239 00:13:51,456 --> 00:13:53,541 Kami bisa membuatmu habiskan waktu selama apa? 240 00:13:53,916 --> 00:13:56,794 Kami bisa membuatmu memberi hidupmu sebanyak apa kepada kami? 241 00:13:58,671 --> 00:14:01,090 Saat memikirkan cara kerja beberapa perusahaan ini, 242 00:14:01,174 --> 00:14:02,508 itu mulai menjadi masuk akal. 243 00:14:03,051 --> 00:14:06,095 Ada banyak layanan di internet yang kita anggap gratis. 244 00:14:06,179 --> 00:14:09,474 Namun, itu tak gratis. Semua itu dibayar oleh pengiklan. 245 00:14:09,557 --> 00:14:11,559 Kenapa pengiklan membayar perusahaan itu? 246 00:14:11,642 --> 00:14:14,687 Mereka membayar untuk menampilkan iklan kepada kita. 247 00:14:14,771 --> 00:14:15,730 Kitalah produknya. 248 00:14:15,813 --> 00:14:18,358 Perhatian kita adalah produk yang dijual ke pengiklan. 249 00:14:18,816 --> 00:14:20,443 Itu agak terlalu sederhana. 250 00:14:20,818 --> 00:14:23,654 Perubahan perlahan, kecil, dan tak terlihat 251 00:14:23,738 --> 00:14:26,074 dalam perilaku dan persepsi kita, itulah produknya. 252 00:14:26,157 --> 00:14:27,575 PERUBAHAN PERILAKU DAN PERSEPSI 253 00:14:27,658 --> 00:14:30,244 Itulah produknya. Hanya itu produk yang mungkin. 254 00:14:30,328 --> 00:14:34,082 Tak ada kemungkinan lain yang bisa disebut produk. 255 00:14:34,165 --> 00:14:37,251 Hanya itu sumber uang mereka. 256 00:14:37,668 --> 00:14:39,253 Mengubah perilaku, 257 00:14:39,337 --> 00:14:41,714 cara berpikir, dan jati diri kita. 258 00:14:42,632 --> 00:14:45,301 Perubahannya perlahan dan kecil. 259 00:14:45,384 --> 00:14:48,971 Jika bisa datangi seseorang dan berkata, "Beri aku sepuluh juta dolar 260 00:14:49,055 --> 00:14:54,310 dan akan kuubah dunia satu persen ke arah yang kau mau..." 261 00:14:54,894 --> 00:14:58,189 Itu dunia! Itu bisa luar biasa dan harganya mahal. 262 00:14:59,315 --> 00:15:00,149 Baiklah. 263 00:15:00,691 --> 00:15:04,570 Inilah yang selalu diimpikan semua bisnis, 264 00:15:04,654 --> 00:15:10,910 untuk memiliki jaminan keberhasilan saat iklannya dipasang. 265 00:15:11,285 --> 00:15:12,787 Itulah bisnis mereka. 266 00:15:12,995 --> 00:15:14,789 Mereka menjual kepastian. 267 00:15:14,997 --> 00:15:17,625 Agar sukses dalam bisnis itu, 268 00:15:17,708 --> 00:15:19,752 kita harus punya prediksi bagus. 269 00:15:20,044 --> 00:15:24,173 Prediksi besar dimulai dengan satu hal penting. 270 00:15:25,216 --> 00:15:26,926 Kita butuh banyak data. 271 00:15:27,009 --> 00:15:29,011 KITA BUTUH BANYAK DATA 272 00:15:29,137 --> 00:15:31,556 Banyak orang menyebut ini kapitalisme pengawasan. 273 00:15:31,639 --> 00:15:34,350 Kapitalisme yang mengambil untung dari jejak tak terbatas 274 00:15:34,434 --> 00:15:38,062 dari semua tempat yang semua orang datangi oleh perusahaan teknologi besar 275 00:15:38,146 --> 00:15:40,398 yang model bisnisnya adalah memastikan 276 00:15:40,481 --> 00:15:42,859 pengiklan bisa sesukses mungkin. 277 00:15:43,151 --> 00:15:45,570 Inilah jenis lokapasar baru saat ini. 278 00:15:45,653 --> 00:15:48,072 Ini lokapasar yang belum pernah ada. 279 00:15:48,823 --> 00:15:55,371 Ini lokapasar yang hanya memperdagangkan prediksi nilai saham manusia. 280 00:15:56,330 --> 00:15:58,499 Seperti pasar yang memperdagangkan 281 00:15:58,583 --> 00:16:01,586 prediksi nilai saham perut babi atau minyak. 282 00:16:02,128 --> 00:16:04,714 Kini kita punya pasar yang memperdagangkan 283 00:16:04,797 --> 00:16:07,592 prediksi nilai saham manusia dalam skala besar 284 00:16:08,176 --> 00:16:13,472 dan pasar itu telah menghasilkan triliunan dolar 285 00:16:14,015 --> 00:16:19,270 yang menjadikan perusahaan internet sebagai perusahaan terkaya 286 00:16:19,353 --> 00:16:22,565 dalam sejarah kemanusiaan. 287 00:16:27,445 --> 00:16:31,073 Aku ingin orang tahu semua yang mereka lakukan di internet 288 00:16:31,157 --> 00:16:34,327 diawasi, dilacak, dan diukur. 289 00:16:35,036 --> 00:16:39,624 Setiap tindakan yang kita lakukan dipantau dan direkam dengan hati-hati. 290 00:16:39,707 --> 00:16:43,836 Misalnya, gambar yang kita lihat dan berapa lama kita melihatnya. 291 00:16:43,920 --> 00:16:45,796 Ya, sungguh, berapa lama kau melihatnya. 292 00:16:45,880 --> 00:16:47,548 NAVIYA_R WAKTU KETERLIBATAN 293 00:16:47,632 --> 00:16:49,217 RYAN_M WAKTU KETERLIBATAN 294 00:16:49,300 --> 00:16:50,426 WREN_F WAKTU KETERLIBATAN 295 00:16:50,510 --> 00:16:53,804 Mereka tahu saat orang kesepian, depresi, 296 00:16:53,888 --> 00:16:57,099 dan tahu saat orang melihat foto mantan pasanganmu. 297 00:16:57,183 --> 00:17:00,853 Mereka tahu yang kau lakukan saat larut malam. Mereka tahu semuanya. 298 00:17:01,229 --> 00:17:03,231 Entah kau introver, ekstrover, 299 00:17:03,314 --> 00:17:06,943 jenis neurosis yang kau punya, atau seperti apa kepribadianmu. 300 00:17:08,194 --> 00:17:11,614 Mereka punya lebih banyak informasi soal kita 301 00:17:11,697 --> 00:17:14,325 daripada yang pernah dibayangkan dalam sejarah manusia. 302 00:17:14,951 --> 00:17:16,452 Ini belum pernah terjadi. 303 00:17:18,579 --> 00:17:22,792 Jadi, semua data yang kita berikan setiap saat 304 00:17:22,875 --> 00:17:26,754 dimasukkan ke sistem yang nyaris tak diawasi manusia, 305 00:17:27,463 --> 00:17:30,883 yang terus membuat prediksi yang makin membaik 306 00:17:30,967 --> 00:17:33,552 tentang apa yang akan kita lakukan dan siapa kita. 307 00:17:34,887 --> 00:17:36,347 DIREKOMENDASIKAN UNTUKMU 308 00:17:36,430 --> 00:17:39,684 Banyak orang salah memahami bahwa data kita yang dijual. 309 00:17:40,351 --> 00:17:43,187 Memberi data secara gratis bukanlah minat bisnis Facebook. 310 00:17:45,523 --> 00:17:47,108 Mereka apakan data itu? 311 00:17:51,070 --> 00:17:54,490 Mereka membuat model yang memprediksi tindakan kita. 312 00:17:54,574 --> 00:17:57,618 Siapa pun yang punya model terbaik akan menang. 313 00:18:02,707 --> 00:18:04,041 Kecepatan gulungnya melambat. 314 00:18:04,125 --> 00:18:06,919 Mendekati akhir rata-rata durasi sesinya, mengurangi iklan. 315 00:18:07,003 --> 00:18:08,337 Tampilkan teman dan keluarga. 316 00:18:09,672 --> 00:18:11,340 Di sisi lain layar, 317 00:18:11,424 --> 00:18:15,469 mereka seperti punya model boneka voodoo yang menyerupai kita. 318 00:18:16,762 --> 00:18:18,180 Semua yang pernah kita lakukan, 319 00:18:18,264 --> 00:18:19,473 semua klik yang kita buat, 320 00:18:19,557 --> 00:18:21,684 semua video yang kita tonton, semua tombol suka. 321 00:18:21,767 --> 00:18:25,354 Semua itu diolah untuk membangun model yang lebih akurat. 322 00:18:25,896 --> 00:18:27,481 Setelah modelnya ada, 323 00:18:27,565 --> 00:18:29,859 kita bisa memprediksi hal-hal yang dilakukan orang. 324 00:18:30,151 --> 00:18:31,944 Baiklah, coba aku tes. 325 00:18:32,570 --> 00:18:34,405 Ke mana kau akan pergi, bisa kuprediksi 326 00:18:34,488 --> 00:18:36,198 video apa yang akan terus kau tonton. 327 00:18:36,282 --> 00:18:39,160 Aku bisa memprediksi emosi macam apa yang memicumu. 328 00:18:39,243 --> 00:18:40,411 Ya, sempurna. 329 00:18:41,579 --> 00:18:43,372 Kegagalan terhebat tahun ini. 330 00:18:43,748 --> 00:18:44,665 KEGAGALAN HEBAT! 331 00:18:48,628 --> 00:18:51,088 - Sempurna, itu berhasil. - Disusul video lain. 332 00:18:51,172 --> 00:18:54,050 Bagus. Mari selipkan iklan sepatu sebelum videonya diputar. 333 00:18:56,427 --> 00:18:59,722 Ada tiga tujuan utama di banyak perusahaan teknologi ini. 334 00:18:59,805 --> 00:19:03,517 Ada tujuan keterlibatan untuk menaikkan penggunaanmu, agar terus gulirkan layar. 335 00:19:04,602 --> 00:19:06,145 Ada tujuan pertumbuhan 336 00:19:06,228 --> 00:19:08,689 untuk membuatmu kembali, mengundang banyak teman, 337 00:19:08,773 --> 00:19:10,816 dan agar mereka mengundang lebih banyak teman. 338 00:19:11,650 --> 00:19:14,987 Lalu ada tujuan iklan untuk memastikan bahwa seiring semua itu terjadi, 339 00:19:15,071 --> 00:19:17,406 kami menghasilkan uang sebanyak mungkin dari iklan. 340 00:19:19,367 --> 00:19:21,952 Masing-masing tujuan ini ditenagai oleh algoritme 341 00:19:22,036 --> 00:19:24,455 yang bertugas mencari tahu apa yang harus ditunjukkan 342 00:19:24,538 --> 00:19:26,165 agar jumlahnya terus naik. 343 00:19:26,624 --> 00:19:29,919 Di Facebook, kami sering membahas ide 344 00:19:30,002 --> 00:19:34,006 untuk bisa mengaturnya sesuai kebutuhan. 345 00:19:34,674 --> 00:19:38,594 Kami membahas soal meminta Mark mengaturnya. 346 00:19:41,305 --> 00:19:44,600 "Hei, aku ingin lebih banyak pengguna di Korea hari ini." 347 00:19:45,684 --> 00:19:46,769 Putar pengaturnya. 348 00:19:47,436 --> 00:19:49,271 "Mari tambah iklannya sedikit." 349 00:19:49,980 --> 00:19:51,816 "Tambah monetisasinya sedikit." 350 00:19:53,150 --> 00:19:55,444 Jadi, itu... 351 00:19:55,528 --> 00:19:59,240 Di semua perusahaan ini, ada tingkat presisi sebesar itu. 352 00:19:59,990 --> 00:20:02,410 - Bung... - Entah kenapa aku tak diberi kartu. 353 00:20:02,493 --> 00:20:05,704 - Wasit itu payah. - Kau benar-benar... 354 00:20:05,788 --> 00:20:08,040 - Itu Rebecca. Bicaralah. - Aku tahu siapa dia. 355 00:20:08,124 --> 00:20:10,835 - Kau saja yang bicara. - Sedang kuusahakan. 356 00:20:10,918 --> 00:20:14,171 Menurut kalendernya, dia sedang istirahat. Seharusnya kita sudah mulai. 357 00:20:15,464 --> 00:20:16,465 Mau kudorong dia? 358 00:20:17,133 --> 00:20:18,050 Lakukanlah. 359 00:20:21,720 --> 00:20:24,181 "Temanmu, Tyler, baru bergabung. Beri lambaian." 360 00:20:26,016 --> 00:20:27,184 Ayolah. 361 00:20:27,268 --> 00:20:28,769 Kirimkan lambaian tangan. 362 00:20:29,395 --> 00:20:31,647 Kau bahkan tidak... Hei, bicaralah dengannya. 363 00:20:31,730 --> 00:20:34,900 TEMANMU, TYLER, BARU BERGABUNG! BERI LAMBAIAN! 364 00:20:36,902 --> 00:20:37,987 KONEKSI JARINGAN 365 00:20:38,070 --> 00:20:40,573 Koneksi baru! Baiklah, kita masuk. 366 00:20:40,948 --> 00:20:46,078 Lanjutkan dengan pos dari pengguna 079044238820, Rebecca. 367 00:20:46,162 --> 00:20:49,790 Ide bagus. Koordinat GPS menunjukkan jarak mereka berdekatan. 368 00:20:52,168 --> 00:20:55,838 REBECCA_G KUTEMUKAN BELAHAN JIWAKU! 369 00:20:55,921 --> 00:20:57,173 Dia siap untuk iklan. 370 00:20:57,631 --> 00:20:58,632 Waktu lelang. 371 00:20:58,716 --> 00:21:00,050 PRATINJAU IKLAN 372 00:21:00,509 --> 00:21:02,803 Terjual! Untuk lilin rambut Deep Fade. 373 00:21:03,387 --> 00:21:04,847 Ada 468 penawar yang berminat. 374 00:21:04,930 --> 00:21:08,225 Kita menjual Ben seharga 3,262 sen untuk satu impresi. 375 00:21:17,109 --> 00:21:21,530 Kita telah menciptakan dunia tempat koneksi daring menjadi hal utama, 376 00:21:22,072 --> 00:21:23,908 khususnya bagi generasi muda. 377 00:21:23,991 --> 00:21:28,329 Namun, di dunia itu, setiap dua orang terhubung, 378 00:21:29,163 --> 00:21:33,250 itu hanya bisa didanai oleh orang ketiga yang licik 379 00:21:33,334 --> 00:21:35,628 yang membayar untuk memanipulasi dua orang itu. 380 00:21:36,128 --> 00:21:39,381 Jadi, kita menciptakan seluruh generasi global 381 00:21:39,465 --> 00:21:44,011 yang dibesarkan dalam konteks bahwa makna sebenarnya dari komunikasi 382 00:21:44,094 --> 00:21:47,431 dan budaya adalah manipulasi. 383 00:21:47,515 --> 00:21:49,725 Kita telah menempatkan penipuan dan kelicikan 384 00:21:49,808 --> 00:21:52,311 di tengah-tengah dari semua usaha kita. 385 00:21:56,732 --> 00:22:01,153 "SEMUA TEKNOLOGI YANG CANGGIH 386 00:22:01,237 --> 00:22:05,658 TIDAKLAH BERBEDA DARI SULAP." ARTHUR C. CLARKE 387 00:22:05,741 --> 00:22:07,159 - Pegang sisi lainnya... - Baik. 388 00:22:07,243 --> 00:22:09,370 - Di mana tempat menaruh yang baik? - Itu bagus. 389 00:22:09,453 --> 00:22:10,621 - Di sini? - Ya. 390 00:22:10,704 --> 00:22:13,707 Seperti apa ini tampil di kamera jika kulakukan... 391 00:22:13,791 --> 00:22:15,501 - Sebenarnya, kami... - Seperti itu? 392 00:22:15,584 --> 00:22:16,836 - Apa? - Ya. 393 00:22:16,919 --> 00:22:18,546 - Bisa lakukan lagi? - Baik. 394 00:22:19,046 --> 00:22:20,589 Ya. Itu mungkin tidak... 395 00:22:20,673 --> 00:22:21,966 Ya. 396 00:22:22,466 --> 00:22:23,884 Yang satu ini kurang... 397 00:22:31,016 --> 00:22:33,269 Chris benar-benar kebingungan di sini. 398 00:22:34,728 --> 00:22:35,563 Apa itu bagus? 399 00:22:35,646 --> 00:22:37,773 SULAP! 400 00:22:37,856 --> 00:22:41,068 Usiaku lima tahun saat belajar sulap. 401 00:22:41,151 --> 00:22:45,781 Aku bisa membodohi para orang dewasa yang bergelar doktor. 402 00:22:55,040 --> 00:22:58,919 Pesulap itu hampir seperti ahli saraf dan psikolog pertama. 403 00:22:59,003 --> 00:23:03,382 Mereka yang pertama memahami  cara kerja pikiran orang. 404 00:23:04,216 --> 00:23:07,678 Mereka secara langsung menguji banyak hal pada orang-orang. 405 00:23:09,138 --> 00:23:11,140 Seorang pesulap memahami sesuatu, 406 00:23:11,223 --> 00:23:14,018 sebagian dari pikiranmu yang tak kita sadari. 407 00:23:14,101 --> 00:23:15,936 Itulah yang membuat ilusi berhasil. 408 00:23:16,270 --> 00:23:17,688 Dokter, pengacara, 409 00:23:17,771 --> 00:23:20,608 orang yang tahu cara membuat Boeing 747 atau misil nuklir, 410 00:23:20,691 --> 00:23:24,361 mereka tak lebih tahu soal betapa rentannya pikiran mereka. 411 00:23:24,445 --> 00:23:26,155 Itu bidang ilmu yang berbeda. 412 00:23:26,572 --> 00:23:28,991 Itulah bidang ilmu yang berlaku untuk semua manusia. 413 00:23:29,074 --> 00:23:30,910 UNIVERSITAS STANFORD 414 00:23:30,993 --> 00:23:34,079 Dari sudut pandang itu, kita bisa memiliki pemahaman sangat berbeda 415 00:23:34,163 --> 00:23:35,706 soal hal yang teknologi lakukan. 416 00:23:36,874 --> 00:23:39,585 Saat belajar di Lab Teknologi Persuasif Stanford, 417 00:23:39,668 --> 00:23:41,045 inilah yang kami pelajari. 418 00:23:41,587 --> 00:23:43,505 Bagaimana memanfaatkan semua yang kita tahu 419 00:23:43,589 --> 00:23:45,883 tentang psikologi dari cara membujuk orang 420 00:23:45,966 --> 00:23:48,385 dan menjadikannya teknologi? 421 00:23:48,469 --> 00:23:50,763 Banyak dari kalian yang hadir yang sudah genius. 422 00:23:50,846 --> 00:23:53,682 Kurasa itu benar, tapi tujuanku adalah menjadikan kalian 423 00:23:53,766 --> 00:23:55,893 genius dalam perubahan perilaku. 424 00:23:56,852 --> 00:24:01,148 Ada banyak tokoh ternama di Silicon Valley yang mengikuti kelas itu, 425 00:24:01,231 --> 00:24:05,486 tokoh kunci pertumbuhan di Facebook, Uber, juga perusahaan lain, 426 00:24:05,569 --> 00:24:09,198 dan belajar membuat teknologi lebih persuasif, 427 00:24:09,615 --> 00:24:10,950 Tristan salah satunya. 428 00:24:12,242 --> 00:24:14,620 Teknologi persuasif itu semacam desain 429 00:24:14,703 --> 00:24:16,580 yang sengaja diterapkan secara ekstrem, 430 00:24:16,664 --> 00:24:18,874 agar kami bisa mengubah perilaku seseorang. 431 00:24:18,958 --> 00:24:20,542 Kami ingin mereka melakukan sesuatu 432 00:24:20,626 --> 00:24:23,337 dan terus melakukan ini dengan jari mereka. 433 00:24:23,420 --> 00:24:26,256 Jika tarik layar dan segarkan, akan muncul hal baru di atas. 434 00:24:26,340 --> 00:24:28,509 Tarik dan segarkan lagi, hal baru. Setiap kali. 435 00:24:28,592 --> 00:24:33,722 Dalam psikologi,  itu disebut penguat intermiten positif. 436 00:24:33,806 --> 00:24:37,142 Kita tak tahu kapan atau apakah kita akan mendapatkannya. 437 00:24:37,226 --> 00:24:40,062 Itu bekerja seperti mesin slot di Vegas. 438 00:24:40,145 --> 00:24:42,189 Bukan hanya memakai produknya secara sadar, 439 00:24:42,272 --> 00:24:44,024 tapi aku mau masuk jauh ke batang otak 440 00:24:44,108 --> 00:24:47,653 dan menanamkan kebiasaan secara tak sadar di dalam dirimu 441 00:24:47,736 --> 00:24:50,781 agar kau diprogram secara lebih mendalam. 442 00:24:50,864 --> 00:24:52,116 Kau bahkan tak sadar. 443 00:24:52,408 --> 00:24:53,867 Pria bernama James Marshall... 444 00:24:53,951 --> 00:24:56,286 Setiap itu tampak di atas meja, 445 00:24:56,370 --> 00:24:59,790 kau melihatnya dan tahu jika kau mengambilnya, 446 00:24:59,873 --> 00:25:01,333 mungkin ada sesuatu untukmu. 447 00:25:01,417 --> 00:25:03,877 Jadi, kau memainkannya untuk melihat kau dapat apa. 448 00:25:04,211 --> 00:25:06,046 Itu bukan kebetulan, tapi teknik desain. 449 00:25:06,130 --> 00:25:11,135 Dia membawa bungkal emas ke perwira AD di San Francisco. 450 00:25:12,219 --> 00:25:15,389 Ingatlah, populasi San Francisco hanya... 451 00:25:15,472 --> 00:25:17,433 Contoh lainnya adalah penandaan foto. 452 00:25:19,727 --> 00:25:24,064 Jadi, jika menerima surel yang menyebutkan temanmu baru saja menandaimu di foto, 453 00:25:24,148 --> 00:25:28,569 tentu kau akan membuka surel itu dan melihat fotonya. 454 00:25:29,153 --> 00:25:31,947 Itu bukan hal yang bisa kau abaikan begitu saja. 455 00:25:32,364 --> 00:25:36,326 Ini adalah kepribadian mendalam manusia yang mereka manfaatkan. 456 00:25:36,410 --> 00:25:37,995 Yang harus kau tanyakan adalah, 457 00:25:38,078 --> 00:25:40,289 "Kenapa surel itu tak berisi fotonya? 458 00:25:40,372 --> 00:25:42,458 Maka akan lebih mudah melihat fotonya." 459 00:25:42,708 --> 00:25:45,919 Saat Facebook menemukan fitur itu, mereka memaksimalkannya 460 00:25:46,003 --> 00:25:48,505 karena itu dianggap bagus untuk menumbuhkan aktivitas. 461 00:25:48,589 --> 00:25:51,091 Mari buat orang saling menandai foto sepanjang hari." 462 00:25:56,263 --> 00:25:58,891 SETIDAKNYA SALAH SATU DARI KITA TAMPAK BAGUS 463 00:25:59,349 --> 00:26:00,476 Dia berkomentar. 464 00:26:00,559 --> 00:26:01,435 Bagus. 465 00:26:01,935 --> 00:26:04,688 Rebecca menerimanya dan dia merespons. 466 00:26:04,772 --> 00:26:07,566 Beri tahu Ben Rebecca mengetik agar kita tak kehilangan dia. 467 00:26:07,649 --> 00:26:08,901 Mengaktifkan elipsis. 468 00:26:09,234 --> 00:26:13,614 SETIDAKNYA SALAH SATU DARI KITA TAMPAK BAGUS 469 00:26:19,411 --> 00:26:20,788 Bagus, dia menjawab. 470 00:26:21,538 --> 00:26:24,249 Dia mengomentari komentarnya soal komentarnya di posnya. 471 00:26:25,042 --> 00:26:26,418 Tunggu, dia berhenti mengetik. 472 00:26:26,752 --> 00:26:27,753 Beri isi otomatis. 473 00:26:28,420 --> 00:26:30,005 Emoji. Dia suka emoji. 474 00:26:31,381 --> 00:26:33,759 ISI OTOMATIS KETERLIBATAN 475 00:26:33,842 --> 00:26:34,676 Dia memilih api. 476 00:26:35,427 --> 00:26:36,804 Tadi kuharap terung. 477 00:26:38,597 --> 00:26:42,726 Ada disiplin dan bidang ilmu yang disebut "peretasan pertumbuhan". 478 00:26:42,810 --> 00:26:47,147 Tim teknisi yang bertugas meretas psikologi orang 479 00:26:47,231 --> 00:26:48,565 agar dapat pertumbuhan lebih. 480 00:26:48,649 --> 00:26:51,026 Mendapat pendaftaran pengguna dan keterlibatan lebih, 481 00:26:51,110 --> 00:26:52,861 juga membuat kita mengajak orang lagi. 482 00:26:52,945 --> 00:26:55,989 Setelah semua tes, iterasi, dan semua ini, 483 00:26:56,073 --> 00:26:57,908 tahu hal terbesar yang kami sadari? 484 00:26:57,991 --> 00:27:00,994 Buat orang ajak tujuh teman dalam sepuluh hari. 485 00:27:01,954 --> 00:27:02,871 Itu saja. 486 00:27:02,955 --> 00:27:05,499 Dulu Chamath adalah kepala pertumbuhan Facebook 487 00:27:05,582 --> 00:27:08,252 dan dia sangat terkenal di industri teknologi 488 00:27:08,335 --> 00:27:11,004 karena memelopori banyak taktik pertumbuhan 489 00:27:11,088 --> 00:27:14,758 yang digunakan untuk menumbuhkan Facebook dengan sangat cepat. 490 00:27:14,842 --> 00:27:18,512 Taktik pertumbuhan itu lalu menjadi standar untuk Silicon Valley. 491 00:27:18,595 --> 00:27:21,223 Itu digunakan di Uber dan beberapa perusahaan lain. 492 00:27:21,306 --> 00:27:27,062 Salah satu yang dia pelopori adalah penggunaan uji A/B ilmiah 493 00:27:27,146 --> 00:27:28,480 dari perubahan fitur kecil. 494 00:27:29,022 --> 00:27:30,941 Perusahaan seperti Google dan Facebook 495 00:27:31,024 --> 00:27:34,570 akan mengeluarkan banyak eksperimen kecil 496 00:27:34,653 --> 00:27:36,822 yang terus mereka lakukan pada pengguna. 497 00:27:36,905 --> 00:27:39,867 Seiring waktu, dengan terus menjalankan eksperimen ini, 498 00:27:39,950 --> 00:27:42,995 mereka mengembangkan cara paling maksimal 499 00:27:43,078 --> 00:27:45,289 untuk membuat pengguna melakukan yang mereka mau. 500 00:27:45,372 --> 00:27:46,790 Itu manipulasi. 501 00:27:47,332 --> 00:27:49,418 Kau membuatku merasa seperti kelinci percobaan. 502 00:27:49,835 --> 00:27:51,962 Kau memang kelinci percobaan. Kita semua begitu. 503 00:27:52,546 --> 00:27:55,549 Namun, bukan kelinci percobaan untuk mengembangkan obat kanker. 504 00:27:55,632 --> 00:27:58,135 Mereka bukan mencoba memperalat kita. 505 00:27:58,218 --> 00:28:01,513 Kita hanya zombi dan mereka ingin kita melihat lebih banyak iklan 506 00:28:01,597 --> 00:28:03,265 agar mereka dapat lebih banyak uang. 507 00:28:03,557 --> 00:28:08,228 Facebook melakukan hal yang mereka sebut "eksperimen penularan skala besar". 508 00:28:08,312 --> 00:28:09,146 Baiklah. 509 00:28:09,229 --> 00:28:12,858 Bagaimana gunakan petunjuk bawah sadar di halaman Facebook 510 00:28:13,400 --> 00:28:17,571 agar lebih banyak orang memilih di pemilu paruh waktu? 511 00:28:17,988 --> 00:28:20,824 Mereka mendapati mereka mampu melakukan itu. 512 00:28:20,908 --> 00:28:24,161 Satu hal yang mereka simpulkan adalah kini kita tahu 513 00:28:24,745 --> 00:28:28,916 kita bisa memengaruhi perilaku dan emosi dunia nyata 514 00:28:28,999 --> 00:28:32,878 tanpa memicu kesadaran pengguna. 515 00:28:33,503 --> 00:28:37,382 Mereka sama sekali tak tahu. 516 00:28:38,050 --> 00:28:40,427 Kita mengarahkan mesin inteligensi artifisial ini 517 00:28:40,510 --> 00:28:41,970 pada diri kita 518 00:28:42,054 --> 00:28:46,224 untuk merekayasa balik pemicu respons kita. 519 00:28:47,100 --> 00:28:49,603 Hampir seperti menstimulasi sel saraf laba-laba 520 00:28:49,686 --> 00:28:51,480 untuk melihat pemicu respons kakinya. 521 00:28:51,939 --> 00:28:53,941 Ini sungguh semacam eksperimen penjara 522 00:28:54,024 --> 00:28:56,735 tempat kita memaksa orang memasuki matriks 523 00:28:56,818 --> 00:29:00,530 lalu kita mengambil semua uang dan data dari semua aktivitas mereka 524 00:29:00,614 --> 00:29:01,490 sebagai keuntungan. 525 00:29:01,573 --> 00:29:03,450 Kita bahkan tak tahu itu sedang terjadi. 526 00:29:04,117 --> 00:29:07,913 Kami ingin secara psikologis tahu cara memanipulasimu secepat mungkin 527 00:29:07,996 --> 00:29:10,082 lalu membalasnya dengan stimulasi dopamin. 528 00:29:10,165 --> 00:29:12,542 Kami melakukannya dengan sangat baik di Facebook. 529 00:29:12,626 --> 00:29:14,920 Instagram dan WhatsApp melakukannya. 530 00:29:15,003 --> 00:29:17,381 Snapchat dan Twitter melakukannya. 531 00:29:17,673 --> 00:29:19,424 Maksudku, itu persis ide 532 00:29:19,508 --> 00:29:22,427 yang akan dicetuskan oleh peretas sepertiku 533 00:29:22,511 --> 00:29:27,432 karena kita mengeksploitasi kelemahan dalam psikologi manusia. 534 00:29:27,766 --> 00:29:33,438 Kupikir kami, para penemu dan pencipta... 535 00:29:33,981 --> 00:29:37,317 Aku, Mark dan... 536 00:29:37,401 --> 00:29:40,404 Kevin Systrom di Instagram, semua orang ini... 537 00:29:41,154 --> 00:29:46,451 memahami ini secara sadar dan kami tetap melakukannya. 538 00:29:50,580 --> 00:29:53,750 Tak ada yang marah saat sepeda ditemukan. 539 00:29:55,043 --> 00:29:58,005 Benar, bukan? Jika semua orang mulai mengendarai sepeda, 540 00:29:58,088 --> 00:30:00,966 tak ada yang bilang, "Astaga, kita baru merusak masyarakat. 541 00:30:01,049 --> 00:30:03,051 Sepeda memengaruhi orang, 542 00:30:03,135 --> 00:30:05,304 menjauhkan mereka dari anak-anak mereka, 543 00:30:05,387 --> 00:30:08,724 merusak struktur demokrasi, orang tak tahu mana yang benar." 544 00:30:08,807 --> 00:30:11,476 Kita tak pernah berkata begitu soal sepeda. 545 00:30:12,769 --> 00:30:16,148 Jika sesuatu adalah alat, ia hanya duduk diam di sana, 546 00:30:16,732 --> 00:30:18,734 menunggu dengan sabar. 547 00:30:19,318 --> 00:30:22,821 Jika sesuatu bukan alat, ia menuntut sesuatu darimu, 548 00:30:22,904 --> 00:30:26,533 merayu, memanipulasi, dan menginginkan sesuatu darimu. 549 00:30:26,950 --> 00:30:30,495 Kita beralih dari memiliki lingkungan teknologi berbasis alat 550 00:30:31,038 --> 00:30:34,499 ke lingkungan teknologi berbasis kecanduan dan manipulasi. 551 00:30:34,583 --> 00:30:35,709 Itu yang berubah. 552 00:30:35,792 --> 00:30:39,421 Media sosial bukan alat yang menunggu untuk digunakan. 553 00:30:39,504 --> 00:30:43,467 Ia punya tujuan dan cara sendiri untuk memperolehnya 554 00:30:43,550 --> 00:30:45,677 menggunakan psikologimu melawan dirimu. 555 00:30:49,056 --> 00:30:52,517 "HANYA ADA DUA INDUSTRI YANG MENYEBUT PELANGGAN MEREKA 'PENGGUNA', 556 00:30:52,601 --> 00:30:57,481 NARKOBA DAN PERANTI LUNAK." EDWARD TUFTE 557 00:30:57,564 --> 00:31:02,194 Beberapa tahun lalu, aku adalah Presiden Pinterest. 558 00:31:03,153 --> 00:31:08,366 Aku pulang dan tak bisa menjauhi ponselku begitu tiba di rumah, 559 00:31:08,450 --> 00:31:12,162 meski aku punya dua anak kecil yang butuh cinta dan perhatianku. 560 00:31:12,245 --> 00:31:15,749 Aku ada di dapur, mengetik surel 561 00:31:15,832 --> 00:31:17,626 atau kadang melihat Pinterest. 562 00:31:18,001 --> 00:31:19,628 Kupikir, "Ini sungguh ironis. 563 00:31:19,711 --> 00:31:22,047 Aku akan bekerja di siang hari 564 00:31:22,130 --> 00:31:26,426 dan membangun sesuatu yang kemudian memanipulasiku." 565 00:31:26,510 --> 00:31:30,097 Aku tak bisa... Maksudku, terkadang, aku tak bisa menahan diri. 566 00:31:32,307 --> 00:31:36,103 Yang cenderung paling kugunakan adalah Twitter. 567 00:31:36,728 --> 00:31:38,021 Tadinya Reddit. 568 00:31:38,105 --> 00:31:42,859 Aku bahkan harus membuat perangkat lunak untuk hapus kecanduanku membaca Reddit. 569 00:31:45,404 --> 00:31:47,781 Aku mungkin kecanduan surel. 570 00:31:47,864 --> 00:31:49,866 Sungguh. Aku merasakannya. 571 00:31:52,577 --> 00:31:54,955 Rasanya menarik 572 00:31:55,038 --> 00:31:58,166 meski aku tahu apa yang terjadi di balik layar, 573 00:31:58,250 --> 00:32:01,628 aku masih tak bisa mengendalikan penggunaanku. 574 00:32:01,711 --> 00:32:03,255 Jadi, itu agak menakutkan. 575 00:32:03,630 --> 00:32:07,050 Meski tahu cara kerjanya, aku masih rentan terhadapnya. 576 00:32:07,134 --> 00:32:09,886 Aku masih akan mengangkat ponsel dan 20 menit akan berlalu. 577 00:32:12,806 --> 00:32:15,725 Apa kau memeriksa ponsel cerdasmu sebelum kencing saat pagi 578 00:32:15,809 --> 00:32:17,477 atau sambil kencing saat pagi? 579 00:32:17,561 --> 00:32:19,479 Karena hanya ada dua opsi itu. 580 00:32:19,771 --> 00:32:23,275 Aku berusaha dengan tekad kuat, 581 00:32:23,358 --> 00:32:26,903 "Akan kutaruh dan kutinggalkan ponselku di mobil saat pulang." 582 00:32:26,987 --> 00:32:30,574 Kurasa aku berkata pada diriku seribu kali pada seribu hari berbeda, 583 00:32:30,657 --> 00:32:32,659 "Aku takkan membawa ponselku ke kamar tidur," 584 00:32:32,742 --> 00:32:34,536 lalu saat pukul 21.00 tiba. 585 00:32:34,619 --> 00:32:37,122 "Aku mau membawa ponselku ke kamar tidur." 586 00:32:37,956 --> 00:32:39,291 Jadi, itu semacam... 587 00:32:39,374 --> 00:32:41,126 Kekuatan tekad adalah usaha pertama, 588 00:32:41,209 --> 00:32:44,296 lalu usaha kedua adalah pemaksaan. 589 00:32:44,379 --> 00:32:45,881 Perkenalkan, ini Kitchen Safe, 590 00:32:45,964 --> 00:32:49,801 Kitchen Safe adalah wadah berpengunci waktu revolusioner baru 591 00:32:49,885 --> 00:32:51,678 yang membantu Anda melawan godaan. 592 00:32:51,761 --> 00:32:56,725 David hanya perlu memasukkan godaan itu ke Kitchen Safe. 593 00:32:57,392 --> 00:33:00,604 Selanjutnya, dia memutar tombol untuk mengatur waktunya 594 00:33:01,480 --> 00:33:04,232 dan akhirnya, dia menekan tombol untuk mengaktifkan kuncinya. 595 00:33:04,316 --> 00:33:05,525 Kitchen Safe ini bagus... 596 00:33:05,609 --> 00:33:06,693 Kita punya itu, bukan? 597 00:33:06,776 --> 00:33:08,570 ...gim video, kartu kredit, dan ponsel. 598 00:33:08,653 --> 00:33:09,654 Ya, benar. 599 00:33:09,779 --> 00:33:11,114 Begitu Kitchen Safe terkunci, 600 00:33:11,198 --> 00:33:13,909 ini tak bisa dibuka sampai waktunya mencapai nol. 601 00:33:13,992 --> 00:33:17,537 Jadi, ini masalahnya. Media sosial adalah narkoba. 602 00:33:17,621 --> 00:33:20,874 Maksudku, kita punya perintah biologis dasar 603 00:33:20,957 --> 00:33:23,084 untuk terhubung dengan orang lain. 604 00:33:23,168 --> 00:33:25,253 Itu secara langsung memengaruhi 605 00:33:25,378 --> 00:33:28,215 pelepasan dopamin dalam "jalur kenikmatan". 606 00:33:28,298 --> 00:33:32,510 Jutaan tahun evolusi berada di balik sistem itu 607 00:33:32,594 --> 00:33:35,597 untuk membuat kita berkumpul dan hidup di komunitas, 608 00:33:35,680 --> 00:33:38,016 mencari pasangan, dan menyebarkan spesies kita. 609 00:33:38,099 --> 00:33:41,853 Jadi, tak diragukan lagi medium seperti media sosial 610 00:33:41,937 --> 00:33:45,690 yang mengoptimalkan hubungan antarorang ini 611 00:33:45,774 --> 00:33:48,568 akan memiliki potensi kecanduan. 612 00:33:52,739 --> 00:33:54,115 Ayah, hentikan! 613 00:33:55,450 --> 00:33:58,453 Aku harus mengirim seribu Snip lagi sebelum makan malam. 614 00:33:58,536 --> 00:33:59,538 Snip? 615 00:33:59,621 --> 00:34:01,081 Aku tak tahu apa itu Snip. 616 00:34:01,164 --> 00:34:03,208 - Aromanya enak, Sayang. - Terima kasih. 617 00:34:03,291 --> 00:34:07,712 Kupikir kita butuh kelima indra untuk menikmati makan malam kita. 618 00:34:07,796 --> 00:34:11,383 Jadi, kuputuskan tak boleh ada ponsel di meja malam ini. 619 00:34:11,466 --> 00:34:13,301 Jadi, serahkan kepadaku. 620 00:34:13,802 --> 00:34:14,803 - Sungguh? - Ya. 621 00:34:15,929 --> 00:34:18,056 - Baiklah. - Terima kasih. Ben? 622 00:34:18,139 --> 00:34:19,891 - Baik. - Ibu, si perompak ponsel. 623 00:34:21,101 --> 00:34:21,935 - Dapat. - Ibu! 624 00:34:22,602 --> 00:34:26,147 Jadi, mereka akan aman di sini sampai makan malam usai... 625 00:34:27,274 --> 00:34:31,278 dan semua bisa bersantai. Paham? 626 00:34:47,419 --> 00:34:49,254 - Boleh kulihat dari siapa itu? - Tidak. 627 00:34:54,759 --> 00:34:56,970 Aku akan mengambil garpu lagi. 628 00:34:58,305 --> 00:34:59,264 Terima kasih. 629 00:35:04,728 --> 00:35:06,730 Sayang, kau tak bisa membukanya. 630 00:35:06,813 --> 00:35:08,857 Aku menguncinya satu jam, jadi, biarkan saja. 631 00:35:11,318 --> 00:35:13,361 Jadi, apa yang harus kita bahas? 632 00:35:13,445 --> 00:35:15,614 Kita bisa membahas 633 00:35:15,697 --> 00:35:17,824 orang gila Extreme Center yang kuantar hari ini. 634 00:35:17,907 --> 00:35:18,825 Tolong, Frank. 635 00:35:18,908 --> 00:35:22,120 - Aku tak mau membahas politik. - Ada apa dengan Extreme Center? 636 00:35:22,203 --> 00:35:24,622 - Dia bahkan tak paham. - Tergantung menanyai siapa. 637 00:35:24,706 --> 00:35:26,624 Bagai bertanya, "Apa salahnya propaganda?" 638 00:35:28,918 --> 00:35:29,919 Isla! 639 00:35:32,797 --> 00:35:33,757 Astaga. 640 00:35:37,135 --> 00:35:38,553 - Kau mau aku... - Ya. 641 00:35:41,973 --> 00:35:43,933 Aku mencemaskan anak-anakku. 642 00:35:44,017 --> 00:35:46,686 Jika kau punya anak, aku mencemaskan anak-anakmu. 643 00:35:46,770 --> 00:35:50,190 Dengan semua pengetahuan dan pengalaman yang kupunya, 644 00:35:50,273 --> 00:35:52,108 aku mendebat anak-anakku soal waktu 645 00:35:52,192 --> 00:35:54,444 yang mereka habiskan pada ponsel dan komputer. 646 00:35:54,694 --> 00:35:56,071 Kuberi tahu putraku, 647 00:35:56,154 --> 00:35:58,198 "Berapa jam yang kau habiskan pada ponselmu?" 648 00:35:58,281 --> 00:36:01,076 Dia akan bilang, "Maksimal setengah jam." 649 00:36:01,159 --> 00:36:04,829 Kurasa lebih dari 60-90 menit. 650 00:36:04,913 --> 00:36:06,790 Kulihat statistiknya beberapa minggu lalu 651 00:36:06,873 --> 00:36:08,708 - dan itu tiga jam, 45 menit. - Itu... 652 00:36:11,252 --> 00:36:13,588 Kurasa itu tidak... Rata-rata per hari? 653 00:36:13,672 --> 00:36:15,507 - Ya. - Mau kuambil sekarang? 654 00:36:15,590 --> 00:36:19,177 Setiap hari, aku mengingatkan anak-anakku 655 00:36:19,260 --> 00:36:21,763 tentang keseimbangan rasa suka dan duka, 656 00:36:21,846 --> 00:36:26,267 kondisi kekurangan dopamin, dan risiko kecanduan. 657 00:36:26,351 --> 00:36:27,310 Momen penentuan. 658 00:36:27,936 --> 00:36:29,688 Dua jam, 50 menit per hari. 659 00:36:29,771 --> 00:36:31,773 - Coba lihat. - Kugunakan lama hari ini. 660 00:36:31,856 --> 00:36:33,316 - Tujuh hari ini. - Itu sebabnya. 661 00:36:33,400 --> 00:36:37,237 Instagram, enam jam, 13 menit. Jadi, Instagram-ku lebih buruk. 662 00:36:39,572 --> 00:36:43,201 Layarku hancur. Terima kasih, Cass. 663 00:36:44,411 --> 00:36:45,995 Apa maksudmu, "Terima kasih, Cass"? 664 00:36:46,079 --> 00:36:49,290 Kau terus membuat Ibu takut soal ponsel kita padahal bukan masalah. 665 00:36:49,374 --> 00:36:51,167 Tak butuh ponsel untuk makan malam. 666 00:36:51,251 --> 00:36:53,878 Aku paham maksudmu, tapi ini bukan masalah besar. 667 00:36:56,047 --> 00:36:58,383 Jika begitu, coba jangan gunakan selama seminggu. 668 00:37:01,136 --> 00:37:02,178 Ya. 669 00:37:02,262 --> 00:37:06,349 Ya, jika kau bisa menjauhinya selama seminggu... 670 00:37:07,726 --> 00:37:09,519 akan kubelikan kau layar baru. 671 00:37:11,020 --> 00:37:12,772 - Mulai sekarang? - Benar. 672 00:37:15,275 --> 00:37:16,860 Baiklah. Setuju. 673 00:37:16,943 --> 00:37:19,112 Namun, kau harus tinggalkan itu di sini, Kawan. 674 00:37:19,863 --> 00:37:21,406 Baiklah, aku akan mengecasnya. 675 00:37:22,532 --> 00:37:25,076 Mulai saat ini, aku akan menjauh. 676 00:37:25,160 --> 00:37:25,994 Baiklah. 677 00:37:27,704 --> 00:37:29,414 - Waktumu dimulai. - Satu minggu. 678 00:37:29,497 --> 00:37:30,331 Astaga... 679 00:37:31,458 --> 00:37:32,417 Kau pikir dia bisa? 680 00:37:33,001 --> 00:37:34,544 Entahlah, kita lihat saja. 681 00:37:35,003 --> 00:37:36,129 Makanlah saja, ya? 682 00:37:44,220 --> 00:37:45,680 Makan malam keluarga yang bagus! 683 00:37:47,682 --> 00:37:49,809 Produk teknologi ini tak dirancang 684 00:37:49,893 --> 00:37:53,897 oleh psikolog anak yang berusaha melindungi dan mengasuh anak. 685 00:37:53,980 --> 00:37:56,149 Namun, hanya didesain untuk membuat algoritme 686 00:37:56,232 --> 00:37:58,735 yang mahir merekomendasikan video berikutnya untuk kita 687 00:37:58,818 --> 00:38:02,322 atau membuat kita bisa berfoto dengan efek. 688 00:38:03,072 --> 00:38:05,325 DUA SUKA 689 00:38:13,291 --> 00:38:15,126 YAKIN INGIN MENGHAPUS? TIDAK 690 00:38:15,210 --> 00:38:16,211 YA 691 00:38:16,711 --> 00:38:20,256 Itu bukan hanya mengendalikan tujuan perhatian mereka. 692 00:38:21,174 --> 00:38:26,304 Media sosial mulai terus menggali lebih dalam ke batang otak, 693 00:38:26,387 --> 00:38:29,766 mengambil alih harga diri dan identitas anak. 694 00:38:29,849 --> 00:38:31,851 PERCANTIK AKU 695 00:38:42,070 --> 00:38:43,112 LILY_T MANIS! 696 00:38:43,196 --> 00:38:44,822 SOPHIA_M ASTAGA, CANTIK SEKALI 697 00:38:44,906 --> 00:38:46,491 OLIVIA_B KAU MENGAGUMKAN 698 00:38:46,574 --> 00:38:49,118 AVA_R BISA PERBESAR TELINGAMU? 699 00:38:52,497 --> 00:38:56,459 Kita berevolusi untuk peduli apakah orang lain di suku kita 700 00:38:56,751 --> 00:38:59,128 memandang kita baik atau tidak karena itu penting. 701 00:38:59,838 --> 00:39:04,551 Namun, apa kita berevolusi untuk menyadari pendapat 10.000 orang tentang kita? 702 00:39:04,634 --> 00:39:05,885 Kita tak berevolusi 703 00:39:05,969 --> 00:39:10,348 untuk menerima persetujuan sosial setiap lima menit. 704 00:39:10,431 --> 00:39:13,393 Kita sama sekali tak dirancang untuk mengalami itu. 705 00:39:15,395 --> 00:39:19,983 Kita menyesuaikan hidup kita mengikuti pandangan kesempurnaan ini 706 00:39:20,733 --> 00:39:23,528 karena kita mendapat imbalan dalam sinyal jangka pendek ini, 707 00:39:23,611 --> 00:39:25,154 ikon hati, suka, dan jempol. 708 00:39:25,238 --> 00:39:28,408 Lalu kita menyatukannya dengan nilai dan kebenaran. 709 00:39:29,826 --> 00:39:33,329 Alih-alih sebagai hal yang sebenarnya, yaitu popularitas palsu dan rapuh... 710 00:39:33,913 --> 00:39:37,458 yang hanya sesaat, membuat kita kecanduan, dan akuilah, 711 00:39:37,542 --> 00:39:39,919 membuat kita hampa sebelum melakukannya. 712 00:39:41,254 --> 00:39:43,381 Karena itu memaksa kita memasuki lingkaran ganas 713 00:39:43,464 --> 00:39:45,800 yang membuat kita bilang, "Aku harus apa berikutnya? 714 00:39:45,884 --> 00:39:47,343 Karena aku butuh itu." 715 00:39:48,261 --> 00:39:50,847 Bayangkan itu dilakukan oleh dua miliar orang lainnya 716 00:39:50,930 --> 00:39:54,767 lalu bayangkan reaksi orang terhadap persepsi orang lain. 717 00:39:54,851 --> 00:39:56,436 Itu sangat buruk. 718 00:39:56,978 --> 00:39:58,313 Itu benar-benar buruk. 719 00:40:00,857 --> 00:40:05,069 Ada peningkatan besar dalam depresi dan kecemasan 720 00:40:05,153 --> 00:40:06,529 bagi remaja Amerika 721 00:40:06,613 --> 00:40:10,950 yang dimulai antara tahun 2011 dan 2013. 722 00:40:11,034 --> 00:40:15,371 Jumlah gadis remaja dari 100.000 gadis di negara ini 723 00:40:15,455 --> 00:40:19,918 yang dirawat di rumah sakit setiap tahun karena menyayat atau melukai diri sendiri, 724 00:40:20,001 --> 00:40:23,922 angka itu cukup stabil sampai sekitar tahun 2010-2011, 725 00:40:24,005 --> 00:40:25,757 lalu mulai naik pesat. 726 00:40:28,718 --> 00:40:32,263 Naik 62 persen untuk gadis remaja lebih tua. 727 00:40:32,347 --> 00:40:33,932 RAWAT INAP UNTUK LUKA DIRI NONFATAL 728 00:40:34,015 --> 00:40:38,603 Naik 189 persen untuk gadis praremaja. Itu hampir tiga kali lipat. 729 00:40:40,355 --> 00:40:43,107 Lebih mengerikan lagi, bunuh diri alami tren yang sama. 730 00:40:43,191 --> 00:40:44,901 TINGKAT BUNUH DIRI AS PER SEJUTA GADIS 731 00:40:44,984 --> 00:40:47,570 Gadis remaja lebih tua, usia 15 sampai 19 tahun, 732 00:40:47,654 --> 00:40:51,449 mereka naik 70% dibandingkan dekade pertama abad ini. 733 00:40:52,158 --> 00:40:55,078 Para gadis praremaja, yang punya tingkat awal sangat rendah, 734 00:40:55,161 --> 00:40:57,664 mereka naik 151 persen. 735 00:40:58,831 --> 00:41:01,709 Lalu pola itu mengarah ke media sosial. 736 00:41:01,793 --> 00:41:03,962 MEDIA SOSIAL TERSEDIA DI PONSEL 2009 737 00:41:04,045 --> 00:41:07,215 Generasi Z, anak-anak yang lahir usai tahun 1996, 738 00:41:07,298 --> 00:41:10,343 mereka adalah generasi pertama dalam sejarah 739 00:41:10,426 --> 00:41:12,637 yang terjun ke media sosial di sekolah menengah. 740 00:41:15,974 --> 00:41:17,684 Bagaimana mereka menghabiskan waktu? 741 00:41:19,727 --> 00:41:22,480 Mereka pulang dari sekolah dan memakai gawai mereka. 742 00:41:24,315 --> 00:41:29,195 Seluruh generasi ini lebih cemas, rapuh, dan tertekan. 743 00:41:30,613 --> 00:41:33,282 Mereka kurang nyaman mengambil risiko. 744 00:41:34,325 --> 00:41:37,537 Tingkat permohonan SIM mereka menurun. 745 00:41:38,955 --> 00:41:41,082 Jumlah orang yang pernah berkencan 746 00:41:41,165 --> 00:41:44,252 atau memiliki hubungan romantis menurun drastis. 747 00:41:47,505 --> 00:41:49,882 Ini perubahan nyata dalam satu generasi. 748 00:41:53,177 --> 00:41:57,306 Ingatlah, untuk semua kasus ini, setiap perawatan di rumah sakit, 749 00:41:57,390 --> 00:42:00,268 ada keluarga yang merasa trauma dan ngeri. 750 00:42:00,351 --> 00:42:02,562 "Astaga, apa yang terjadi kepada anak-anak kita?" 751 00:42:19,412 --> 00:42:21,038 Ini sangat jelas bagiku. 752 00:42:22,874 --> 00:42:28,129 Layanan ini membunuh orang dan menyebabkan orang bunuh diri. 753 00:42:29,088 --> 00:42:33,301 Aku tak mengenal orang tua yang bilang, "Ya, aku ingin anak-anakku tumbuh dewasa 754 00:42:33,384 --> 00:42:35,136 dengan merasa dimanipulasi 755 00:42:35,678 --> 00:42:36,888 oleh desainer teknologi. 756 00:42:36,971 --> 00:42:39,724 Memanipulasi perhatian dan menjadikan PR mustahil dikerjakan, 757 00:42:39,807 --> 00:42:42,560 membuat mereka mengikuti standar kecantikan tak realistis." 758 00:42:42,643 --> 00:42:44,687 Tak ada yang mau itu. 759 00:42:45,104 --> 00:42:46,355 Tak ada yang mau. 760 00:42:46,439 --> 00:42:48,483 Dulu kita punya perlindungan. 761 00:42:48,566 --> 00:42:52,779 Saat anak-anak menonton kartun Sabtu pagi, kita peduli soal melindungi anak-anak. 762 00:42:52,862 --> 00:42:56,574 Kita bilang, "Kau tak bisa beriklan kepada anak usia ini dengan cara ini." 763 00:42:57,366 --> 00:42:58,785 Namun, muncul YouTube Kids 764 00:42:58,868 --> 00:43:02,455 yang menghapus seluruh jual-beli perhatian ini 765 00:43:02,538 --> 00:43:04,916 dan kini semua anak terpapar YouTube Kids. 766 00:43:04,999 --> 00:43:07,668 Semua perlindungan dan peraturan itu hilang. 767 00:43:10,296 --> 00:43:17,261 WAKTU TANPA PONSEL 768 00:43:18,304 --> 00:43:22,141 Kita melatih dan mengondisikan satu generasi orang baru... 769 00:43:23,434 --> 00:43:29,148 agar ketika kita tak nyaman, kesepian, merasa tak pasti, atau takut, 770 00:43:29,232 --> 00:43:31,776 kita punya penenang digital sendiri 771 00:43:32,527 --> 00:43:36,489 yang menghentikan kemampuan kita untuk menghadapinya. 772 00:43:53,965 --> 00:43:56,884 Photoshop tak punya ribuan teknisi di sisi lain layar 773 00:43:56,968 --> 00:43:59,011 yang menggunakan notifikasi, teman-teman kita, 774 00:43:59,095 --> 00:44:02,431 dan IA untuk memprediksi apa yang akan membuat kita kecanduan, 775 00:44:02,515 --> 00:44:04,517 memanipulasi kita, atau mengizinkan pengiklan 776 00:44:04,600 --> 00:44:07,854 menguji 60.000 variasi teks atau warna 777 00:44:07,937 --> 00:44:11,065 untuk tahu cara memanipulasi pikiran kita dengan sempurna. 778 00:44:11,148 --> 00:44:14,986 Ini jenis kekuasaan dan pengaruh baru. 779 00:44:16,070 --> 00:44:19,156 Sekali lagi kukatakan, metode yang digunakan 780 00:44:19,240 --> 00:44:22,827 untuk mempermainkan kemampuan orang untuk kecanduan atau dipengaruhi 781 00:44:22,910 --> 00:44:25,204 mungkin berbeda kali ini dan mungkin memang begitu. 782 00:44:25,288 --> 00:44:28,749 Mereka berbeda saat koran muncul dan mesin cetak muncul. 783 00:44:28,833 --> 00:44:31,836 Mereka berbeda saat televisi muncul 784 00:44:31,919 --> 00:44:34,005 lalu muncul tiga jaringan besar dan... 785 00:44:34,463 --> 00:44:36,424 - Saat itu. - Saat itu, itu maksudku. 786 00:44:36,507 --> 00:44:38,384 Namun, maksudku, ada sebuah tingkat baru 787 00:44:38,467 --> 00:44:42,054 dan tingkat baru itu sudah sering terjadi. 788 00:44:42,138 --> 00:44:45,099 Ini tingkat baru terkini yang kita lihat. 789 00:44:45,391 --> 00:44:48,728 Ada narasi yang berkata, "Kita beradaptasi saja atas itu. 790 00:44:48,811 --> 00:44:51,188 Kita akan belajar hidup dengan perangkat ini 791 00:44:51,272 --> 00:44:53,733 seperti belajar hidup dengan yang lain." 792 00:44:53,816 --> 00:44:56,694 Yang luput di sini adalah ada hal baru di sini. 793 00:44:57,570 --> 00:45:00,323 Mungkin hal paling berbahaya dari semua ini adalah fakta 794 00:45:00,406 --> 00:45:04,410 bahwa itu didorong oleh teknologi yang maju dengan sangat pesat. 795 00:45:05,953 --> 00:45:09,081 Kurang lebih, dari tahun 1960-an hingga saat ini, 796 00:45:09,874 --> 00:45:13,085 kekuatan memproses meningkat sekitar satu triliun kali. 797 00:45:13,794 --> 00:45:18,341 Tak ada hal yang kita punya yang laju kenaikannya mendekati itu. 798 00:45:18,424 --> 00:45:22,178 Misalnya, mobil kira-kira hanya naik dua kali lebih cepat. 799 00:45:22,261 --> 00:45:25,264 Lalu hampir semua yang lainnya bisa diabaikan. 800 00:45:25,348 --> 00:45:27,183 Mungkin yang terpenting, 801 00:45:27,266 --> 00:45:31,354 sifat manusia, fisiologi, dan otak kita tak berevolusi sama sekali. 802 00:45:31,854 --> 00:45:35,232 WAKTU TANPA PONSEL 803 00:45:37,401 --> 00:45:41,489 Level pikiran, raga, dan fisik manusia 804 00:45:41,948 --> 00:45:43,908 takkan berubah secara mendasar. 805 00:45:56,837 --> 00:45:58,172 Kita bisa melakukan 806 00:45:58,256 --> 00:46:01,092 rekayasa genetika dan mengembangkan manusia baru di masa depan, 807 00:46:01,175 --> 00:46:05,221 tapi secara realistis, kita hidup di dalam perangkat keras, otak, 808 00:46:05,304 --> 00:46:07,223 yang berusia jutaan tahun, 809 00:46:07,306 --> 00:46:10,559 lalu ada sebuah layar dan di baliknya, 810 00:46:10,643 --> 00:46:13,562 ada ribuan teknisi dan komputer super 811 00:46:13,646 --> 00:46:16,107 yang punya tujuan berbeda dari tujuan kita. 812 00:46:16,190 --> 00:46:19,694 Jadi, siapa yang akan menang dalam hal itu? 813 00:46:25,700 --> 00:46:26,951 Bagaimana kita bisa kalah? 814 00:46:27,159 --> 00:46:29,704 - Entahlah. - Di mana dia? Ini tidak normal. 815 00:46:29,787 --> 00:46:32,164 Apa aku mencecarnya dengan konten teman dan keluarga? 816 00:46:32,248 --> 00:46:34,083 - Mungkin. - Mungkin karena iklannya. 817 00:46:34,166 --> 00:46:37,795 Tidak. Ada yang salah. Mari beralih ke mode kebangkitan. 818 00:46:39,672 --> 00:46:44,051 Saat memikirkan IA, kita pikir itu akan merusak dunia. 819 00:46:44,135 --> 00:46:47,221 Anda membayangkan Terminator, Arnold Schwarzenegger. 820 00:46:47,638 --> 00:46:48,681 Aku akan kembali. 821 00:46:48,806 --> 00:46:52,643 Kita membayangkan pesawat nirawak dan berpikir, "IA akan membunuh orang." 822 00:46:53,644 --> 00:46:59,817 Yang orang lupa adalah IA sudah mengendalikan dunia saat ini. 823 00:46:59,900 --> 00:47:03,237 Bahkan membicarakan "IA" hanyalah sebuah metafora. 824 00:47:03,320 --> 00:47:09,452 Di perusahaan seperti Google, ada banyak ruangan yang sangat besar. 825 00:47:10,328 --> 00:47:13,122 Sebagian ada di bawah tanah, sebagian lagi ada di bawah air, 826 00:47:13,205 --> 00:47:14,498 yang hanya berisi komputer. 827 00:47:14,582 --> 00:47:17,835 Begitu banyak komputer sejauh mata memandang. 828 00:47:18,461 --> 00:47:20,504 Mereka sangat saling terhubung 829 00:47:20,588 --> 00:47:22,923 dan menjalankan program yang sangat rumit, 830 00:47:23,007 --> 00:47:26,010 saling mengirim informasi bolak-balik sepanjang waktu. 831 00:47:26,802 --> 00:47:28,596 Mereka menjalankan beragam program 832 00:47:28,679 --> 00:47:30,806 dan produk pada mesin yang sama. 833 00:47:31,348 --> 00:47:33,684 Sebagiannya adalah algoritme sederhana 834 00:47:33,768 --> 00:47:35,227 dan sebagian lagi algoritme 835 00:47:35,311 --> 00:47:37,521 yang sangat rumit hingga disebut kecerdasan. 836 00:47:40,149 --> 00:47:43,778 Menurutku, algoritme adalah opini yang disematkan dalam kode... 837 00:47:45,071 --> 00:47:47,656 dan algoritme itu tidak objektif. 838 00:47:48,366 --> 00:47:51,577 Algoritme dioptimalkan ke sebuah definisi kesuksesan. 839 00:47:52,244 --> 00:47:53,370 Jadi, bisa dibayangkan 840 00:47:53,454 --> 00:47:57,124 jika perusahaan komersial membuat sebuah algoritme 841 00:47:57,208 --> 00:47:59,293 untuk definisi kesuksesan bagi mereka, 842 00:47:59,835 --> 00:48:01,378 itu kepentingan komersial. 843 00:48:01,587 --> 00:48:02,671 Biasanya profit. 844 00:48:03,130 --> 00:48:07,384 Kita memberi komputer tujuan, "Aku ingin hasil ini," 845 00:48:07,468 --> 00:48:10,262 lalu komputer itu sendiri belajar melakukannya. 846 00:48:10,346 --> 00:48:12,598 Itulah asal istilah "pemelajaran mesin". 847 00:48:12,681 --> 00:48:14,892 Jadi, setiap hari, ia menjadi sedikit lebih baik 848 00:48:14,975 --> 00:48:16,894 dalam memilih pos dalam urutan yang tepat 849 00:48:16,977 --> 00:48:19,438 agar kita bisa lebih lama menggunakan produk itu. 850 00:48:19,522 --> 00:48:22,233 Tak ada yang paham apa yang mereka lakukan 851 00:48:22,316 --> 00:48:23,901 untuk mencapai tujuan itu. 852 00:48:23,984 --> 00:48:28,239 Algoritme itu punya pikiran sendiri, jadi, meski seseorang menulisnya, 853 00:48:28,906 --> 00:48:30,658 itu ditulis sedemikian rupa 854 00:48:30,741 --> 00:48:35,037 agar setelah kita membuat mesinnya, mesinnya akan berubah sendiri. 855 00:48:35,121 --> 00:48:37,915 Hanya ada sedikit orang di semua perusahaan ini, 856 00:48:37,998 --> 00:48:40,000 Facebook, Twitter, dan perusahaan lain... 857 00:48:40,084 --> 00:48:43,796 Hanya sedikit orang yang mengerti cara kerja sistem itu 858 00:48:43,879 --> 00:48:46,715 dan bahkan mereka tak sepenuhnya mengerti 859 00:48:46,799 --> 00:48:49,552 apa yang akan terjadi dengan konten tertentu. 860 00:48:49,969 --> 00:48:53,472 Jadi, sebagai manusia, kita hampir kehilangan kendali 861 00:48:53,556 --> 00:48:55,474 atas sistem ini 862 00:48:55,891 --> 00:48:59,603 karena mereka mengendalikan informasi yang kita lihat. 863 00:48:59,687 --> 00:49:02,440 Mereka mengendalikan kita melebihi kita mengendalikan mereka. 864 00:49:03,816 --> 00:49:07,319 Merujuk silang dia dengan yang serupa di zona geografisnya. 865 00:49:07,403 --> 00:49:09,572 Kembaran psikometrinya. 866 00:49:09,655 --> 00:49:13,701 Ada 13.694 orang yang berperilaku sepertinya di wilayahnya. 867 00:49:13,784 --> 00:49:16,370 - Apa yang mereka minati? - Kita butuh hal yang bagus 868 00:49:16,454 --> 00:49:19,957 untuk kebangkitan yang layak, mengingat hal-hal biasa tak berhasil. 869 00:49:20,040 --> 00:49:22,042 Bahkan gadis manis di sekolah itu pun tidak. 870 00:49:22,334 --> 00:49:25,254 Menurut analisisku, menampilkan konten politik Extreme Center 871 00:49:25,337 --> 00:49:28,257 punya potensi keterlibatan jangka panjang sebesar 62,3%. 872 00:49:28,340 --> 00:49:29,300 Itu tidak buruk. 873 00:49:30,342 --> 00:49:32,011 Namun, bukan awal yang cukup bagus. 874 00:49:32,386 --> 00:49:35,306 Baiklah. Jadi, kita sudah memberitahunya soal foto yang ditandai, 875 00:49:35,389 --> 00:49:39,018 undangan, peristiwa terkini, bahkan pesan langsung dari Rebecca. 876 00:49:39,101 --> 00:49:42,771 Bagaimana dengan pengguna 01265923010? 877 00:49:42,855 --> 00:49:44,648 Ya, Ben memberi ikon hati semua posnya. 878 00:49:44,732 --> 00:49:47,776 Semua posnya, selama berbulan-bulan, lalu berhenti. 879 00:49:47,860 --> 00:49:50,446 Aku menghitung kemungkinan kebangkitan 92,3 persen 880 00:49:50,529 --> 00:49:52,156 dengan notifikasi soal Ana. 881 00:49:53,908 --> 00:49:55,993 HUBUNGAN BARU 882 00:49:56,535 --> 00:49:57,745 Serta teman barunya. 883 00:49:58,496 --> 00:50:04,001 WAKTU TANPA PONSEL 884 00:50:24,355 --> 00:50:25,981 MANTAN PACARMU PUNYA HUBUNGAN BARU! 885 00:50:26,065 --> 00:50:27,316 Ini pasti bercanda. 886 00:50:35,658 --> 00:50:36,617 Baiklah. 887 00:50:37,576 --> 00:50:38,786 ANA DAN LUIZ BERHUBUNGAN 888 00:50:38,869 --> 00:50:39,703 Apa? 889 00:50:42,122 --> 00:50:44,208 - Kita kembali! - Ayo menghasilkan uang lagi. 890 00:50:44,291 --> 00:50:46,335 Ya, dan hubungkan mereka dengan seluruh dunia. 891 00:50:46,418 --> 00:50:49,338 Aku memberinya akses ke semua informasi yang mungkin dia suka. 892 00:50:49,755 --> 00:50:53,717 Hei, apa kalian pernah berpikir umpan beritanya bagus untuk Ben? 893 00:50:57,221 --> 00:50:58,222 - Tidak. - Tidak. 894 00:51:42,349 --> 00:51:44,893 PENGUJIAN A/B EXTREME CENTRE 895 00:52:20,929 --> 00:52:24,350 Jadi, bayangkan kita membuka Facebook... 896 00:52:24,975 --> 00:52:29,313 dan kita bermain melawan inteligensi artifisial ini 897 00:52:29,396 --> 00:52:31,315 yang tahu semuanya soal kita. 898 00:52:31,398 --> 00:52:34,568 Mengantisipasi langkah kita berikutnya dan kita tak tahu apa-apa 899 00:52:34,652 --> 00:52:37,404 kecuali video kucing dan ulang tahun yang diputar. 900 00:52:37,821 --> 00:52:39,656 Pertarungan itu tak adil! 901 00:52:41,575 --> 00:52:43,869 Ben dan Jerry, saatnya berangkat! 902 00:52:51,126 --> 00:52:51,960 Ben? 903 00:53:02,680 --> 00:53:03,514 Ben. 904 00:53:05,182 --> 00:53:06,058 Ayo. 905 00:53:07,226 --> 00:53:08,894 Waktunya sekolah. Ayo. 906 00:53:31,375 --> 00:53:33,544 - Apa kabarmu hari ini? - Aku gugup. 907 00:53:33,627 --> 00:53:34,628 - Benarkah? - Ya. 908 00:53:37,381 --> 00:53:39,049 Kita semua mewaspadai saat 909 00:53:39,133 --> 00:53:42,970 ketika teknologi akan mengalahkan kekuatan dan kecerdasan manusia. 910 00:53:43,137 --> 00:53:44,847 Kapan itu akan melampaui hal itu, 911 00:53:44,930 --> 00:53:47,015 merebut profesi, dan lebih pintar dari manusia? 912 00:53:48,142 --> 00:53:50,102 Namun, ada momen lebih awal... 913 00:53:50,978 --> 00:53:55,566 saat teknologi melampaui dan mengalahkan kelemahan manusia. 914 00:53:57,484 --> 00:54:02,030 Batasan-batasan yang dilampaui ini berakar pada kecanduan, 915 00:54:02,114 --> 00:54:03,657 polarisasi, radikalisasi, 916 00:54:03,740 --> 00:54:06,368 memicu kemarahan, keangkuhan, semuanya. 917 00:54:07,703 --> 00:54:09,913 Ini mengalahkan sifat manusia 918 00:54:10,706 --> 00:54:13,500 dan sekakmat bagi kemanusiaan. 919 00:54:30,559 --> 00:54:31,435 Maaf. 920 00:54:41,737 --> 00:54:44,656 Salah satu cara yang kucoba untuk membuat orang paham 921 00:54:45,199 --> 00:54:49,786 betapa salahnya umpan berita dari tempat seperti Facebook 922 00:54:49,870 --> 00:54:51,455 adalah dengan memikirkan Wikipedia. 923 00:54:51,538 --> 00:54:52,873 TAB BARU 924 00:54:52,956 --> 00:54:56,418 Saat kunjungi sebuah laman, kita melihat hal yang sama dengan orang lain. 925 00:54:56,627 --> 00:55:00,297 Itu satu dari beberapa hal di internet yang setidaknya menjadi kesamaan kita. 926 00:55:00,380 --> 00:55:03,425 Kini bayangkan sejenak Wikipedia berkata, 927 00:55:03,509 --> 00:55:07,179 "Kita akan memberi tiap orang definisi yang khusus dan berbeda 928 00:55:07,262 --> 00:55:09,473 dan kita akan dibayar orang untuk itu." 929 00:55:09,556 --> 00:55:13,435 Jadi, Wikipedia memata-matai kita dan mempertimbangkan, 930 00:55:13,519 --> 00:55:17,189 "Apa yang bisa kulakukan agar orang ini berubah sedikit 931 00:55:17,272 --> 00:55:19,900 demi kepentingan komersial?" Paham? 932 00:55:19,983 --> 00:55:21,818 Lalu entrinya akan diubah. 933 00:55:22,444 --> 00:55:23,570 Bisa bayangkan itu? 934 00:55:23,654 --> 00:55:26,698 Seharusnya bisa karena itulah yang terjadi di Facebook. 935 00:55:26,782 --> 00:55:28,992 Itulah yang terjadi di umpan berita YouTube kita. 936 00:55:29,159 --> 00:55:31,787 Saat kunjungi Google dan mengetik "perubahan iklim adalah", 937 00:55:31,870 --> 00:55:34,998 kita akan melihat hasil berbeda tergantung tempat tinggal. 938 00:55:35,082 --> 00:55:36,083 PERUBAHAN IKLIM ADALAH 939 00:55:36,166 --> 00:55:38,460 Di kota tertentu, akan muncul isian kata otomatis 940 00:55:38,544 --> 00:55:40,462 bertuliskan "perubahan iklim itu hoaks." 941 00:55:40,546 --> 00:55:42,089 Dalam kasus lain, akan muncul 942 00:55:42,172 --> 00:55:44,842 "perubahan iklim menyebabkan kerusakan alam." 943 00:55:44,925 --> 00:55:48,428 Itu bukan fungsi untuk tampikan kebenaran soal perubahan iklim, 944 00:55:48,512 --> 00:55:51,098 tapi soal tempat kita saat mencarinya di Google 945 00:55:51,181 --> 00:55:53,600 dan hal tertentu yang Google tahu soal minat kita. 946 00:55:55,185 --> 00:55:58,021 Bahkan dua teman yang sangat dekat sekalipun, 947 00:55:58,105 --> 00:56:00,190 yang punya teman yang hampir sama, 948 00:56:00,274 --> 00:56:02,818 mereka berpikir, "Akan kulihat umpan berita di Facebook. 949 00:56:02,901 --> 00:56:06,738 Aku akan melihat pembaruan yang sama." Namun, tidak seperti itu. 950 00:56:06,822 --> 00:56:08,448 Mereka melihat dunia yang berbeda 951 00:56:08,532 --> 00:56:12,035 karena itu berdasarkan analisis komputer soal apa yang ideal bagi mereka. 952 00:56:12,119 --> 00:56:14,246 SEDANG MENGUDARA 953 00:56:14,329 --> 00:56:18,417 Bisa dibilang itu adalah 2,7 miliar The Truman Show. 954 00:56:18,500 --> 00:56:21,295 Tiap orang punya realitas sendiri dengan fakta... 955 00:56:22,671 --> 00:56:23,672 mereka sendiri. 956 00:56:23,755 --> 00:56:28,051 Kenapa kau pikir Truman tak pernah hampir mengetahui 957 00:56:28,135 --> 00:56:30,095 kebenaran soal dunianya hingga kini? 958 00:56:31,054 --> 00:56:34,099 Kita menerima kenyataan dunia yang diberikan kepada kita. 959 00:56:34,182 --> 00:56:35,142 Sesederhana itu. 960 00:56:35,225 --> 00:56:36,393 SEDANG MENGUDARA 961 00:56:36,476 --> 00:56:41,064 Seiring waktu, kita memiliki kesan palsu bahwa semua orang setuju dengan kita 962 00:56:41,148 --> 00:56:44,067 karena semua orang di umpan berita tampak seperti kita. 963 00:56:44,568 --> 00:56:49,072 Begitu kita dalam keadaan itu, ternyata kita mudah dimanipulasi 964 00:56:49,156 --> 00:56:51,742 seperti dimanipulasi oleh pesulap. 965 00:56:51,825 --> 00:56:55,370 Pesulap menunjukkan trik kartu dan bilang, "Pilih kartu apa saja." 966 00:56:55,454 --> 00:56:58,373 Yang tak kita sadari adalah mereka sudah mengaturnya 967 00:56:58,457 --> 00:57:00,542 agar kita memilih kartu yang mereka mau. 968 00:57:00,626 --> 00:57:03,170 Begitulah Facebook bekerja. Ia duduk di sana dan berkata, 969 00:57:03,253 --> 00:57:06,173 "Hei, kau yang memilih teman dan tautan yang kau ikuti." 970 00:57:06,256 --> 00:57:08,717 Namun, itu omong kosong. Seperti pesulap. 971 00:57:08,800 --> 00:57:11,303 Facebook bertanggung jawab atas umpan berita kita. 972 00:57:11,386 --> 00:57:14,514 Kita semua hanya menggunakan fakta yang berbeda. 973 00:57:14,598 --> 00:57:16,475 Saat itu terjadi dalam skala besar, 974 00:57:16,558 --> 00:57:20,771 kita tak bisa lagi menghadapi atau menyerap informasi 975 00:57:20,854 --> 00:57:23,690 yang bertentangan dengan pandangan dunia yang kita ciptakan. 976 00:57:23,774 --> 00:57:28,028 Itu berarti kita bukan lagi individu yang objektif dan konstruktif. 977 00:57:28,779 --> 00:57:32,449 Buka matamu! Jangan percaya kebohongan! 978 00:57:32,532 --> 00:57:35,160 Lalu kita melihat ke sisi lain 979 00:57:35,243 --> 00:57:38,747 dan mulai berpikir, "Bagaimana mereka bisa begitu bodoh? 980 00:57:38,956 --> 00:57:42,125 Lihatlah semua informasi yang terus kulihat ini. 981 00:57:42,209 --> 00:57:44,711 Kenapa mereka tak melihat info yang sama?" 982 00:57:44,795 --> 00:57:47,297 Jawabannya, "Mereka memang tak melihat info yang sama." 983 00:57:47,381 --> 00:57:50,801 Buka matamu! Jangan percaya kebohongan! 984 00:57:52,094 --> 00:57:53,679 Seperti apa Partai Republik? 985 00:57:53,762 --> 00:57:55,472 Orang yang tak tahu apa-apa. 986 00:57:55,555 --> 00:57:58,934 Partai Demokrat adalah sindikat kejahatan, bukan partai politik sungguhan. 987 00:57:59,017 --> 00:58:03,105 Studi besar baru dari Pew Research Center terhadap 10.000 orang dewasa Amerika 988 00:58:03,188 --> 00:58:05,315 mendapati kita lebih terpecah dari sebelumnya, 989 00:58:05,399 --> 00:58:09,069 dengan polarisasi pribadi dan politis di level tertinggi pada 20 tahun terakhir. 990 00:58:09,152 --> 00:58:11,697 POLARISASI POLITIS AS MEDIAN DEMOKRAT - MEDIAN REPUBLIK 991 00:58:11,780 --> 00:58:14,199 Ada lebih dari sepertiga Partai Republik yang berkata 992 00:58:14,282 --> 00:58:16,827 Partai Demokrat adalah ancaman bagi negara 993 00:58:16,910 --> 00:58:20,580 dan seperempat lebih Demokrat berkata sama soal Partai Republik. 994 00:58:20,664 --> 00:58:24,418 Begitu banyak masalah yang kita bahas, misalnya seputar polarisasi politik, 995 00:58:24,501 --> 00:58:28,046 ditampilkan secara besar-besaran di TV kabel. 996 00:58:28,130 --> 00:58:31,008 Media punya masalah yang sama 997 00:58:31,091 --> 00:58:33,343 karena model bisnis mereka, pada umumnya, 998 00:58:33,427 --> 00:58:35,762 adalah menjual perhatian kita kepada pengiklan. 999 00:58:35,846 --> 00:58:38,890 Internet adalah cara lebih efisien baru untuk melakukan itu. 1000 00:58:40,392 --> 00:58:44,146 Di YouTube, aku mengerjakan rekomendasi YouTube. 1001 00:58:44,229 --> 00:58:47,149 Aku khawatir algoritme yang kukerjakan 1002 00:58:47,232 --> 00:58:50,402 sebenarnya meningkatkan polarisasi di masyarakat. 1003 00:58:50,485 --> 00:58:53,113 Namun, dari sudut pandang waktu menonton, 1004 00:58:53,196 --> 00:58:57,617 polarisasi ini sangat efisien untuk membuat orang tetap daring. 1005 00:58:58,785 --> 00:59:02,289 Alasan para guru mengajarkan hal ini hanyalah karena mereka dibayar. 1006 00:59:02,372 --> 00:59:04,332 - Itu konyol sekali. - Hei, Benji. 1007 00:59:04,791 --> 00:59:06,460 Tak ada latihan sepak bola hari ini? 1008 00:59:06,543 --> 00:59:08,879 Ada. Aku hanya melihat berita yang kulewatkan. 1009 00:59:08,962 --> 00:59:11,506 Risetlah sendiri. Info apa pun dari Extreme Center... 1010 00:59:11,590 --> 00:59:14,009 Hal yang kau tonton itu bukan berita. 1011 00:59:15,552 --> 00:59:18,722 Kau selalu membahas betapa kacaunya keadaan saat ini. Mereka juga. 1012 00:59:19,473 --> 00:59:21,141 Namun, itu hanya propaganda. 1013 00:59:21,224 --> 00:59:24,060 Tak ada yang benar. Intinya adalah apa yang masuk akal. 1014 00:59:24,770 --> 00:59:26,938 Ben, aku serius. Itu buruk untukmu. 1015 00:59:27,022 --> 00:59:28,690 Sebainya kau berlatih sepak bola. 1016 00:59:35,155 --> 00:59:37,491 Aku membagi ini karena aku peduli. 1017 00:59:37,574 --> 00:59:41,078 Aku peduli terhadap kalian yang disesatkan dan itu tak baik. Paham? 1018 00:59:41,161 --> 00:59:43,121 Orang mengira algoritme ini dirancang 1019 00:59:43,205 --> 00:59:46,833 untuk memberikan yang mereka inginkan, tapi ternyata tidak. 1020 00:59:46,917 --> 00:59:52,589 Algoritme ini sebenarnya mencoba mencari beberapa perangkap yang sangat kuat, 1021 00:59:52,672 --> 00:59:56,218 mencari perangkap mana yang paling sesuai dengan minat kita. 1022 00:59:56,301 --> 00:59:59,513 Lalu jika kita mulai menonton salah satu video itu, 1023 00:59:59,805 --> 01:00:02,224 itu akan merekomendasikannya berulang kali. 1024 01:00:02,682 --> 01:00:04,935 Tak ada yang mau ini terjadi. 1025 01:00:05,018 --> 01:00:07,813 Hanya saja, inilah yang dilakukan sistem rekomendasi. 1026 01:00:07,896 --> 01:00:10,816 Sampai-sampai Kyrie Irving, pemain basket terkenal, 1027 01:00:11,483 --> 01:00:14,152 berkata dia percaya Bumi datar yang meminta maaf kemudian 1028 01:00:14,236 --> 01:00:16,404 dan dia menyalahkan video perangkap di YouTube. 1029 01:00:16,488 --> 01:00:18,657 Kau mengeklik YouTube 1030 01:00:18,740 --> 01:00:21,535 lalu kita masuk ke perangkap yang sangat dalam. 1031 01:00:21,618 --> 01:00:23,328 Saat dia datang ke NPR untuk berkata, 1032 01:00:23,411 --> 01:00:25,956 "Maaf telah meyakini ini. Aku tak mau menyesatkan orang," 1033 01:00:26,039 --> 01:00:28,333 sekelompok siswa di kelas yang diwawancarai bilang, 1034 01:00:28,416 --> 01:00:30,252 "Penganut Bumi bulat memengaruhinya." 1035 01:00:31,044 --> 01:00:33,964 Teori konspirasi Bumi datar direkomendasikan 1036 01:00:34,047 --> 01:00:37,634 ratusan juta kali oleh algoritme itu. 1037 01:00:37,801 --> 01:00:39,010 Mudah untuk berpikir 1038 01:00:39,094 --> 01:00:43,890 bahwa hanya beberapa orang bodoh yang meyakininya, 1039 01:00:43,974 --> 01:00:46,893 tapi algoritme ini makin cerdas setiap harinya. 1040 01:00:46,977 --> 01:00:50,188 Jadi, kini mereka meyakinkan orang-orang bahwa Bumi itu datar, 1041 01:00:50,272 --> 01:00:53,984 tapi besok, mereka akan meyakinkanmu tentang hal keliru lainnya. 1042 01:00:54,317 --> 01:00:57,821 Pada 7 November, tagar "Pizzagate" lahir. 1043 01:00:57,904 --> 01:00:59,197 Pizzagate... 1044 01:01:00,782 --> 01:01:01,658 Astaga. 1045 01:01:03,160 --> 01:01:06,913 Aku masih tak yakin bagaimana awalnya ini terjadi, 1046 01:01:06,997 --> 01:01:12,377 tapi ide bahwa memesan piza berarti memesan orang yang diperdagangkan. 1047 01:01:12,460 --> 01:01:15,046 Saat grup itu makin besar di Facebook, 1048 01:01:15,130 --> 01:01:19,926 mesin rekomendasi Facebook mulai menyarankan para pengguna biasa 1049 01:01:20,010 --> 01:01:21,761 untuk bergabung dengan grup Pizzagate. 1050 01:01:22,053 --> 01:01:27,392 Jadi, jika pengguna, misalnya, anti-vaksin, meyakini teori jejak kimia, 1051 01:01:27,475 --> 01:01:30,645 atau menunjukkan kepada algoritme Facebook 1052 01:01:30,729 --> 01:01:33,398 bahwa mereka cenderung memercayai teori konspirasi, 1053 01:01:33,481 --> 01:01:36,860 mesin rekomendasi Facebook akan menyajikan grup Pizzagate. 1054 01:01:36,943 --> 01:01:41,072 Akhirnya, ini berujung pada seorang pria yang muncul dengan pistol 1055 01:01:41,156 --> 01:01:44,618 dan memutuskan dia akan membebaskan anak-anak dari basemen 1056 01:01:44,701 --> 01:01:47,078 dari tempat piza yang tak punya basemen. 1057 01:01:47,162 --> 01:01:49,998 - Kenapa kau kemari? - Memastikan tak ada apa-apa di sana. 1058 01:01:50,582 --> 01:01:52,292 - Soal apa? - Jaringan pedofilia. 1059 01:01:52,375 --> 01:01:53,835 - Soal apa? - Jaringan pedofilia. 1060 01:01:53,919 --> 01:01:55,879 Maksudnya, Pizzagate. 1061 01:01:55,962 --> 01:02:00,216 Ini contoh teori konspirasi 1062 01:02:00,300 --> 01:02:03,678 yang disebarkan di semua jejaring sosial. 1063 01:02:03,762 --> 01:02:07,974 Mesin rekomendasi jejaring sosial itu secara sukarela menyajikannya kepada orang 1064 01:02:08,058 --> 01:02:10,644 yang tak pernah sama sekali mencari istilah "Pizzagate". 1065 01:02:10,727 --> 01:02:12,354 PIZZAGATE WADAH DEMOKRAT DAN PEDOFIL 1066 01:02:12,437 --> 01:02:14,439 Ada sebuah studi MIT yang menyebutkan 1067 01:02:14,522 --> 01:02:16,441 berita palsu di Twitter menyebar 1068 01:02:16,524 --> 01:02:19,569 enam kali lebih cepat daripada berita sebenarnya. 1069 01:02:19,903 --> 01:02:21,863 Seperti apa dunia itu 1070 01:02:21,947 --> 01:02:24,908 jika ada yang lebih unggul enam kali lipat daripada yang lain? 1071 01:02:25,283 --> 01:02:27,661 Kita bisa membayangkan semua hal ini 1072 01:02:27,744 --> 01:02:31,706 seperti mengubah neraca perilaku manusia. 1073 01:02:31,790 --> 01:02:34,709 Mereka membuat sebagian perilaku lebih sulit atau lebih mudah. 1074 01:02:34,793 --> 01:02:37,420 Kita selalu bebas menghadapi yang sulit, 1075 01:02:37,504 --> 01:02:38,797 tapi jarang ada yang mau. 1076 01:02:38,880 --> 01:02:43,093 Jadi, dalam skala besar di masyarakat, kita memiringkan neraca itu, 1077 01:02:43,176 --> 01:02:45,971 mengubah pikiran dan perilaku miliaran orang. 1078 01:02:46,054 --> 01:02:52,018 Kita menciptakan sistem yang berprasangka terhadap informasi palsu. 1079 01:02:52,644 --> 01:02:54,437 Bukan karena kita mau, 1080 01:02:54,521 --> 01:02:58,817 tapi karena informasi palsu memberi semua perusahaan itu lebih banyak uang 1081 01:02:59,401 --> 01:03:01,486 daripada kebenaran. ebenaran itu membosankan. 1082 01:03:01,987 --> 01:03:04,489 Ini model bisnis yang mencari profit dari disinformasi. 1083 01:03:04,906 --> 01:03:08,159 Kita menghasilkan uang dengan membebaskan pesan tak terkontrol 1084 01:03:08,702 --> 01:03:11,413 diterima siapa saja dengan harga terbaik. 1085 01:03:11,663 --> 01:03:13,748 Karena perubahan iklim? Ya. 1086 01:03:13,832 --> 01:03:16,751 Itu hoaks. Ya, itu nyata. Itulah intinya. 1087 01:03:16,835 --> 01:03:20,046 Makin sering mereka membahasnya dan makin kita terpecah, 1088 01:03:20,130 --> 01:03:22,340 kekuatan dan kendali mereka akan makin besar. 1089 01:03:22,424 --> 01:03:25,552 Facebook punya triliunan pos umpan berita seperti ini. 1090 01:03:26,553 --> 01:03:29,264 Mereka tak bisa tahu apa yang nyata atau benar. 1091 01:03:29,973 --> 01:03:33,727 Itu sebabnya pembahasan ini sangat penting sekarang. 1092 01:03:33,810 --> 01:03:37,022 Bukan hanya COVID-19 yang menyebar cepat. 1093 01:03:37,105 --> 01:03:40,191 Ada rangkaian informasi yang salah tentang virus ini di internet. 1094 01:03:40,275 --> 01:03:43,695 Ide bahwa minum lebih banyak air akan menghapus virus korona dari tubuh 1095 01:03:43,778 --> 01:03:47,490 adalah salah satu mitos soal virus ini yang beredar di media sosial. 1096 01:03:47,574 --> 01:03:50,452 Pemerintah merencanakan peristiwa ini, menciptakan virusnya, 1097 01:03:50,827 --> 01:03:53,580 dan melakukan simulasi tentang reaksi berbagai negara. 1098 01:03:53,955 --> 01:03:55,582 Virus korona itu hoaks. 1099 01:03:56,166 --> 01:03:57,959 SARS, virus korona. 1100 01:03:58,376 --> 01:04:01,046 Lihatlah tahun pembuatannya. 2018. 1101 01:04:01,129 --> 01:04:03,798 Kurasa pemerintah Amerika memulai ini. 1102 01:04:04,215 --> 01:04:07,344 Tak ada yang sakit. 1103 01:04:07,427 --> 01:04:09,095 Tak ada yang kenal orang yang sakit. 1104 01:04:09,512 --> 01:04:12,849 Mungkin pemerintah menggunakan virus korona sebagai alasan 1105 01:04:12,932 --> 01:04:15,643 agar semua orang tetap di rumah karena ada hal lain terjadi. 1106 01:04:15,727 --> 01:04:18,021 Virus korona tidak membunuh orang, 1107 01:04:18,104 --> 01:04:20,940 tapi radiasi 5G yang mereka pancarkan. 1108 01:04:21,024 --> 01:04:22,525 MENARA 5G DIPOTONG DAN DIBAKAR 1109 01:04:22,609 --> 01:04:24,569 Kita dibombardir dengan rumor. 1110 01:04:25,403 --> 01:04:28,823 Orang-orang meledakkan menara seluler. 1111 01:04:28,907 --> 01:04:32,160 Kita melihat Rusia dan Cina menyebarkan rumor dan teori konspirasi. 1112 01:04:32,243 --> 01:04:35,246 Tadi pagi, muncul kepanikan dan protes di Ukraina... 1113 01:04:35,330 --> 01:04:38,917 Orang tak tahu apa yang benar dan kini menjadi masalah hidup dan mati. 1114 01:04:40,001 --> 01:04:42,629 Sumber-sumber yang menyebarkan informasi virus korona palsu 1115 01:04:42,712 --> 01:04:45,799 telah mengumpulkan sekitar 52 juta keterlibatan. 1116 01:04:45,882 --> 01:04:50,095 Maksudmu, larutan perak akan efektif. 1117 01:04:50,178 --> 01:04:54,140 Anggaplah itu belum diuji pada jenis virus korona ini... 1118 01:04:54,224 --> 01:04:57,227 Apa yang kita lihat dengan COVID hanyalah versi ekstrem 1119 01:04:57,310 --> 01:05:00,688 dari apa yang terjadi di seluruh ekosistem informasi kita. 1120 01:05:00,980 --> 01:05:04,943 Media sosial memperkuat gosip dan desas-desus eksponensial 1121 01:05:05,026 --> 01:05:07,112 hingga kita tak tahu apa yang benar, 1122 01:05:07,195 --> 01:05:09,114 apa pun isu yang kita pedulikan. 1123 01:05:26,131 --> 01:05:27,465 Kau masih tergabung di tim? 1124 01:05:30,468 --> 01:05:34,597 Aku akan membeli camilan sebelum latihan jika kau mau ikut. 1125 01:05:37,016 --> 01:05:38,685 Lupakan saja. 1126 01:05:39,936 --> 01:05:44,983 KAMI MEMBUTUHKANMU, BERGABUNGLAH SEKARANG 1127 01:05:45,066 --> 01:05:47,527 Sembilan dari sepuluh orang merasa tak puas saat ini. 1128 01:05:47,610 --> 01:05:50,613 Jika dipikir lagi, EC mirip dengan gerakan politik dalam sejarah. 1129 01:05:50,822 --> 01:05:54,492 Kita melawan gangguan ini. 1130 01:05:54,576 --> 01:05:57,036 Kalian adalah kaumku. Aku percaya kalian. 1131 01:05:59,205 --> 01:06:02,584 - Konten Extreme Center itu hebat. - Dia amat menyukainya. 1132 01:06:02,667 --> 01:06:03,626 Melakukan lelang. 1133 01:06:04,586 --> 01:06:08,548 Ada 843 penawar, dia terjual seharga 4,35 sen ke pabrik senjata. 1134 01:06:08,631 --> 01:06:10,842 Ayo promosikan beberapa acara ini. 1135 01:06:10,925 --> 01:06:13,511 Unjuk rasa mendatang di zona geografisnya akhir pekan ini. 1136 01:06:13,595 --> 01:06:15,180 Aku juga punya naravlog baru. 1137 01:06:17,849 --> 01:06:22,979 Sejujurnya, percayalah, aku bersedia melakukan apa saja. 1138 01:06:23,062 --> 01:06:24,939 Maksudku, apa saja. 1139 01:06:32,155 --> 01:06:33,198 - Berlanggananlah - Ben? 1140 01:06:33,281 --> 01:06:35,950 dan kembalilah lagi karena percayalah, 1141 01:06:36,618 --> 01:06:38,870 aku punya rencana sangat besar. 1142 01:06:38,953 --> 01:06:40,205 Rencana sangat besar. 1143 01:06:40,788 --> 01:06:45,293 Salah satu masalah dengan Facebook adalah sebagai alat persuasi, 1144 01:06:45,793 --> 01:06:47,921 itu mungkin hal terhebat yang pernah dibuat. 1145 01:06:48,171 --> 01:06:52,508 Sekarang, bayangkan artinya itu di tangan diktator atau pemimpin otoriter. 1146 01:06:53,718 --> 01:06:57,639 Jika kita ingin mengendalikan populasi negaramu, 1147 01:06:57,722 --> 01:07:01,309 tak pernah ada alat yang seefektif Facebook. 1148 01:07:04,938 --> 01:07:07,398 Beberapa implikasi yang paling meresahkan 1149 01:07:07,482 --> 01:07:11,236 dari pemerintah dan pelaku jahat lain yang menjadikan media sosial senjata 1150 01:07:11,528 --> 01:07:13,613 adalah menyebabkan bahaya di dunia nyata. 1151 01:07:13,696 --> 01:07:15,073 Kurasa contoh paling menonjol 1152 01:07:15,156 --> 01:07:17,659 yang banyak diberitakan adalah kejadian di Myanmar. 1153 01:07:17,742 --> 01:07:19,160 KANTOR KEPRESIDENAN MYANMAR 1154 01:07:19,244 --> 01:07:21,204 Di Myanmar, saat orang memikirkan internet, 1155 01:07:21,287 --> 01:07:22,914 yang terpikir adalah Facebook. 1156 01:07:22,997 --> 01:07:25,917 Yang sering terjadi adalah saat orang-orang membeli ponsel, 1157 01:07:26,000 --> 01:07:29,921 pemilik toko ponsel akan memasangkan Facebook 1158 01:07:30,004 --> 01:07:31,506 dan membuatkan mereka akun. 1159 01:07:31,589 --> 01:07:34,884 Jadi, saat mendapatkan ponsel, hal pertama yang mereka buka 1160 01:07:34,968 --> 01:07:37,595 dan yang mereka tahu cara membukanya hanyalah Facebook. 1161 01:07:38,179 --> 01:07:41,891 Penyelidikan mengejutkan baru mengungkap makin sulitnya Facebook 1162 01:07:41,975 --> 01:07:43,810 mengatasi ujaran kebencian di Myanmar. 1163 01:07:43,893 --> 01:07:46,020 BERHENTI MEMBUNUH MUSLIM 1164 01:07:46,104 --> 01:07:49,190 Facebook benar-benar memberi militer dan pelaku jahat lainnya 1165 01:07:49,274 --> 01:07:51,776 cara baru memanipulasi opini publik 1166 01:07:51,859 --> 01:07:55,530 dan membantu memicu kekerasan terhadap Muslim Rohingya 1167 01:07:55,613 --> 01:07:57,407 yang termasuk pembunuhan massal, 1168 01:07:58,074 --> 01:07:59,867 membakar seluruh desa, 1169 01:07:59,951 --> 01:08:00,952 pemerkosaan massal, 1170 01:08:01,035 --> 01:08:03,705 dan kejahatan berat lain terhadap kemanusiaan 1171 01:08:03,788 --> 01:08:08,209 yang kini membuat 700.000 Muslim Rohingya harus meninggalkan Myanmar. 1172 01:08:11,170 --> 01:08:16,551 Ini bukan karena pelaku propaganda yang gencar tak ada sebelumnya, 1173 01:08:16,634 --> 01:08:19,762 tapi karena semua platform ini memungkinkan 1174 01:08:19,846 --> 01:08:23,725 penyebaran narasi manipulatif dengan sangat mudah 1175 01:08:23,808 --> 01:08:25,435 dan tanpa membayar mahal. 1176 01:08:25,518 --> 01:08:27,812 Jika aku ingin memanipulasi pemilu, 1177 01:08:27,895 --> 01:08:30,565 aku bisa masuk ke grup teori konspirasi di Facebook, 1178 01:08:30,648 --> 01:08:34,444 menemukan 100 orang yang percaya bahwa Bumi benar-benar datar 1179 01:08:34,861 --> 01:08:37,780 dan menganggap pendaratan di bulan adalah teori konspirasi, 1180 01:08:37,864 --> 01:08:41,451 lalu bisa kuminta Facebook memberiku seribu pengguna yang tampak seperti itu. 1181 01:08:42,118 --> 01:08:46,080 Facebook akan dengan senang hati mengirim ribuan pengguna yang mirip mereka 1182 01:08:46,164 --> 01:08:49,417 yang kini bisa kujejali dengan teori konspirasi lainnya. 1183 01:08:51,127 --> 01:08:53,129 Terjual seharga 3,4 sen per impresi. 1184 01:08:53,379 --> 01:08:56,174 - Video EC baru untuk dipromosikan. - Satu iklan lagi siap. 1185 01:08:58,509 --> 01:09:02,138 Algoritme dan politisi manipulatif menjadi sangat ahli 1186 01:09:02,221 --> 01:09:04,057 dalam mempelajari cara memicu kita, 1187 01:09:04,140 --> 01:09:08,353 makin mahir menciptakan berita palsu yang kita serap seolah-olah itu kenyataan 1188 01:09:08,436 --> 01:09:10,813 dan membingungkan kita untuk meyakini kebohongan itu. 1189 01:09:10,897 --> 01:09:14,150 Seolah-olah kita kehilangan kendali atas jati diri dan keyakinan kita. 1190 01:09:31,376 --> 01:09:32,668 ...agar mereka bisa memihak. 1191 01:09:32,752 --> 01:09:34,879 Ada kebohongan di sini dan di sana. 1192 01:09:34,962 --> 01:09:39,967 Agar mereka bisa terus berkuasa dan mengendalikan semuanya. 1193 01:09:40,051 --> 01:09:42,637 Mereka bisa mengendalikan pikiran kita 1194 01:09:42,720 --> 01:09:46,391 agar mereka bisa menyimpan rahasia mereka. 1195 01:09:46,474 --> 01:09:48,601 CDC MENGAKU MENUTUPI FAKTA VAKSIN MEMICU AUTISME 1196 01:09:48,684 --> 01:09:50,895 Bayangkan dunia tempat kebenaran tak dipercaya. 1197 01:09:50,978 --> 01:09:52,814 VAKSIN ITU BERACUN LINDUNGI ANAK KITA 1198 01:09:52,897 --> 01:09:55,650 Semua orang percaya pemerintah membohongi mereka. 1199 01:09:56,317 --> 01:09:58,444 Semuanya adalah teori konspirasi. 1200 01:09:58,528 --> 01:10:01,197 "Aku tak boleh percaya siapa pun. Aku benci pihak lain." 1201 01:10:01,280 --> 01:10:02,698 Itulah arah semua ini. 1202 01:10:02,782 --> 01:10:06,160 Gempa bumi politik di Eropa terus bergemuruh, 1203 01:10:06,244 --> 01:10:08,413 kali ini di Italia dan Spanyol. 1204 01:10:08,496 --> 01:10:11,999 Koalisi sentris tradisional Eropa kehilangan mayoritas suaranya 1205 01:10:12,083 --> 01:10:15,002 sementara partai sayap kanan dan kiri alami peningkatan. 1206 01:10:19,716 --> 01:10:20,591 Mundur. 1207 01:10:21,676 --> 01:10:22,510 Baiklah, ayo. 1208 01:10:28,391 --> 01:10:31,269 Akun-akun ini dengan sengaja dan secara khusus berusaha 1209 01:10:31,352 --> 01:10:33,896 menebar pertikaian politik di Hong Kong. 1210 01:10:38,609 --> 01:10:39,610 Baiklah, Ben. 1211 01:10:42,864 --> 01:10:45,032 Bagaimana rasanya menjadi negara 1212 01:10:45,116 --> 01:10:48,411 yang sumber informasi utamanya adalah Facebook dan media sosial? 1213 01:10:48,953 --> 01:10:50,872 Demokrasi hancur begitu cepat. 1214 01:10:50,955 --> 01:10:51,831 Enam bulan. 1215 01:10:51,914 --> 01:10:53,791 Setelah kekacauan di Chicago, 1216 01:10:53,875 --> 01:10:57,086 bentrokan antara pemrotes dan pendukung, 1217 01:10:58,004 --> 01:11:01,632 Demokrasi menghadapi krisis kepercayaan. 1218 01:11:01,716 --> 01:11:04,343 Yang kita lihat adalah serangan global terhadap demokrasi. 1219 01:11:05,136 --> 01:11:07,930 Mayoritas negara yang menjadi target adalah negara-negara 1220 01:11:08,014 --> 01:11:10,099 yang menjalankan pemilu demokratis. 1221 01:11:10,725 --> 01:11:12,518 Ini terjadi dalam skala besar. 1222 01:11:12,602 --> 01:11:15,563 Oleh pihak negara dan pemilik jutaan dolar yang berkata, 1223 01:11:15,646 --> 01:11:18,524 "Aku ingin mengacaukan Kenya atau Kamerun. 1224 01:11:18,608 --> 01:11:20,651 Angola? Itu hanya seharga ini." 1225 01:11:20,735 --> 01:11:23,362 Pemilu luar biasa berlangsung hari Minggu lalu di Brasil. 1226 01:11:23,446 --> 01:11:25,823 Dengan kampanye yang didukung media sosial. 1227 01:11:31,037 --> 01:11:33,956 Kami dari industri teknologi telah menciptakan alat 1228 01:11:34,248 --> 01:11:37,418 untuk mengacaukan dan mengikis struktur masyarakat, 1229 01:11:37,502 --> 01:11:40,254 di setiap negara sekaligus, di mana-mana. 1230 01:11:40,338 --> 01:11:44,509 Ini terjadi di Jerman, Spanyol, Prancis, Brasil, Australia. 1231 01:11:44,592 --> 01:11:46,928 Beberapa negara maju di dunia 1232 01:11:47,428 --> 01:11:49,222 kini saling menghancurkan 1233 01:11:49,305 --> 01:11:50,932 dan apa kesamaan mereka? 1234 01:11:51,974 --> 01:11:56,312 Sepengetahuanmu, apa kau percaya Facebook memengaruhi hasil pemilu 2016? 1235 01:11:56,854 --> 01:11:58,189 Itu sulit. 1236 01:11:59,148 --> 01:12:00,024 Itu... 1237 01:12:01,275 --> 01:12:04,654 Kenyataannya adalah ada begitu banyak faktor. 1238 01:12:04,737 --> 01:12:07,865 Perwakilan dari Facebook, Twitter, dan Google kembali ke Capitol Hill 1239 01:12:07,949 --> 01:12:09,450 untuk kesaksian hari kedua 1240 01:12:09,534 --> 01:12:12,578 soal campur tangan Rusia dalam pemilu 2016. 1241 01:12:12,662 --> 01:12:17,291 Manipulasi oleh pihak ketiga bukanlah peretasan. 1242 01:12:18,501 --> 01:12:21,462 Rusia tak meretas Facebook. 1243 01:12:21,629 --> 01:12:24,966 Yang mereka lakukan adalah menggunakan alat yang dibuat Facebook 1244 01:12:25,049 --> 01:12:27,844 untuk pengiklan dan pengguna yang sah, 1245 01:12:27,927 --> 01:12:30,346 yang mereka terapkan untuk tujuan jahat. 1246 01:12:31,973 --> 01:12:34,016 Itu seperti perang dengan kendali jarak jauh. 1247 01:12:34,475 --> 01:12:36,602 Satu negara bisa memanipulasi negara lain 1248 01:12:36,686 --> 01:12:39,230 tanpa menyerbu perbatasan fisiknya. 1249 01:12:39,522 --> 01:12:41,023 Kita melihat video kekerasan ini. 1250 01:12:41,107 --> 01:12:43,317 Tampaknya itu bak sampah yang didorong... 1251 01:12:43,401 --> 01:12:45,903 Namun, itu bukan soal siapa yang ingin kita pilih, 1252 01:12:46,362 --> 01:12:50,575 tapi soal menabur kekacauan dan perpecahan di masyarakat. 1253 01:12:50,658 --> 01:12:53,077 Ini terjadi di Huntington Beach, sebuah demonstrasi... 1254 01:12:53,160 --> 01:12:54,870 Ini soal membuat dua pihak 1255 01:12:54,954 --> 01:12:58,082 yang tak bisa dan mau saling mendengar lagi, 1256 01:12:58,165 --> 01:12:59,876 yang tak saling percaya lagi. 1257 01:12:59,959 --> 01:13:02,253 Ini kota tempat kebencian diumbar 1258 01:13:03,296 --> 01:13:05,464 dan berubah menjadi kekerasan rasial. 1259 01:13:05,548 --> 01:13:07,633 KETEGANGAN VIRGINIA TIGA TEWAS DALAM KEKERASAN 1260 01:13:20,146 --> 01:13:20,980 Ben! 1261 01:13:21,606 --> 01:13:22,440 Cassandra! 1262 01:13:22,982 --> 01:13:23,816 - Cass! - Ben! 1263 01:13:23,900 --> 01:13:25,484 Kemari kau! 1264 01:13:27,486 --> 01:13:31,157 Angkat tangan. Berlutut. Tiarap. 1265 01:13:36,120 --> 01:13:37,204 - Tenang... - Ben! 1266 01:13:37,288 --> 01:13:38,581 Hei! Angkat tangan! 1267 01:13:39,624 --> 01:13:41,292 Berbaliklah. Tiarap. 1268 01:13:56,807 --> 01:13:59,644 Apa kita ingin sistem ini dijual kepada penawar tertinggi? 1269 01:13:59,727 --> 01:14:01,312 PRANCIS 2019 1270 01:14:01,395 --> 01:14:05,399 Demokrasi yang bisa dijual dan kita bisa menjangkau benak siapa pun yang kita mau, 1271 01:14:05,483 --> 01:14:08,694 membuat kebohongan pada populasi tertentu dan membuat perang budaya? 1272 01:14:09,236 --> 01:14:10,237 Apa kita mau itu? 1273 01:14:14,784 --> 01:14:16,202 Kita adalah bangsa... 1274 01:14:16,952 --> 01:14:18,621 yang tak saling bicara lagi. 1275 01:14:18,704 --> 01:14:19,997 SENATOR FLORIDA, AS 1276 01:14:20,081 --> 01:14:23,000 Kita bangsa orang yang berhenti berteman dengan orang 1277 01:14:23,084 --> 01:14:25,294 karena pilihan mereka di pemilu lalu. 1278 01:14:25,962 --> 01:14:28,422 Kita bangsa yang mengisolasi diri 1279 01:14:28,506 --> 01:14:30,966 untuk menonton saluran yang membenarkan kita saja. 1280 01:14:32,510 --> 01:14:36,806 Pesan saya hari ini adalah kesukuan menghancurkan kita. 1281 01:14:37,348 --> 01:14:39,183 Ini menghancurkan negara kita. 1282 01:14:40,226 --> 01:14:43,104 Bukan seperti ini cara orang dewasa waras bertindak. 1283 01:14:43,187 --> 01:14:45,398 Jika semua berhak meyakini fakta yang mereka mau, 1284 01:14:45,481 --> 01:14:49,402 tak perlu ada kompromi dan orang-orang tak perlu berkumpul. 1285 01:14:49,485 --> 01:14:51,696 Bahkan, orang-orang tak perlu berinteraksi. 1286 01:14:52,321 --> 01:14:56,617 Kita harus memiliki pemahaman bersama tentang kenyataan. 1287 01:14:57,368 --> 01:14:58,411 Atau kita bukan negara. 1288 01:14:58,911 --> 01:15:02,998 Jadi, solusi jangka panjangnya adalah membangun lebih banyak alat IA 1289 01:15:03,082 --> 01:15:08,129 yang menemukan pola penggunaan layanan yang mustahil dilakukan orang sungguhan. 1290 01:15:08,212 --> 01:15:11,841 Kita mengizinkan para pakar teknologi menganggap ini sebagai masalah 1291 01:15:11,924 --> 01:15:14,010 yang siap mereka pecahkan. 1292 01:15:15,136 --> 01:15:16,470 Itu bohong. 1293 01:15:17,638 --> 01:15:20,766 Orang-orang membahas IA seolah-olah itu akan paham kebenaran. 1294 01:15:21,684 --> 01:15:23,811 IA takkan menyelesaikan masalah ini. 1295 01:15:24,228 --> 01:15:27,189 IA tak bisa memecahkan masalah berita palsu. 1296 01:15:28,649 --> 01:15:31,026 Google tak punya pilihan untuk bilang, 1297 01:15:31,110 --> 01:15:34,363 "Apa ini konspirasi? Apa ini kebenaran?" 1298 01:15:34,655 --> 01:15:36,240 Karena mereka tak tahu kebenaran. 1299 01:15:36,824 --> 01:15:40,411 Mereka tak punya proksi kebenaran yang lebih baik dari klik. 1300 01:15:41,871 --> 01:15:45,124 Jika kita tak setuju soal apa yang benar 1301 01:15:45,207 --> 01:15:47,585 atau kebenaran itu sungguh ada, 1302 01:15:48,294 --> 01:15:49,295 kita akan hancur. 1303 01:15:49,879 --> 01:15:52,089 Ini masalah di bawah masalah lain, 1304 01:15:52,173 --> 01:15:54,425 karena jika tak bisa sepakat soal apa yang benar, 1305 01:15:55,092 --> 01:15:57,803 kita tak bisa keluar dari semua masalah kita. 1306 01:16:05,352 --> 01:16:07,855 Sebaiknya sarankan dia ikuti Klub Sepak Bola Bumi Datar. 1307 01:16:07,938 --> 01:16:10,399 Jangan tunjukkan kabar olahraga lagi. Dia tak tertarik. 1308 01:16:39,970 --> 01:16:42,765 Banyak orang di Silicon Valley yang meyakini sebuah teori 1309 01:16:42,848 --> 01:16:45,226 bahwa kita sedang membangun otak super global 1310 01:16:45,309 --> 01:16:48,020 dan semua pengguna hanyalah neuron kecil yang bisa ditukar. 1311 01:16:48,104 --> 01:16:49,563 Tak ada yang penting. 1312 01:16:50,231 --> 01:16:53,150 Itu memaksa orang mengambil peran aneh 1313 01:16:53,234 --> 01:16:56,070 yang menjadikan kita sebuah elemen komputer kecil 1314 01:16:56,153 --> 01:16:58,906 yang diprogram lewat manipulasi perilaku 1315 01:16:58,989 --> 01:17:02,368 untuk melayani otak raksasa ini dan kita tak penting. 1316 01:17:02,451 --> 01:17:06,455 Kita takkan dibayar, diakui, dan tak bisa menentukan nasib sendiri. 1317 01:17:06,539 --> 01:17:09,416 Kami akan diam-diam memanipulasimu karena kau simpul komputer, 1318 01:17:09,500 --> 01:17:12,336 jadi, kami harus memprogrammu karena begitulah simpul komputer. 1319 01:17:20,094 --> 01:17:21,095 Astaga. 1320 01:17:21,887 --> 01:17:25,391 Saat memikirkan teknologi yang menjadi ancaman eksistensial, 1321 01:17:25,474 --> 01:17:28,060 itu pernyataan berani dan... 1322 01:17:29,603 --> 01:17:33,983 Maka akan mudah bagi kita untuk berpikir, "Baiklah, aku membawa ponsel... 1323 01:17:35,526 --> 01:17:37,236 menggulir, mengeklik, menggunakannya. 1324 01:17:37,319 --> 01:17:39,238 Di mana ancaman eksistensialnya? 1325 01:17:40,239 --> 01:17:41,615 Ada komputer super, 1326 01:17:41,699 --> 01:17:44,034 di sisi lain layar, mengarah ke otakku, 1327 01:17:44,451 --> 01:17:47,538 membuatku menonton satu video lagi. Di mana ancaman eksistensialnya?" 1328 01:17:54,253 --> 01:17:59,341 Ini bukan soal teknologi yang menjadi ancaman eksistensial. 1329 01:18:02,511 --> 01:18:04,722 DENGAR PENDAPAT SENAT AS SOAL TEKNOLOGI PERSUASIF 1330 01:18:04,805 --> 01:18:06,348 Namun, kemampuan teknologi 1331 01:18:06,432 --> 01:18:08,976 untuk menghadirkan kemungkinan terburuk di masyarakat 1332 01:18:09,560 --> 01:18:13,522 dan kemungkinan terburuk itulah ancaman eksistensialnya. 1333 01:18:13,606 --> 01:18:15,900 SENAT AMERIKA SERIKAT 1334 01:18:18,777 --> 01:18:20,571 Jika teknologi menciptakan 1335 01:18:21,655 --> 01:18:24,533 kekacauan massal, kemarahan, ketidaksopanan, 1336 01:18:24,617 --> 01:18:26,327 kurangnya saling percaya, 1337 01:18:27,453 --> 01:18:30,623 kesepian, alienasi, peningkatan polarisasi, 1338 01:18:30,706 --> 01:18:33,334 peretasan pemilu, populisme, 1339 01:18:33,918 --> 01:18:36,962 gangguan, dan ketidakmampuan berfokus pada isu sebenarnya... 1340 01:18:37,963 --> 01:18:39,214 itulah masyarakat. 1341 01:18:40,341 --> 01:18:46,388 Kini masyarakat tak mampu menyembuhkan dirinya 1342 01:18:46,472 --> 01:18:48,724 dan berubah menjadi semacam kekacauan. 1343 01:18:51,977 --> 01:18:54,939 Ini memengaruhi semua orang, meski kita tak memakai produk ini. 1344 01:18:55,481 --> 01:18:57,524 Semua ini telah menjadi Frankenstein digital 1345 01:18:57,608 --> 01:19:00,110 yang mengubah dunia sesuai bayangan mereka, 1346 01:19:00,194 --> 01:19:01,862 entah itu kesehatan mental anak-anak 1347 01:19:01,946 --> 01:19:04,490 atau politik dan wacana politik kita, 1348 01:19:04,573 --> 01:19:07,493 tanpa bertanggung jawab membahasnya di ranah publik. 1349 01:19:07,576 --> 01:19:10,579 - Jadi, itu kembali ke... - Menurutmu siapa yang bertanggung jawab? 1350 01:19:10,663 --> 01:19:13,582 Kurasa kita harus meminta platform bertanggung jawab 1351 01:19:13,666 --> 01:19:15,584 karena saat mengambil alih iklan pemilu, 1352 01:19:15,668 --> 01:19:17,753 mereka bertanggung jawab melindungi pemilu. 1353 01:19:17,836 --> 01:19:20,464 Saat menguasai kesehatan mental anak atau acara Sabtu pagi, 1354 01:19:20,547 --> 01:19:22,716 mereka bertanggung jawab melindungi Sabtu pagi. 1355 01:19:23,801 --> 01:19:27,930 Perlombaan untuk menarik perhatian orang tak akan hilang. 1356 01:19:28,639 --> 01:19:31,850 Teknologi kita akan menjadi lebih menyatu dengan kehidupan kita. 1357 01:19:31,934 --> 01:19:34,979 IA akan lebih mahir memprediksi hal yang membuat kita melihat layar, 1358 01:19:35,062 --> 01:19:37,106 bukan lebih buruk dalam memprediksinya. 1359 01:19:38,941 --> 01:19:42,027 Usiaku 62 tahun, 1360 01:19:42,111 --> 01:19:45,114 makin tua seiring percakapan ini berlangsung, 1361 01:19:45,197 --> 01:19:47,366 tapi aku akan memberitahumu... 1362 01:19:48,701 --> 01:19:52,371 Aku mungkin akan mati dan mungkin akan bersyukur untuk itu 1363 01:19:52,454 --> 01:19:54,373 saat semua ini membuahkan hasil. 1364 01:19:54,790 --> 01:19:59,753 Karena kupikir ini membuatku sangat takut. 1365 01:20:00,921 --> 01:20:03,298 Apa kau sependapat? 1366 01:20:03,549 --> 01:20:06,885 Atau aku bereaksi berlebihan pada situasi yang kurang kuketahui? 1367 01:20:09,930 --> 01:20:11,640 Apa yang paling kau cemaskan? 1368 01:20:15,519 --> 01:20:18,480 Kurasa dalam jangka pendek... 1369 01:20:19,523 --> 01:20:20,524 perang saudara. 1370 01:20:24,445 --> 01:20:29,908 Jika kita teruskan situasi saat ini, anggaplah hingga 20 tahun lagi... 1371 01:20:31,118 --> 01:20:34,580 peradaban kita mungkin akan hancur karena kebodohan yang disengaja. 1372 01:20:34,663 --> 01:20:37,958 Kita mungkin gagal menghadapi tantangan perubahan iklim. 1373 01:20:38,042 --> 01:20:42,087 Kita mungkin memperburuk demokrasi dunia 1374 01:20:42,171 --> 01:20:46,133 sehingga mereka jatuh ke dalam disfungsi autokrat yang aneh. 1375 01:20:46,216 --> 01:20:48,510 Kita mungkin merusak ekonomi global. 1376 01:20:49,136 --> 01:20:52,264 Kita mungkin tak selamat. 1377 01:20:52,348 --> 01:20:54,808 Aku sungguh menganggap ini eksistensial. 1378 01:21:02,483 --> 01:21:04,985 Apa ini generasi terakhir 1379 01:21:05,069 --> 01:21:08,822 yang akan tahu rasanya sebelum ilusi ini terjadi? 1380 01:21:11,075 --> 01:21:14,578 Bagaimana kita terbangun dari matriks saat kita tak tahu ada di matriks? 1381 01:21:17,748 --> 01:21:23,253 "MENJADI UTOPIA ATAU DILUPAKAN, AKAN DITENTUKAN OLEH LOMBA ESTAFET 1382 01:21:23,337 --> 01:21:27,299 HINGGA SAAT TERAKHIR..." BUCKMINSTER FULLER 1383 01:21:27,382 --> 01:21:30,636 Banyak ucapan kami yang terdengar seolah-olah ini... 1384 01:21:31,512 --> 01:21:33,680 hanyalah hanya malapetaka dan kesuraman sepihak. 1385 01:21:33,764 --> 01:21:36,809 Seperti, "Astaga, teknologi menghancurkan dunia... 1386 01:21:36,892 --> 01:21:39,520 dan anak-anak," tapi tidak. 1387 01:21:40,229 --> 01:21:45,567 Ini membingungkan karena ini utopia sekaligus distopia. 1388 01:21:45,943 --> 01:21:50,447 Aku bisa menekan tombol di ponselku dan mobil akan muncul dalam 30 detik, 1389 01:21:50,531 --> 01:21:52,699 lalu aku bisa pergi ke tujuanku. 1390 01:21:53,033 --> 01:21:55,786 Itu ajaib. Itu luar biasa. 1391 01:21:56,161 --> 01:21:58,789 Saat kami membuat tombol "Suka", motivasi kami adalah, 1392 01:21:58,872 --> 01:22:01,500 "Bisakah kita menyebarkan aura positif dan cinta di dunia?" 1393 01:22:01,583 --> 01:22:06,380 Lalu berpikir bahwa kini remaja tertekan saat tak banyak dapat respons "Suka" 1394 01:22:06,463 --> 01:22:08,632 atau itu bisa mengarah ke polarisasi politik, 1395 01:22:08,715 --> 01:22:09,883 tak terpikir oleh kami. 1396 01:22:10,175 --> 01:22:12,344 Kurasa mereka tak berniat jahat. 1397 01:22:13,512 --> 01:22:15,764 Hanya model bisnisnya yang bermasalah. 1398 01:22:15,848 --> 01:22:20,227 Kita bisa menutup layanannya dan menghancurkan apa pun itu, 1399 01:22:20,310 --> 01:22:24,398 nilai pemegang saham 20 miliar dolar, dituntut... 1400 01:22:24,481 --> 01:22:27,109 Namun, kita tak bisa membalikkan keadaan seperti masa lalu. 1401 01:22:27,442 --> 01:22:30,404 Kita bisa membuat modifikasi kecil, tapi pada akhirnya, 1402 01:22:30,487 --> 01:22:34,032 pendapatan dan penggunaan harus meningkat, kuartal dari kuartal. 1403 01:22:34,658 --> 01:22:37,536 Makin besar itu, makin sulit bagi siapa pun untuk berubah. 1404 01:22:38,495 --> 01:22:43,458 Yang kulihat adalah sekelompok orang yang terjebak oleh model bisnis, 1405 01:22:43,542 --> 01:22:46,170 insentif ekonomi, dan tekanan pemegang saham 1406 01:22:46,253 --> 01:22:48,922 yang membuatnya hampir mustahil untuk melakukan hal lain. 1407 01:22:49,006 --> 01:22:50,841 Kurasa kita harus menerima fakta 1408 01:22:50,924 --> 01:22:53,177 bahwa perusahaan boleh berfokus menghasilkan uang. 1409 01:22:53,260 --> 01:22:56,889 Yang buruk adalah saat tak ada regulasi, aturan, dan persaingan 1410 01:22:56,972 --> 01:23:00,851 dan perusahaan bertindak sebagai pemerintah yang asli. 1411 01:23:01,143 --> 01:23:03,353 Lalu mereka berkata, "Kami bisa mengatur diri." 1412 01:23:03,437 --> 01:23:05,981 Itu sebuah kebohongan. Itu konyol. 1413 01:23:06,064 --> 01:23:09,151 Insentif keuangan bisa dibilang mengatur dunia, 1414 01:23:09,234 --> 01:23:15,574 jadi, apa pun solusi masalah ini haruslah mengubah insentif keuangan itu. 1415 01:23:16,158 --> 01:23:18,785 Tak ada alasan fiskal agar perusahaan ini berubah. 1416 01:23:19,161 --> 01:23:21,330 Itu sebabnya kita perlu peraturan. 1417 01:23:21,413 --> 01:23:24,291 Perusahaan telepon punya banyak data sensitif soal kita 1418 01:23:24,374 --> 01:23:27,544 dan ada banyak hukum yang memastikan mereka tak berbuat salah. 1419 01:23:27,628 --> 01:23:31,506 Kita hampir tak punya hukum tentang privasi digital misalnya. 1420 01:23:31,590 --> 01:23:34,426 Kita bisa memajaki pemungutan dan pemrosesan data. 1421 01:23:34,510 --> 01:23:37,554 Sama seperti saat kita membayar tagihan air 1422 01:23:37,638 --> 01:23:39,723 dengan memantau jumlah penggunaan air, 1423 01:23:39,806 --> 01:23:43,227 kenakan pajak pada perusahaan ini atas aset data yang mereka miliki. 1424 01:23:43,310 --> 01:23:44,770 Itu memberi mereka alasan fiskal 1425 01:23:44,853 --> 01:23:47,856 untuk tak memperoleh semua data di planet ini. 1426 01:23:48,148 --> 01:23:50,567 Hukum jauh tertinggal dalam hal ini. 1427 01:23:50,651 --> 01:23:55,864 Yang kutahu, situasi saat ini ada bukan untuk melindungi pengguna, 1428 01:23:55,948 --> 01:23:58,700 tapi untuk perlindungan hak dan privilese 1429 01:23:58,784 --> 01:24:01,453 dari semua perusahaan raksasa yang sangat kaya ini. 1430 01:24:02,204 --> 01:24:05,832 Apa kita akan selalu tunduk kepada orang terkaya dan paling berkuasa? 1431 01:24:05,916 --> 01:24:07,417 Atau kita akan bilang, 1432 01:24:07,960 --> 01:24:12,047 "Ada kalanya saat kepentingan nasional, 1433 01:24:12,130 --> 01:24:15,592 ada kalanya saat kepentingan orang atau para pengguna, 1434 01:24:15,676 --> 01:24:17,386 sebenarnya lebih penting 1435 01:24:18,011 --> 01:24:21,473 daripada keuntungan bagi orang yang sudah menjadi miliarder"? 1436 01:24:21,848 --> 01:24:26,603 Pasar-pasar ini merusak demokrasi dan kebebasan. 1437 01:24:26,687 --> 01:24:28,522 Mereka harus dilarang. 1438 01:24:29,147 --> 01:24:31,817 Ini bukan proposal radikal. 1439 01:24:31,900 --> 01:24:34,194 Ada pasar lain yang kita larang. 1440 01:24:34,278 --> 01:24:36,989 Kita melarang pasar organ manusia. 1441 01:24:37,197 --> 01:24:39,491 Kami melarang pasar budak manusia. 1442 01:24:39,950 --> 01:24:44,037 Karena mereka punya konsekuensi merusak yang tak terelakkan. 1443 01:24:44,663 --> 01:24:45,831 Kita hidup di dunia 1444 01:24:45,914 --> 01:24:50,252 tempat pohon mati bernilai lebih, secara finansial, daripada yang hidup. 1445 01:24:50,335 --> 01:24:53,839 Dunia tempat paus mati lebih berharga daripada yang hidup. 1446 01:24:53,922 --> 01:24:56,341 Jika ekonomi kita terus bekerja seperti itu 1447 01:24:56,425 --> 01:24:58,135 dan perusahaan tak diatur, 1448 01:24:58,218 --> 01:25:00,679 mereka akan terus menghancurkan pohon, 1449 01:25:00,762 --> 01:25:01,763 membunuh paus, 1450 01:25:01,847 --> 01:25:06,101 menambang tanah, dan terus menarik minyak dari tanah, 1451 01:25:06,184 --> 01:25:08,395 meski kita tahu itu menghancurkan planet 1452 01:25:08,478 --> 01:25:12,149 dan membuat dunia yang lebih buruk untuk generasi mendatang. 1453 01:25:12,232 --> 01:25:13,859 Ini pemikiran jangka pendek 1454 01:25:13,942 --> 01:25:16,695 berdasarkan perilaku yang menuhankan keuntungan ini, 1455 01:25:16,778 --> 01:25:20,073 seolah-olah secara ajaib, tiap perusahaan yang bertindak egois ini 1456 01:25:20,157 --> 01:25:21,950 akan memberikan hasil terbaik. 1457 01:25:22,034 --> 01:25:24,494 Ini sudah memengaruhi lingkungan sejak lama. 1458 01:25:24,703 --> 01:25:27,205 Yang menakutkan dan semoga ini menjadi pemicu terakhir 1459 01:25:27,289 --> 01:25:29,249 yang akan menyadarkan kita sebagai peradaban 1460 01:25:29,333 --> 01:25:31,710 akan betapa salahnya teori ini sejak awal 1461 01:25:31,793 --> 01:25:35,005 adalah menganggap bahwa kini kitalah pohon dan pausnya. 1462 01:25:35,088 --> 01:25:37,049 Perhatian kita bisa ditambang. 1463 01:25:37,132 --> 01:25:39,134 Kita akan lebih menguntungkan perusahaan 1464 01:25:39,217 --> 01:25:41,595 jika kita menghabiskan waktu menatap layar, 1465 01:25:41,678 --> 01:25:42,971 menatap iklan, 1466 01:25:43,055 --> 01:25:45,891 daripada menghabiskan waktu itu untuk menikmati hidup. 1467 01:25:45,974 --> 01:25:47,559 Jadi, kini kita melihat akibatnya. 1468 01:25:47,642 --> 01:25:50,687 Kita melihat perusahaan menggunakan inteligensi artifisial yang kuat 1469 01:25:50,771 --> 01:25:53,607 untuk mengakali dan mencari cara menarik perhatian kita 1470 01:25:53,690 --> 01:25:57,069 menuju hal yang mereka mau kita lihat, daripada hal yang paling konsisten 1471 01:25:57,152 --> 01:25:59,237 dengan tujuan, nilai, dan hidup kita. 1472 01:26:02,991 --> 01:26:04,451 PIDATO UTAMA HARI INI STEVE JOBS 1473 01:26:05,535 --> 01:26:06,912 Arti komputer bagiku adalah 1474 01:26:06,995 --> 01:26:10,290 ini alat paling luar biasa yang pernah kami buat. 1475 01:26:11,124 --> 01:26:13,877 Itu setara dengan sepeda untuk pikiran kita. 1476 01:26:15,587 --> 01:26:20,342 Ide soal teknologi manusiawi, itulah awal mula Silicon Valley. 1477 01:26:21,051 --> 01:26:25,722 Lalu kita kehilangan arah karena itu menjadi tindakan yang keren, 1478 01:26:25,806 --> 01:26:27,265 bukan yang benar. 1479 01:26:27,557 --> 01:26:29,726 Dulu internet adalah tempat yang aneh dan gila. 1480 01:26:30,018 --> 01:26:31,395 Itu eksperimental. 1481 01:26:31,520 --> 01:26:34,731 Dulu hal-hal kreatif terjadi di internet dan tentu masih hingga kini, 1482 01:26:34,815 --> 01:26:38,610 tapi kini rasanya itu seperti mal raksasa. 1483 01:26:38,694 --> 01:26:44,282 Aku berpikir, "Astaga, pasti ada sesuatu yang lebih dari itu." 1484 01:26:46,743 --> 01:26:48,412 Kurasa aku hanya optimistis. 1485 01:26:48,495 --> 01:26:52,165 Karena kurasa kita bisa mengubah rupa dan arti media sosial. 1486 01:26:54,251 --> 01:26:57,921 Cara kerja teknologi bukan hukum fisika. Tidak mustahil diubah. 1487 01:26:58,004 --> 01:27:02,175 Ini adalah pilihan yang dibuat manusia sepertiku selama ini. 1488 01:27:02,968 --> 01:27:05,345 Manusia bisa mengubah teknologi itu. 1489 01:27:06,972 --> 01:27:09,975 Pertanyaannya sekarang adalah apakah kita bersedia mengakui 1490 01:27:10,475 --> 01:27:15,439 bahwa hasil buruk itu adalah wujud produk dari pekerjaan kita. 1491 01:27:21,027 --> 01:27:24,865 Kita membangun ini dan bertanggung jawab untuk mengubahnya. 1492 01:27:37,169 --> 01:27:38,712 Model ekstraksi perhatian 1493 01:27:38,795 --> 01:27:42,299 bukanlah cara memperlakukan manusia yang kita mau. 1494 01:27:46,094 --> 01:27:48,138 Ini perasaanku saja atau... 1495 01:27:49,806 --> 01:27:50,849 Pria yang malang. 1496 01:27:51,475 --> 01:27:53,226 Struktur masyarakat yang sehat 1497 01:27:53,310 --> 01:27:56,146 bergantung pada keluarnya kita dari model bisnis merusak ini. 1498 01:28:04,696 --> 01:28:07,782 Kita bisa menuntut produk ini dirancang secara manusiawi. 1499 01:28:09,409 --> 01:28:13,205 Kita bisa menuntut untuk tak diperlakukan sebagai sumber daya yang bisa diekstraksi. 1500 01:28:15,165 --> 01:28:18,460 Tujuannya mungkin bisa berupa cara kita membuat dunia lebih baik. 1501 01:28:20,462 --> 01:28:23,798 Dalam sejarah, setiap ada perubahan ke arah yang lebih baik, 1502 01:28:23,882 --> 01:28:26,343 itu karena seseorang maju dan berkata, 1503 01:28:26,426 --> 01:28:28,428 "Ini bodoh. Kita bisa lebih baik." 1504 01:28:29,179 --> 01:28:32,557 Para kritikuslah yang mendorong perbaikan. 1505 01:28:33,141 --> 01:28:35,393 Para kritikuslah yang benar-benar optimistis. 1506 01:28:38,313 --> 01:28:39,147 Halo. 1507 01:28:46,196 --> 01:28:47,697 Maksudku, itu agak gila, bukan? 1508 01:28:47,781 --> 01:28:51,535 Seolah-olah desain fundamental dari hal ini... 1509 01:28:52,994 --> 01:28:54,955 tidak berjalan ke arah yang baik. 1510 01:28:55,247 --> 01:28:56,873 Seluruhnya. 1511 01:28:56,957 --> 01:29:00,669 Jadi, terdengar gila jika berkata kita harus mengubah semua itu, 1512 01:29:01,169 --> 01:29:03,046 tapi itu yang harus kita lakukan. 1513 01:29:04,381 --> 01:29:05,966 Menurutmu, kita akan berhasil? 1514 01:29:07,425 --> 01:29:08,343 Harus. 1515 01:29:21,314 --> 01:29:24,943 Sepertinya kau sangat optimistis. 1516 01:29:26,194 --> 01:29:27,404 Aku terdengar seperti itu? 1517 01:29:27,654 --> 01:29:30,198 Ya, maksudku... Sulit kupercaya kau terus mengatakan itu 1518 01:29:30,282 --> 01:29:33,326 karena aku berpikir, "Sungguh? Aku merasa kita menuju distopia. 1519 01:29:33,410 --> 01:29:35,370 Aku merasa kita menuju distopia dengan cepat 1520 01:29:35,453 --> 01:29:37,914 dan butuh keajaiban untuk mengeluarkan kita darinya." 1521 01:29:37,998 --> 01:29:40,375 Keajaiban itu, tentu saja, adalah keinginan bersama. 1522 01:29:41,001 --> 01:29:44,588 Aku merasa optimistis kita akan menemukan solusi, 1523 01:29:44,671 --> 01:29:47,048 tapi kurasa itu akan butuh waktu lama. 1524 01:29:47,132 --> 01:29:50,385 Karena tak semua orang menganggap ini sebagai masalah. 1525 01:29:50,468 --> 01:29:55,890 Kurasa salah satu kegagalan besar dalam teknologi saat ini 1526 01:29:55,974 --> 01:29:58,643 adalah kegagalan kepemimpinan 1527 01:29:58,727 --> 01:30:01,980 dari orang-orang yang tampil dan melakukan percakapan terbuka 1528 01:30:02,063 --> 01:30:05,900 yang bukan hanya soal hal-hal baik, tapi juga yang tak sempurna 1529 01:30:05,984 --> 01:30:08,194 agar seseorang bisa membangun sesuatu yang baru. 1530 01:30:08,486 --> 01:30:10,322 Pada akhirnya, 1531 01:30:10,405 --> 01:30:14,618 mesin ini takkan berubah sampai ada tekanan publik yang besar. 1532 01:30:14,701 --> 01:30:18,330 Dengan melakukan percakapan ini dan menyuarakan pendapat kita, 1533 01:30:18,413 --> 01:30:21,082 dalam beberapa kasus melalui teknologi ini, 1534 01:30:21,166 --> 01:30:24,252 kita bisa mulai mengubah keadaan dan pembahasan. 1535 01:30:24,336 --> 01:30:27,005 Ini mungkin terdengar aneh, tapi ini dunia dan komunitasku. 1536 01:30:27,088 --> 01:30:29,674 Aku tak membenci dan mau merugikan Google atau Facebook. 1537 01:30:29,758 --> 01:30:32,886 Aku hanya ingin mengubah mereka agar mereka tak menghancurkan dunia. 1538 01:30:32,969 --> 01:30:35,513 Aku sudah menghapus banyak aplikasi dari ponselku 1539 01:30:35,597 --> 01:30:37,724 yang kurasa hanya membuang waktuku. 1540 01:30:37,807 --> 01:30:40,685 Semua aplikasi media sosial dan berita. 1541 01:30:40,769 --> 01:30:42,520 Aku pun mematikan notifikasi 1542 01:30:42,604 --> 01:30:45,815 pada apa pun yang menggetarkan kakiku dengan informasi 1543 01:30:45,899 --> 01:30:48,944 yang tak tepat waktu dan penting bagiku saat ini. 1544 01:30:49,027 --> 01:30:51,279 Karena alasan itu juga, aku tak mengantongi kue. 1545 01:30:51,363 --> 01:30:53,198 Kurangi jumlah notifikasi yang didapat. 1546 01:30:53,281 --> 01:30:54,449 Matikan notifikasi. 1547 01:30:54,532 --> 01:30:55,950 Mematikan semua notifikasi. 1548 01:30:56,034 --> 01:30:58,536 Aku tak menggunakan Google lagi, tapi Qwant 1549 01:30:58,620 --> 01:31:01,498 yang tak menyimpan riwayat pencarian kita. 1550 01:31:01,581 --> 01:31:04,417 Jangan pernah menerima video rekomendasi di YouTube. 1551 01:31:04,501 --> 01:31:07,003 Selalu memilih. Itu cara melawan yang lain. 1552 01:31:07,295 --> 01:31:12,133 Ada banyak ekstensi Chrome yang menghapus rekomendasi. 1553 01:31:12,217 --> 01:31:15,637 Aku suka kau merekomendasikan sesuatu untuk membatalkan yang kau buat. 1554 01:31:15,720 --> 01:31:16,554 Ya. 1555 01:31:16,930 --> 01:31:18,473 Sebelum membagi, 1556 01:31:18,556 --> 01:31:21,685 periksa fakta, pertimbangkan sumbernya, riset lebih banyak di Google. 1557 01:31:21,768 --> 01:31:25,105 Jika sepertinya itu dirancang untuk memancing emosi kita, 1558 01:31:25,188 --> 01:31:26,314 mungkin memang begitu. 1559 01:31:26,731 --> 01:31:29,025 Intinya, kita memilih dengan klik. 1560 01:31:29,109 --> 01:31:30,360 Jika mengeklik umpan klik, 1561 01:31:30,443 --> 01:31:33,780 kita menciptakan insentif keuangan yang melanggengkan sistem yang ada. 1562 01:31:33,863 --> 01:31:37,909 Pastikan kita mendapat beragam informasi dalam hidupmu sendiri. 1563 01:31:38,118 --> 01:31:40,996 Aku mengikuti orang yang tak kusukai di Twitter 1564 01:31:41,079 --> 01:31:44,207 karena aku ingin melihat sudut pandang berbeda. 1565 01:31:44,582 --> 01:31:46,584 Perhatikan banyak orang di industri teknologi 1566 01:31:46,668 --> 01:31:49,045 tak memberikan perangkat ini kepada anak mereka. 1567 01:31:49,129 --> 01:31:51,256 Anak-anakku tak menggunakan media sosial. 1568 01:31:51,965 --> 01:31:53,550 Apa itu aturan atau... 1569 01:31:53,633 --> 01:31:54,509 Itu aturannya. 1570 01:31:55,093 --> 01:31:57,846 Kami fanatik soal itu. 1571 01:31:57,929 --> 01:31:59,222 Kami gila. 1572 01:31:59,305 --> 01:32:05,603 Kami tak memberikan anak-anak kami waktu di depan layar. 1573 01:32:05,687 --> 01:32:08,565 Aku sudah memikirkan tiga aturan sederhana 1574 01:32:08,648 --> 01:32:12,610 yang mempermudah hidup keluarga dan itu dibenarkan oleh penelitian. 1575 01:32:12,694 --> 01:32:15,572 Aturan pertama adalah tak ada gawai di kamar tidur 1576 01:32:15,655 --> 01:32:17,282 pada waktu tetap setiap malam. 1577 01:32:17,365 --> 01:32:20,535 Apa pun waktunya, 30 menit sebelum tidur, semua gawai keluar. 1578 01:32:20,618 --> 01:32:24,038 Aturan kedua adalah tak ada media sosial sampai SMA. 1579 01:32:24,122 --> 01:32:26,374 Secara pribadi, kurasa usianya harus 16 tahun. 1580 01:32:26,458 --> 01:32:28,960 SMP sudah cukup sulit.  Jadi, jauhkan hingga SMA. 1581 01:32:29,044 --> 01:32:32,964 Aturan ketiga adalah menyusun anggaran waktu dengan anak-anak kita. 1582 01:32:33,048 --> 01:32:34,799 Jika bicara dengan mereka dan berkata, 1583 01:32:34,883 --> 01:32:37,802 "Berapa jam sehari kau mau menggunakan gawaimu? 1584 01:32:37,886 --> 01:32:39,637 Menurutmu, berapa durasi yang sesuai," 1585 01:32:39,721 --> 01:32:41,598 jawaban mereka sering kali masuk akal. 1586 01:32:42,056 --> 01:32:44,642 Dengar, aku tahu betul 1587 01:32:44,726 --> 01:32:48,563 aku tak akan membuat semua orang menghapus akun media sosial mereka, 1588 01:32:48,646 --> 01:32:50,440 tapi kurasa ada beberapa orang 1589 01:32:50,523 --> 01:32:54,486 dan membuat beberapa orang menghapus akun mereka itu sangat penting. 1590 01:32:54,569 --> 01:32:58,406 Alasannya adalah itu menciptakan ruang untuk percakapan 1591 01:32:58,490 --> 01:33:00,909 karena aku ingin ada cukup banyak orang di masyarakat 1592 01:33:00,992 --> 01:33:05,080 yang bebas dari mesin manipulasi untuk melakukan percakapan sosial 1593 01:33:05,163 --> 01:33:07,540 yang tak dibatasi oleh mesin manipulasi. 1594 01:33:07,624 --> 01:33:10,126 Jadi, lakukanlah! Keluar dari sistem. 1595 01:33:10,335 --> 01:33:12,670 Ya, hapuslah. Lepaskan benda bodoh itu. 1596 01:33:13,546 --> 01:33:16,508 Dunia ini indah. Lihat, di luar sana bagus. 1597 01:33:18,468 --> 01:33:19,969 IKUTI KAMI DI MEDIA SOSIAL! 1598 01:33:20,053 --> 01:33:21,888 HANYA BERCANDA 1599 01:33:21,971 --> 01:33:27,477 AYO MEMBAHAS CARA MEMPERBAIKINYA THESOCIALDILEMMA.COM 1600 01:33:32,065 --> 01:33:34,609 Terjemahan subtitle oleh Alphino Fajar