1 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.MX 2 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.MX 3 00:00:19,978 --> 00:00:24,774 "TAK ADA HAL BESAR YANG MEMASUKI KEHIDUPAN MANUSIA TANPA KUTUKAN." 4 00:00:24,858 --> 00:00:27,861 SOPHOKLES 5 00:00:31,156 --> 00:00:34,659 Ya, mulailah. Silakan duduk dan buat dirimu nyaman. 6 00:00:37,579 --> 00:00:39,497 - Kau baik-baik saja? - Ya. 7 00:00:43,043 --> 00:00:44,627 Pengambilan gambar pertama, tandai! 8 00:00:46,880 --> 00:00:48,923 Mau mulai dengan memperkenalkan dirimu? 9 00:00:50,467 --> 00:00:53,636 Halo, Dunia. Aku Bailey. Pengambilan gambar ketiga. 10 00:00:54,179 --> 00:00:56,264 - Kau baik-baik saja? - Ini bagian terburuk. 11 00:00:57,515 --> 00:00:58,516 Aku tak suka ini. 12 00:00:59,851 --> 00:01:02,228 Aku bekerja di Facebook pada tahun 2011 dan 2012. 13 00:01:02,312 --> 00:01:05,190 Aku salah satu pegawai awal Instagram. 14 00:01:05,273 --> 00:01:08,693 Aku bekerja di Google, YouTube. 15 00:01:08,777 --> 00:01:11,696 Apple, Google, Twitter, Palm. 16 00:01:12,739 --> 00:01:15,533 Aku membantu merintis Mozilla Labs dan beralih ke Firefox. 17 00:01:15,617 --> 00:01:17,994 Sudah siap? Semuanya... 18 00:01:18,078 --> 00:01:18,953 Bagus. 19 00:01:21,206 --> 00:01:22,582 Aku bekerja di Twitter. 20 00:01:22,999 --> 00:01:26,169 Pekerjaan terakhirku di sana adalah Wakil Presiden Senior Perekayasaan. 21 00:01:27,462 --> 00:01:29,255 Aku mantan Presiden Pinterest. 22 00:01:29,339 --> 00:01:32,717 Sebelum itu, aku Direktur Monetisasi 23 00:01:32,801 --> 00:01:34,260 di Facebook selama lima tahun. 24 00:01:34,344 --> 00:01:37,972 Saat di Twitter, kuhabiskan beberapa tahun mengelola platform pengembang mereka, 25 00:01:38,056 --> 00:01:40,225 lalu aku menjadi Kepala Produk Pelanggan. 26 00:01:40,308 --> 00:01:44,270 Aku penemu bersama Google Drive, Gmail Chat, 27 00:01:44,354 --> 00:01:46,856 Halaman Facebook, dan tombol "Suka" Facebook. 28 00:01:47,440 --> 00:01:50,777 Ya. Ini sebabnya kuhabiskan delapan bulan 29 00:01:50,860 --> 00:01:52,779 berbicara berulang kali dengan pengacara. 30 00:01:54,030 --> 00:01:55,406 Ini membuatku takut. 31 00:01:58,409 --> 00:02:02,914 Saat di sana, aku selalu merasa, pada dasarnya, itu demi kebaikan. 32 00:02:03,373 --> 00:02:05,375 Entah apa aku merasa seperti itu lagi. 33 00:02:05,458 --> 00:02:10,588 Aku meninggalkan Google pada Juni 2017 karena masalah etika. 34 00:02:10,672 --> 00:02:14,134 Bukan hanya di Google, tapi industri ini secara umum. 35 00:02:14,217 --> 00:02:15,426 Aku sangat khawatir. 36 00:02:16,719 --> 00:02:17,679 Sangat khawatir. 37 00:02:19,097 --> 00:02:21,808 Saat ini mudah untuk melupakan fakta 38 00:02:21,891 --> 00:02:27,814 bahwa alat ini telah menciptakan hal-hal indah di dunia. 39 00:02:27,897 --> 00:02:30,233 Mereka mempertemukan anggota keluarga yang hilang 40 00:02:30,316 --> 00:02:31,943 dan menemukan donor organ. 41 00:02:32,026 --> 00:02:35,613 Maksudku, ada perubahan sistemik berarti 42 00:02:35,697 --> 00:02:37,866 yang terjadi di seluruh dunia 43 00:02:37,949 --> 00:02:40,201 karena semua platform positif ini. 44 00:02:41,035 --> 00:02:42,954 Kurasa kita naif 45 00:02:43,329 --> 00:02:44,914 soal sisi lain dari koin itu. 46 00:02:45,540 --> 00:02:48,585 Ya, setelah semua ini dirilis, mereka membentuk hidup sendiri. 47 00:02:48,668 --> 00:02:52,005 Cara mereka digunakan tak sesuai dengan harapan kita. 48 00:02:52,088 --> 00:02:56,509 Aku sangat percaya tak ada yang berniat menimbulkan semua konsekuensi ini. 49 00:02:56,801 --> 00:02:59,554 Tak ada orang jahat. Sama sekali tidak. 50 00:03:01,639 --> 00:03:03,600 Lantas apa masalahnya? 51 00:03:09,230 --> 00:03:11,357 Apa ada masalah dan apa itu? 52 00:03:18,406 --> 00:03:20,158 Sulit memberi satu jawaban ringkas... 53 00:03:20,241 --> 00:03:22,118 Aku mencoba membahas beragam masalah. 54 00:03:22,577 --> 00:03:23,578 Apa masalahnya? 55 00:03:28,208 --> 00:03:32,253 DOKUMENTER NETFLIX ORIGINAL 56 00:03:33,588 --> 00:03:35,340 Meski menghadapi lonjakan kritik, 57 00:03:35,423 --> 00:03:37,675 perusahaan teknologi besar makin berkembang. 58 00:03:37,759 --> 00:03:40,929 Seluruh industri teknologi berada di bawah pengawasan tingkat baru. 59 00:03:41,012 --> 00:03:43,723 Studi baru mengungkap kaitan 60 00:03:43,806 --> 00:03:46,142 antara kesehatan mental dan penggunaan media sosial. 61 00:03:46,226 --> 00:03:48,478 Hadir untuk membahas riset terbaru... 62 00:03:49,187 --> 00:03:51,397 ...yang terjadi tanpa diliput sama sekali. 63 00:03:51,481 --> 00:03:54,025 Puluhan juta warga Amerika sangat kecanduan 64 00:03:54,108 --> 00:03:56,319 terhadap perangkat elektronik mereka. 65 00:03:56,402 --> 00:03:59,364 Itu diperparah oleh fakta kini kita bisa mengasingkan diri... 66 00:03:59,447 --> 00:04:00,698 KAWANMU MENANDAIMU DI FOTO 67 00:04:00,782 --> 00:04:02,742 ...dalam gelembung, berkat teknologi kami. 68 00:04:02,825 --> 00:04:04,577 Berita palsu menjadi lebih maju 69 00:04:04,661 --> 00:04:06,788 dan mengancam masyarakat di seluruh dunia. 70 00:04:06,871 --> 00:04:10,333 Kami tak menduga ini saat membuat Twitter lebih dari 12 tahun lalu. 71 00:04:10,416 --> 00:04:12,502 Pemerintah mengatakan mereka tak yakin 72 00:04:12,585 --> 00:04:14,754 serangan siber Rusia akan berhenti. 73 00:04:14,837 --> 00:04:18,132 YouTube dipaksa berfokus membersihkan situsnya. 74 00:04:18,216 --> 00:04:21,552 TikTok, jika Anda berbicara dengan remaja di luar sana, 75 00:04:21,636 --> 00:04:24,013 mustahil mereka akan menghapusnya... 76 00:04:24,097 --> 00:04:26,349 Hei, Isla, bisa tolong siapkan meja? 77 00:04:26,432 --> 00:04:27,517 Ada pertanyaan serius 78 00:04:27,600 --> 00:04:29,978 soal apakah media sosial membuat anak kita depresi. 79 00:04:30,061 --> 00:04:32,105 Isla, bisa tolong siapkan mejanya? 80 00:04:32,188 --> 00:04:35,316 Prosedur kosmetik ini menjadi sangat populer di kalangan remaja 81 00:04:35,400 --> 00:04:37,944 hingga ahli bedah plastik menamai sindrom baru untuk itu, 82 00:04:38,027 --> 00:04:40,822 Dismorfia Snapchat, dengan pasien muda yang ingin operasi 83 00:04:40,905 --> 00:04:43,741 agar mereka bisa mirip dengan swafoto berfilter mereka. 84 00:04:43,825 --> 00:04:45,910 Aku masih bingung kenapa kau memberinya itu. 85 00:04:45,994 --> 00:04:49,580 Aku harus bagaimana? Setiap anak lain di kelasnya punya. 86 00:04:50,164 --> 00:04:51,165 Usianya baru 11 tahun. 87 00:04:51,249 --> 00:04:55,086 Cass, tak ada yang memaksamu memilikinya. Kau bisa tak terhubung selama kau mau. 88 00:04:55,169 --> 00:04:59,340 Hei, aku terhubung tanpa ponsel. Aku sedang mengakses internet. 89 00:04:59,424 --> 00:05:03,094 Lagi pula, itu bukan koneksi nyata. Itu hanya omong kosong... 90 00:05:03,177 --> 00:05:04,971 Kapitalisme pengawasan telah membentuk 91 00:05:05,054 --> 00:05:07,765 politik dan budaya dalam cara yang tak banyak orang pahami. 92 00:05:07,849 --> 00:05:10,101 ISIS mengilhami para pengikutnya lewat internet 93 00:05:10,184 --> 00:05:12,812 dan kini penganut supremasi kulit putih melakukannya juga. 94 00:05:12,895 --> 00:05:14,147 Baru-baru ini di India, 95 00:05:14,230 --> 00:05:17,442 massa hakim jalanan di internet telah membunuh lusinan orang... 96 00:05:17,525 --> 00:05:20,361 Ini bukan sekadar berita palsu, tapi juga berkonsekuensi. 97 00:05:20,445 --> 00:05:24,073 Bagaimana cara menangani wabah di era maraknya berita palsu? 98 00:05:24,157 --> 00:05:26,993 Bisakah kita tertular virus korona dengan memakan makanan Cina? 99 00:05:27,535 --> 00:05:32,540 Kita telah berubah dari era informasi menjadi era disinformasi. 100 00:05:32,623 --> 00:05:34,667 Demokrasi kita sedang diserang. 101 00:05:34,751 --> 00:05:38,504 Maksudku adalah, "Kurasa alat yang telah diciptakan hari ini  102 00:05:38,588 --> 00:05:41,799 mulai mengikis struktur sosial dari cara kerja masyarakat." 103 00:06:00,151 --> 00:06:03,446 Asa memberi ucapan sambutan. Kita putar videonya. 104 00:06:04,197 --> 00:06:07,325 Lalu, "Hadirin, sambutlah Tristan Harris." 105 00:06:07,408 --> 00:06:08,826 - Benar. - Bagus. 106 00:06:08,951 --> 00:06:09,952 Jadi, aku naik... 107 00:06:11,204 --> 00:06:12,038 dan... 108 00:06:12,121 --> 00:06:13,748 MANUSIAWI AGENDA BARU TEKNOLOGI 109 00:06:13,831 --> 00:06:16,042 Intinya katakan, "Terima kasih sudah datang." 110 00:06:17,919 --> 00:06:22,048 Jadi, hari ini, aku ingin membahas agenda baru untuk teknologi. 111 00:06:22,131 --> 00:06:25,468 Alasan kami ingin melakukannya adalah karena jika kita tanyai orang, 112 00:06:25,551 --> 00:06:27,804 "Apa yang salah di industri teknologi saat ini?" 113 00:06:28,346 --> 00:06:31,641 Ada banyak keluhan, skandal, 114 00:06:31,724 --> 00:06:33,893 pencurian data, kecanduan teknologi, 115 00:06:33,976 --> 00:06:35,978 berita palsu, polarisasi, 116 00:06:36,062 --> 00:06:37,688 dan beberapa pemilu yang diretas. 117 00:06:38,189 --> 00:06:41,609 Namun, adakah sesuatu di balik semua masalah ini 118 00:06:41,692 --> 00:06:44,654 yang menyebabkan semua ini terjadi sekaligus? 119 00:06:46,447 --> 00:06:48,658 - Itu sudah bagus? - Bagus sekali. Ya. 120 00:06:50,827 --> 00:06:52,954 Aku hanya mencoba... Aku mau orang melihat... 121 00:06:53,037 --> 00:06:55,206 ada masalah yang terjadi di industri teknologi. 122 00:06:55,289 --> 00:07:00,211 Itu tak bernama dan itu terkait dengan satu sumber... 123 00:07:05,091 --> 00:07:06,801 Saat kita melihat sekeliling, 124 00:07:07,218 --> 00:07:09,387 rasanya dunia menjadi gila. 125 00:07:12,765 --> 00:07:15,184 Kita harus menanyai diri, apa ini normal? 126 00:07:16,102 --> 00:07:18,896 Atau kita semua terpengaruh semacam mantra? 127 00:07:22,316 --> 00:07:25,153 MANTAN PAKAR ETIKA DESAIN GOOGLE 128 00:07:25,236 --> 00:07:27,905 PENDIRI BERSAMA CENTER FOR HUMANE TECHNOLOGY 129 00:07:27,989 --> 00:07:30,491 Kuharap lebih banyak orang bisa memahami cara kerjanya 130 00:07:30,575 --> 00:07:34,036 karena ini seharusnya bukan hal yang hanya diketahui industri teknologi. 131 00:07:34,120 --> 00:07:36,289 Itu hal yang seharusnya semua orang tahu. 132 00:07:47,383 --> 00:07:48,301 - Halo! - Hai. 133 00:07:48,759 --> 00:07:50,595 - Tristan. Senang bertemu kau. - Tristan? 134 00:07:50,678 --> 00:07:51,721 - Ya. - Bagus. 135 00:07:53,181 --> 00:07:55,933 Tristan Harris adalah mantan pakar etika desain Google 136 00:07:56,017 --> 00:07:59,353 dan dijuluki sebagai hal paling mirip dengan nurani bagi Silicon Valley. 137 00:07:59,437 --> 00:08:01,189 Dia meminta industri teknologi membawa 138 00:08:01,272 --> 00:08:04,192 hal yang dia sebut "desain etis" pada produknya. 139 00:08:04,275 --> 00:08:06,903 Jarang ada orang dalam teknologi yang sejujur itu, 140 00:08:06,986 --> 00:08:10,281 tapi Tristan Harris percaya seseorang harus melakukannya. 141 00:08:11,324 --> 00:08:12,700 Dulu di Google, 142 00:08:12,783 --> 00:08:16,037 aku ada di tim Gmail dan mulai kelelahan 143 00:08:16,120 --> 00:08:18,581 karena kami begitu sering membahas... 144 00:08:19,457 --> 00:08:23,169 harus seperti apa bentuk kotak masuk dan warnanya. 145 00:08:23,252 --> 00:08:25,880 Aku merasa kecanduan surel 146 00:08:26,297 --> 00:08:27,715 dan kuanggap itu menarik 147 00:08:27,798 --> 00:08:31,511 bahwa tak ada orang di Gmail yang mencoba membuatnya tak begitu adiktif. 148 00:08:31,969 --> 00:08:34,514 Kupikir, "Apa ada lagi yang memikirkan ini? 149 00:08:34,597 --> 00:08:36,390 Belum kudengar ada yang membahas ini." 150 00:08:36,849 --> 00:08:41,229 Aku merasa frustrasi dengan industri teknologi secara umum 151 00:08:41,312 --> 00:08:43,272 karena kita seolah-olah tersesat. 152 00:08:46,984 --> 00:08:49,820 Aku berjuang untuk mencari tahu 153 00:08:49,904 --> 00:08:52,573 cara kami bisa mengubahnya dari dalam. 154 00:08:55,201 --> 00:08:59,497 Saat itulah kuputuskan membuat presentasi, semacam ajakan untuk bergerak. 155 00:09:00,998 --> 00:09:04,961 Setiap hari, aku pulang dan mengerjakannya selama beberapa jam setiap malam. 156 00:09:06,170 --> 00:09:11,884 Pada dasarnya tertulis, belum pernah ada 50 desainer, 157 00:09:12,426 --> 00:09:15,263 dari pria kulit putih berusia 20-35 tahun di California, 158 00:09:15,888 --> 00:09:19,725 membuat keputusan yang akan berdampak pada dua miliar orang. 159 00:09:21,018 --> 00:09:24,438 Dua miliar orang akan mendapat ide yang tak mereka niatkan 160 00:09:24,522 --> 00:09:28,401 karena desainer di Google berkata, "Ini cara notifikasi bekerja 161 00:09:28,484 --> 00:09:30,778 di layar yang kau lihat saat bangun pagi." 162 00:09:30,861 --> 00:09:35,283 Kami punya tanggung jawab moral sebagai Google untuk pecahkan masalah ini. 163 00:09:36,075 --> 00:09:37,743 Aku mengirim presentasi ini 164 00:09:37,827 --> 00:09:41,789 ke 15 hingga 20 rekan terdekatku di Google. 165 00:09:41,872 --> 00:09:44,959 Aku sangat gugup dan tak yakin bagaimana reaksinya. 166 00:09:46,460 --> 00:09:48,045 Saat bekerja keesokan harinya, 167 00:09:48,129 --> 00:09:50,464 mayoritas laptop menampilkan presentasi itu. 168 00:09:50,548 --> 00:09:52,049 PERHATIAN 169 00:09:52,133 --> 00:09:54,552 Kemudian pada hari itu, ada 400 penonton serentak, 170 00:09:54,635 --> 00:09:57,972 jadi, itu terus menyebar. Aku menerima surel dari seisi perusahaan. 171 00:09:58,180 --> 00:10:00,266 Orang-orang di setiap departemen berkata, 172 00:10:00,349 --> 00:10:02,852 "Aku setuju. Kulihat ini memengaruhi anak-anakku 173 00:10:02,935 --> 00:10:06,856 dan orang-orang di sekitarku. Kita harus melakukan sesuatu." 174 00:10:07,481 --> 00:10:10,818 Rasanya seperti aku meluncurkan revolusi atau semacamnya. 175 00:10:11,861 --> 00:10:15,197 Kemudian, aku tahu Larry Page diberi tahu soal presentasi ini 176 00:10:15,281 --> 00:10:17,116 dalam tiga pertemuan terpisah hari itu. 177 00:10:17,950 --> 00:10:20,286 Itu menciptakan semacam momen budaya 178 00:10:20,870 --> 00:10:23,205 yang harus Google anggap serius. 179 00:10:26,000 --> 00:10:26,917 Lalu... 180 00:10:28,461 --> 00:10:29,295 sirna. 181 00:10:34,300 --> 00:10:36,135 Semua orang pada tahun 2006... 182 00:10:37,345 --> 00:10:39,221 termasuk kami di Facebook, 183 00:10:39,305 --> 00:10:43,392 sangat mengagumi Google dan apa yang telah Google bangun, 184 00:10:43,476 --> 00:10:47,396 yaitu sebuah layanan yang sangat berguna, 185 00:10:47,480 --> 00:10:51,442 yang sejauh kami tahu, memberi banyak kebaikan bagi dunia. 186 00:10:51,525 --> 00:10:55,196 Mereka pun membangun mesin penghasil uang paralel. 187 00:10:55,696 --> 00:11:00,034 Kami sangat iri dengan itu. Bagi kami, itu tampak sangat elegan 188 00:11:00,826 --> 00:11:02,161 dan sempurna. 189 00:11:03,037 --> 00:11:05,206 Facebook sudah ada selama dua tahun 190 00:11:05,873 --> 00:11:08,376 dan aku direkrut untuk mencari tahu 191 00:11:08,459 --> 00:11:10,586 model bisnis untuk perusahaan. 192 00:11:10,670 --> 00:11:13,422 Aku Direktur Monetisasi. Intinya adalah, 193 00:11:13,506 --> 00:11:17,051 "Kau yang akan mencari tahu cara hal ini menghasilkan uang." 194 00:11:17,134 --> 00:11:19,804 Ada banyak orang yang melakukan banyak pekerjaan, 195 00:11:19,887 --> 00:11:25,643 tapi aku jelas salah satu orang yang menunjukkan... 196 00:11:26,769 --> 00:11:28,604 kami harus menghasilkan uang... 197 00:11:29,313 --> 00:11:33,651 dan kurasa model pengiklanan ini mungkin cara yang paling elegan. 198 00:11:43,077 --> 00:11:44,453 Video apa yang baru Ibu kirim? 199 00:11:44,537 --> 00:11:47,790 Itu dari gelar wicara, tapi cukup bagus. Pria itu genius. 200 00:11:47,873 --> 00:11:50,668 Dia membahas penghapusan media sosial, yang harus kau lakukan. 201 00:11:50,751 --> 00:11:52,878 Aku mungkin harus mulai memblokir surelnya. 202 00:11:52,962 --> 00:11:56,048 Sungguh, aku tak paham ucapannya. Dia lebih buruk dariku. 203 00:11:56,132 --> 00:11:58,467 - Dia hanya memakainya untuk resep. - Juga bekerja. 204 00:11:58,551 --> 00:12:00,636 - Serta video olahraga. - Juga tahu kabar kita. 205 00:12:00,720 --> 00:12:03,305 Serta kabar semua orang yang pernah dia temui di hidupnya. 206 00:12:04,932 --> 00:12:07,893 Jika Anda memeriksa umpan berita media sosial 207 00:12:07,977 --> 00:12:11,731 sambil menonton kami, Anda harus taruh ponselnya dan dengarkan 208 00:12:11,814 --> 00:12:14,817 karena tamu kita berikutnya telah menulis buku yang luar biasa 209 00:12:14,900 --> 00:12:18,112 soal betapa itu menghancurkan hidup kita. 210 00:12:18,195 --> 00:12:19,447 Tolong sambut penulis 211 00:12:19,530 --> 00:12:24,452 Ten Arguments For Deleting Your Social Media Accounts Right Now, 212 00:12:24,535 --> 00:12:25,786 Jaron Lanier. 213 00:12:26,287 --> 00:12:27,288 Itu benar. 214 00:12:27,997 --> 00:12:31,834 Perusahaan seperti Google dan Facebook adalah yang terkaya 215 00:12:31,917 --> 00:12:33,627 dan tersukses sepanjang masa. 216 00:12:34,295 --> 00:12:36,839 Mereka punya pegawai yang relatif sedikit. 217 00:12:36,922 --> 00:12:40,760 Mereka punya komputer raksasa yang mudah menghasilkan uang, bukan? 218 00:12:41,510 --> 00:12:45,222 Untuk apa mereka dibayar? Itu pertanyaan yang sangat penting. 219 00:12:47,308 --> 00:12:50,186 Aku sudah menjadi investor di bidang teknologi selama 35 tahun. 220 00:12:51,020 --> 00:12:54,356 Pada 50 tahun pertama Silicon Valley, industri ini membuat produk, 221 00:12:54,440 --> 00:12:56,525 perangkat keras dan lunak, dijual ke pelanggan. 222 00:12:56,609 --> 00:12:58,402 Itu bisnis yang sederhana. 223 00:12:58,486 --> 00:13:01,530 Selama sepuluh tahun terakhir, perusahaan terbesar di Silicon Valley 224 00:13:01,614 --> 00:13:03,866 berbisnis dengan menjual penggunanya. 225 00:13:03,949 --> 00:13:05,910 Bahkan kini agak basi untuk mengatakannya, 226 00:13:05,993 --> 00:13:09,205 tapi karena kita tak membayar produk yang kita gunakan, 227 00:13:09,288 --> 00:13:12,166 pengiklan membayar produk yang kita gunakan. 228 00:13:12,249 --> 00:13:14,084 Pengiklan adalah pelanggannya. 229 00:13:14,710 --> 00:13:16,086 Kitalah yang dijual. 230 00:13:16,170 --> 00:13:17,630 Pepatah klasiknya adalah, 231 00:13:17,713 --> 00:13:21,592 "Jika kau tak membayar produknya, berarti kaulah produknya." 232 00:13:21,675 --> 00:13:23,302 KAULAH PRODUKNYA 233 00:13:23,385 --> 00:13:27,139 Banyak orang berpikir, "Google hanyalah kotak pencarian 234 00:13:27,223 --> 00:13:29,850 dan Facebook hanya tempat untuk melihat kabar teman-temanku 235 00:13:29,934 --> 00:13:31,101 dan melihat foto mereka." 236 00:13:31,185 --> 00:13:35,481 Namun, mereka tak sadar mereka bersaing memikat perhatianmu. 237 00:13:36,524 --> 00:13:41,111 Jadi, Facebook, Snapchat, Twitter, Instagram, YouTube, 238 00:13:41,195 --> 00:13:45,491 model bisnis perusahaan seperti ini adalah membuat orang terpaku di layar. 239 00:13:46,283 --> 00:13:49,578 Mari kita cari tahu cara mendapatkan perhatian orang ini 240 00:13:49,662 --> 00:13:50,955 sebanyak mungkin. 241 00:13:51,455 --> 00:13:53,541 Kami bisa membuatmu habiskan waktu selama apa? 242 00:13:53,916 --> 00:13:56,794 Kami bisa membuatmu memberi hidupmu sebanyak apa kepada kami? 243 00:13:58,671 --> 00:14:01,090 Saat memikirkan cara kerja beberapa perusahaan ini, 244 00:14:01,173 --> 00:14:02,508 itu mulai menjadi masuk akal. 245 00:14:03,050 --> 00:14:06,095 Ada banyak layanan di internet yang kita anggap gratis. 246 00:14:06,178 --> 00:14:09,473 Namun, itu tak gratis. Semua itu dibayar oleh pengiklan. 247 00:14:09,557 --> 00:14:11,559 Kenapa pengiklan membayar perusahaan itu? 248 00:14:11,642 --> 00:14:14,687 Mereka membayar untuk menampilkan iklan kepada kita. 249 00:14:14,770 --> 00:14:15,729 Kitalah produknya. 250 00:14:15,813 --> 00:14:18,357 Perhatian kita adalah produk yang dijual ke pengiklan. 251 00:14:18,816 --> 00:14:20,442 Itu agak terlalu sederhana. 252 00:14:20,818 --> 00:14:23,654 Perubahan perlahan, kecil, dan tak terlihat 253 00:14:23,737 --> 00:14:26,073 dalam perilaku dan persepsi kita, itulah produknya. 254 00:14:26,156 --> 00:14:27,575 PERUBAHAN PERILAKU DAN PERSEPSI 255 00:14:27,658 --> 00:14:30,244 Itulah produknya. Hanya itu produk yang mungkin. 256 00:14:30,327 --> 00:14:34,081 Tak ada kemungkinan lain yang bisa disebut produk. 257 00:14:34,164 --> 00:14:37,251 Hanya itu sumber uang mereka. 258 00:14:37,668 --> 00:14:39,253 Mengubah perilaku, 259 00:14:39,336 --> 00:14:41,714 cara berpikir, dan jati diri kita. 260 00:14:42,631 --> 00:14:45,301 Perubahannya perlahan dan kecil. 261 00:14:45,384 --> 00:14:48,971 Jika bisa datangi seseorang dan berkata, "Beri aku sepuluh juta dolar 262 00:14:49,054 --> 00:14:54,310 dan akan kuubah dunia satu persen ke arah yang kau mau..." 263 00:14:54,894 --> 00:14:58,188 Itu dunia! Itu bisa luar biasa dan harganya mahal. 264 00:14:59,315 --> 00:15:00,149 Baiklah. 265 00:15:00,691 --> 00:15:04,570 Inilah yang selalu diimpikan semua bisnis, 266 00:15:04,653 --> 00:15:10,910 untuk memiliki jaminan keberhasilan saat iklannya dipasang. 267 00:15:11,285 --> 00:15:12,786 Itulah bisnis mereka. 268 00:15:12,995 --> 00:15:14,788 Mereka menjual kepastian. 269 00:15:14,997 --> 00:15:17,625 Agar sukses dalam bisnis itu, 270 00:15:17,708 --> 00:15:19,752 kita harus punya prediksi bagus. 271 00:15:20,044 --> 00:15:24,173 Prediksi besar dimulai dengan satu hal penting. 272 00:15:25,215 --> 00:15:26,926 Kita butuh banyak data. 273 00:15:27,009 --> 00:15:29,011 KITA BUTUH BANYAK DATA 274 00:15:29,136 --> 00:15:31,555 Banyak orang menyebut ini kapitalisme pengawasan. 275 00:15:31,639 --> 00:15:34,350 Kapitalisme yang mengambil untung dari jejak tak terbatas 276 00:15:34,433 --> 00:15:38,062 dari semua tempat yang semua orang datangi oleh perusahaan teknologi besar 277 00:15:38,145 --> 00:15:40,397 yang model bisnisnya adalah memastikan 278 00:15:40,481 --> 00:15:42,858 pengiklan bisa sesukses mungkin. 279 00:15:43,150 --> 00:15:45,569 Inilah jenis lokapasar baru saat ini. 280 00:15:45,653 --> 00:15:48,072 Ini lokapasar yang belum pernah ada. 281 00:15:48,822 --> 00:15:55,371 Ini lokapasar yang hanya memperdagangkan prediksi nilai saham manusia. 282 00:15:56,330 --> 00:15:58,499 Seperti pasar yang memperdagangkan 283 00:15:58,582 --> 00:16:01,585 prediksi nilai saham perut babi atau minyak. 284 00:16:02,127 --> 00:16:04,713 Kini kita punya pasar yang memperdagangkan 285 00:16:04,797 --> 00:16:07,591 prediksi nilai saham manusia dalam skala besar 286 00:16:08,175 --> 00:16:13,472 dan pasar itu telah menghasilkan triliunan dolar 287 00:16:14,014 --> 00:16:19,269 yang menjadikan perusahaan internet sebagai perusahaan terkaya 288 00:16:19,353 --> 00:16:22,564 dalam sejarah kemanusiaan. 289 00:16:27,444 --> 00:16:31,073 Aku ingin orang tahu semua yang mereka lakukan di internet 290 00:16:31,156 --> 00:16:34,326 diawasi, dilacak, dan diukur. 291 00:16:35,035 --> 00:16:39,623 Setiap tindakan yang kita lakukan dipantau dan direkam dengan hati-hati. 292 00:16:39,707 --> 00:16:43,836 Misalnya, gambar yang kita lihat dan berapa lama kita melihatnya. 293 00:16:43,919 --> 00:16:45,796 Ya, sungguh, berapa lama kau melihatnya. 294 00:16:45,879 --> 00:16:47,548 NAVIYA_R WAKTU KETERLIBATAN 295 00:16:47,631 --> 00:16:49,216 RYAN_M WAKTU KETERLIBATAN 296 00:16:49,299 --> 00:16:50,426 WREN_F WAKTU KETERLIBATAN 297 00:16:50,509 --> 00:16:53,804 Mereka tahu saat orang kesepian, depresi, 298 00:16:53,887 --> 00:16:57,099 dan tahu saat orang melihat foto mantan pasanganmu. 299 00:16:57,182 --> 00:17:00,853 Mereka tahu yang kau lakukan saat larut malam. Mereka tahu semuanya. 300 00:17:01,228 --> 00:17:03,230 Entah kau introver, ekstrover, 301 00:17:03,313 --> 00:17:06,942 jenis neurosis yang kau punya, atau seperti apa kepribadianmu. 302 00:17:08,193 --> 00:17:11,613 Mereka punya lebih banyak informasi soal kita 303 00:17:11,697 --> 00:17:14,324 daripada yang pernah dibayangkan dalam sejarah manusia. 304 00:17:14,950 --> 00:17:16,452 Ini belum pernah terjadi. 305 00:17:18,579 --> 00:17:22,791 Jadi, semua data yang kita berikan setiap saat 306 00:17:22,875 --> 00:17:26,754 dimasukkan ke sistem yang nyaris tak diawasi manusia, 307 00:17:27,463 --> 00:17:30,883 yang terus membuat prediksi yang makin membaik 308 00:17:30,966 --> 00:17:33,552 tentang apa yang akan kita lakukan dan siapa kita. 309 00:17:34,887 --> 00:17:36,346 DIREKOMENDASIKAN UNTUKMU 310 00:17:36,430 --> 00:17:39,683 Banyak orang salah memahami bahwa data kita yang dijual. 311 00:17:40,350 --> 00:17:43,187 Memberi data secara gratis bukanlah minat bisnis Facebook. 312 00:17:45,522 --> 00:17:47,107 Mereka apakan data itu? 313 00:17:51,070 --> 00:17:54,490 Mereka membuat model yang memprediksi tindakan kita. 314 00:17:54,573 --> 00:17:57,618 Siapa pun yang punya model terbaik akan menang. 315 00:18:02,706 --> 00:18:04,041 Kecepatan gulungnya melambat. 316 00:18:04,124 --> 00:18:06,919 Mendekati akhir rata-rata durasi sesinya, mengurangi iklan. 317 00:18:07,002 --> 00:18:08,337 Tampilkan teman dan keluarga. 318 00:18:09,671 --> 00:18:11,340 Di sisi lain layar, 319 00:18:11,423 --> 00:18:15,469 mereka seperti punya model boneka voodoo yang menyerupai kita. 320 00:18:16,762 --> 00:18:18,180 Semua yang pernah kita lakukan, 321 00:18:18,263 --> 00:18:19,473 semua klik yang kita buat, 322 00:18:19,556 --> 00:18:21,683 semua video yang kita tonton, semua tombol suka. 323 00:18:21,767 --> 00:18:25,354 Semua itu diolah untuk membangun model yang lebih akurat. 324 00:18:25,896 --> 00:18:27,481 Setelah modelnya ada, 325 00:18:27,564 --> 00:18:29,858 kita bisa memprediksi hal-hal yang dilakukan orang. 326 00:18:30,150 --> 00:18:31,944 Baiklah, coba aku tes. 327 00:18:32,569 --> 00:18:34,404 Ke mana kau akan pergi, bisa kuprediksi 328 00:18:34,488 --> 00:18:36,198 video apa yang akan terus kau tonton. 329 00:18:36,281 --> 00:18:39,159 Aku bisa memprediksi emosi macam apa yang memicumu. 330 00:18:39,243 --> 00:18:40,410 Ya, sempurna. 331 00:18:41,578 --> 00:18:43,372 Kegagalan terhebat tahun ini. 332 00:18:43,747 --> 00:18:44,665 KEGAGALAN HEBAT! 333 00:18:48,627 --> 00:18:51,088 - Sempurna, itu berhasil. - Disusul video lain. 334 00:18:51,171 --> 00:18:54,049 Bagus. Mari selipkan iklan sepatu sebelum videonya diputar. 335 00:18:56,426 --> 00:18:59,721 Ada tiga tujuan utama di banyak perusahaan teknologi ini. 336 00:18:59,805 --> 00:19:03,517 Ada tujuan keterlibatan untuk menaikkan penggunaanmu, agar terus gulirkan layar. 337 00:19:04,601 --> 00:19:06,145 Ada tujuan pertumbuhan 338 00:19:06,228 --> 00:19:08,689 untuk membuatmu kembali, mengundang banyak teman, 339 00:19:08,772 --> 00:19:10,816 dan agar mereka mengundang lebih banyak teman. 340 00:19:11,650 --> 00:19:14,987 Lalu ada tujuan iklan untuk memastikan bahwa seiring semua itu terjadi, 341 00:19:15,070 --> 00:19:17,406 kami menghasilkan uang sebanyak mungkin dari iklan. 342 00:19:19,366 --> 00:19:21,952 Masing-masing tujuan ini ditenagai oleh algoritme 343 00:19:22,035 --> 00:19:24,454 yang bertugas mencari tahu apa yang harus ditunjukkan 344 00:19:24,538 --> 00:19:26,165 agar jumlahnya terus naik. 345 00:19:26,623 --> 00:19:29,918 Di Facebook, kami sering membahas ide 346 00:19:30,002 --> 00:19:34,006 untuk bisa mengaturnya sesuai kebutuhan. 347 00:19:34,673 --> 00:19:38,594 Kami membahas soal meminta Mark mengaturnya. 348 00:19:41,305 --> 00:19:44,600 "Hei, aku ingin lebih banyak pengguna di Korea hari ini." 349 00:19:45,684 --> 00:19:46,768 Putar pengaturnya. 350 00:19:47,436 --> 00:19:49,271 "Mari tambah iklannya sedikit." 351 00:19:49,980 --> 00:19:51,815 "Tambah monetisasinya sedikit." 352 00:19:53,150 --> 00:19:55,444 Jadi, itu... 353 00:19:55,527 --> 00:19:59,239 Di semua perusahaan ini, ada tingkat presisi sebesar itu. 354 00:19:59,990 --> 00:20:02,409 - Bung... - Entah kenapa aku tak diberi kartu. 355 00:20:02,492 --> 00:20:05,704 - Wasit itu payah. - Kau benar-benar... 356 00:20:05,787 --> 00:20:08,040 - Itu Rebecca. Bicaralah. - Aku tahu siapa dia. 357 00:20:08,123 --> 00:20:10,834 - Kau saja yang bicara. - Sedang kuusahakan. 358 00:20:10,918 --> 00:20:14,171 Menurut kalendernya, dia sedang istirahat. Seharusnya kita sudah mulai. 359 00:20:15,464 --> 00:20:16,465 Mau kudorong dia? 360 00:20:17,132 --> 00:20:18,050 Lakukanlah. 361 00:20:21,720 --> 00:20:24,181 "Temanmu, Tyler, baru bergabung. Beri lambaian." 362 00:20:26,016 --> 00:20:27,184 Ayolah. 363 00:20:27,267 --> 00:20:28,769 Kirimkan lambaian tangan. 364 00:20:29,394 --> 00:20:31,647 Kau bahkan tidak... Hei, bicaralah dengannya. 365 00:20:31,730 --> 00:20:34,900 TEMANMU, TYLER, BARU BERGABUNG! BERI LAMBAIAN! 366 00:20:36,902 --> 00:20:37,986 KONEKSI JARINGAN 367 00:20:38,070 --> 00:20:40,572 Koneksi baru! Baiklah, kita masuk. 368 00:20:40,948 --> 00:20:46,078 Lanjutkan dengan pos dari pengguna 079044238820, Rebecca. 369 00:20:46,161 --> 00:20:49,790 Ide bagus. Koordinat GPS menunjukkan jarak mereka berdekatan. 370 00:20:52,167 --> 00:20:55,837 REBECCA_G KUTEMUKAN BELAHAN JIWAKU! 371 00:20:55,921 --> 00:20:57,172 Dia siap untuk iklan. 372 00:20:57,631 --> 00:20:58,632 Waktu lelang. 373 00:20:58,715 --> 00:21:00,050 PRATINJAU IKLAN 374 00:21:00,509 --> 00:21:02,803 Terjual! Untuk lilin rambut Deep Fade. 375 00:21:03,387 --> 00:21:04,846 Ada 468 penawar yang berminat. 376 00:21:04,930 --> 00:21:08,225 Kita menjual Ben seharga 3,262 sen untuk satu impresi. 377 00:21:17,109 --> 00:21:21,530 Kita telah menciptakan dunia tempat koneksi daring menjadi hal utama, 378 00:21:22,072 --> 00:21:23,907 khususnya bagi generasi muda. 379 00:21:23,991 --> 00:21:28,328 Namun, di dunia itu, setiap dua orang terhubung, 380 00:21:29,162 --> 00:21:33,250 itu hanya bisa didanai oleh orang ketiga yang licik 381 00:21:33,333 --> 00:21:35,627 yang membayar untuk memanipulasi dua orang itu. 382 00:21:36,128 --> 00:21:39,381 Jadi, kita menciptakan seluruh generasi global 383 00:21:39,464 --> 00:21:44,011 yang dibesarkan dalam konteks bahwa makna sebenarnya dari komunikasi 384 00:21:44,094 --> 00:21:47,431 dan budaya adalah manipulasi. 385 00:21:47,514 --> 00:21:49,725 Kita telah menempatkan penipuan dan kelicikan 386 00:21:49,808 --> 00:21:52,311 di tengah-tengah dari semua usaha kita. 387 00:21:56,732 --> 00:22:01,153 "SEMUA TEKNOLOGI YANG CANGGIH 388 00:22:01,236 --> 00:22:05,657 TIDAKLAH BERBEDA DARI SULAP." ARTHUR C. CLARKE 389 00:22:05,741 --> 00:22:07,159 - Pegang sisi lainnya... - Baik. 390 00:22:07,242 --> 00:22:09,369 - Di mana tempat menaruh yang baik? - Itu bagus. 391 00:22:09,453 --> 00:22:10,620 - Di sini? - Ya. 392 00:22:10,704 --> 00:22:13,707 Seperti apa ini tampil di kamera jika kulakukan... 393 00:22:13,790 --> 00:22:15,500 - Sebenarnya, kami... - Seperti itu? 394 00:22:15,584 --> 00:22:16,835 - Apa? - Ya. 395 00:22:16,918 --> 00:22:18,545 - Bisa lakukan lagi? - Baik. 396 00:22:19,046 --> 00:22:20,589 Ya. Itu mungkin tidak... 397 00:22:20,672 --> 00:22:21,965 Ya. 398 00:22:22,466 --> 00:22:23,884 Yang satu ini kurang... 399 00:22:31,016 --> 00:22:33,268 Chris benar-benar kebingungan di sini. 400 00:22:34,728 --> 00:22:35,562 Apa itu bagus? 401 00:22:35,645 --> 00:22:37,773 SULAP! 402 00:22:37,856 --> 00:22:41,068 Usiaku lima tahun saat belajar sulap. 403 00:22:41,151 --> 00:22:45,781 Aku bisa membodohi para orang dewasa yang bergelar doktor. 404 00:22:55,040 --> 00:22:58,919 Pesulap itu hampir seperti ahli saraf dan psikolog pertama. 405 00:22:59,002 --> 00:23:03,382 Mereka yang pertama memahami cara kerja pikiran orang. 406 00:23:04,216 --> 00:23:07,677 Mereka secara langsung menguji banyak hal pada orang-orang. 407 00:23:09,137 --> 00:23:11,139 Seorang pesulap memahami sesuatu, 408 00:23:11,223 --> 00:23:14,017 sebagian dari pikiranmu yang tak kita sadari. 409 00:23:14,101 --> 00:23:15,936 Itulah yang membuat ilusi berhasil. 410 00:23:16,269 --> 00:23:17,687 Dokter, pengacara, 411 00:23:17,771 --> 00:23:20,607 orang yang tahu cara membuat Boeing 747 atau misil nuklir, 412 00:23:20,690 --> 00:23:24,361 mereka tak lebih tahu soal betapa rentannya pikiran mereka. 413 00:23:24,444 --> 00:23:26,154 Itu bidang ilmu yang berbeda. 414 00:23:26,571 --> 00:23:28,990 Itulah bidang ilmu yang berlaku untuk semua manusia. 415 00:23:29,074 --> 00:23:30,909 UNIVERSITAS STANFORD 416 00:23:30,992 --> 00:23:34,079 Dari sudut pandang itu, kita bisa memiliki pemahaman sangat berbeda 417 00:23:34,162 --> 00:23:35,705 soal hal yang teknologi lakukan. 418 00:23:36,873 --> 00:23:39,584 Saat belajar di Lab Teknologi Persuasif Stanford, 419 00:23:39,668 --> 00:23:41,044 inilah yang kami pelajari. 420 00:23:41,586 --> 00:23:43,505 Bagaimana memanfaatkan semua yang kita tahu 421 00:23:43,588 --> 00:23:45,882 tentang psikologi dari cara membujuk orang 422 00:23:45,966 --> 00:23:48,385 dan menjadikannya teknologi? 423 00:23:48,468 --> 00:23:50,762 Banyak dari kalian yang hadir yang sudah genius. 424 00:23:50,846 --> 00:23:53,682 Kurasa itu benar, tapi tujuanku adalah menjadikan kalian 425 00:23:53,765 --> 00:23:55,892 genius dalam perubahan perilaku. 426 00:23:56,852 --> 00:24:01,148 Ada banyak tokoh ternama di Silicon Valley yang mengikuti kelas itu, 427 00:24:01,231 --> 00:24:05,485 tokoh kunci pertumbuhan di Facebook, Uber, juga perusahaan lain, 428 00:24:05,569 --> 00:24:09,197 dan belajar membuat teknologi lebih persuasif, 429 00:24:09,614 --> 00:24:10,949 Tristan salah satunya. 430 00:24:12,242 --> 00:24:14,619 Teknologi persuasif itu semacam desain 431 00:24:14,703 --> 00:24:16,580 yang sengaja diterapkan secara ekstrem, 432 00:24:16,663 --> 00:24:18,874 agar kami bisa mengubah perilaku seseorang. 433 00:24:18,957 --> 00:24:20,542 Kami ingin mereka melakukan sesuatu 434 00:24:20,625 --> 00:24:23,336 dan terus melakukan ini dengan jari mereka. 435 00:24:23,420 --> 00:24:26,256 Jika tarik layar dan segarkan, akan muncul hal baru di atas. 436 00:24:26,339 --> 00:24:28,508 Tarik dan segarkan lagi, hal baru. Setiap kali. 437 00:24:28,592 --> 00:24:33,722 Dalam psikologi, itu disebut penguat intermiten positif. 438 00:24:33,805 --> 00:24:37,142 Kita tak tahu kapan atau apakah kita akan mendapatkannya. 439 00:24:37,225 --> 00:24:40,061 Itu bekerja seperti mesin slot di Vegas. 440 00:24:40,145 --> 00:24:42,189 Bukan hanya memakai produknya secara sadar, 441 00:24:42,272 --> 00:24:44,024 tapi aku mau masuk jauh ke batang otak 442 00:24:44,107 --> 00:24:47,652 dan menanamkan kebiasaan secara tak sadar di dalam dirimu 443 00:24:47,736 --> 00:24:50,780 agar kau diprogram secara lebih mendalam. 444 00:24:50,864 --> 00:24:52,115 Kau bahkan tak sadar. 445 00:24:52,407 --> 00:24:53,867 Pria bernama James Marshall... 446 00:24:53,950 --> 00:24:56,286 Setiap itu tampak di atas meja, 447 00:24:56,369 --> 00:24:59,789 kau melihatnya dan tahu jika kau mengambilnya, 448 00:24:59,873 --> 00:25:01,333 mungkin ada sesuatu untukmu. 449 00:25:01,416 --> 00:25:03,877 Jadi, kau memainkannya untuk melihat kau dapat apa. 450 00:25:04,211 --> 00:25:06,046 Itu bukan kebetulan, tapi teknik desain. 451 00:25:06,129 --> 00:25:11,134 Dia membawa bungkal emas ke perwira AD di San Francisco. 452 00:25:12,219 --> 00:25:15,388 Ingatlah, populasi San Francisco hanya... 453 00:25:15,472 --> 00:25:17,432 Contoh lainnya adalah penandaan foto. 454 00:25:19,726 --> 00:25:24,064 Jadi, jika menerima surel yang menyebutkan temanmu baru saja menandaimu di foto, 455 00:25:24,147 --> 00:25:28,568 tentu kau akan membuka surel itu dan melihat fotonya. 456 00:25:29,152 --> 00:25:31,947 Itu bukan hal yang bisa kau abaikan begitu saja. 457 00:25:32,364 --> 00:25:36,326 Ini adalah kepribadian mendalam manusia yang mereka manfaatkan. 458 00:25:36,409 --> 00:25:37,994 Yang harus kau tanyakan adalah, 459 00:25:38,078 --> 00:25:40,288 "Kenapa surel itu tak berisi fotonya? 460 00:25:40,372 --> 00:25:42,457 Maka akan lebih mudah melihat fotonya." 461 00:25:42,707 --> 00:25:45,919 Saat Facebook menemukan fitur itu, mereka memaksimalkannya 462 00:25:46,002 --> 00:25:48,505 karena itu dianggap bagus untuk menumbuhkan aktivitas. 463 00:25:48,588 --> 00:25:51,091 Mari buat orang saling menandai foto sepanjang hari." 464 00:25:56,263 --> 00:25:58,890 SETIDAKNYA SALAH SATU DARI KITA TAMPAK BAGUS 465 00:25:59,349 --> 00:26:00,475 Dia berkomentar. 466 00:26:00,559 --> 00:26:01,434 Bagus. 467 00:26:01,935 --> 00:26:04,688 Rebecca menerimanya dan dia merespons. 468 00:26:04,771 --> 00:26:07,566 Beri tahu Ben Rebecca mengetik agar kita tak kehilangan dia. 469 00:26:07,649 --> 00:26:08,900 Mengaktifkan elipsis. 470 00:26:09,234 --> 00:26:13,613 SETIDAKNYA SALAH SATU DARI KITA TAMPAK BAGUS 471 00:26:19,411 --> 00:26:20,787 Bagus, dia menjawab. 472 00:26:21,538 --> 00:26:24,249 Dia mengomentari komentarnya soal komentarnya di posnya. 473 00:26:25,041 --> 00:26:26,418 Tunggu, dia berhenti mengetik. 474 00:26:26,751 --> 00:26:27,752 Beri isi otomatis. 475 00:26:28,420 --> 00:26:30,005 Emoji. Dia suka emoji. 476 00:26:31,381 --> 00:26:33,758 ISI OTOMATIS KETERLIBATAN 477 00:26:33,842 --> 00:26:34,676 Dia memilih api. 478 00:26:35,427 --> 00:26:36,803 Tadi kuharap terung. 479 00:26:38,597 --> 00:26:42,726 Ada disiplin dan bidang ilmu yang disebut "peretasan pertumbuhan". 480 00:26:42,809 --> 00:26:47,147 Tim teknisi yang bertugas meretas psikologi orang 481 00:26:47,230 --> 00:26:48,565 agar dapat pertumbuhan lebih. 482 00:26:48,648 --> 00:26:51,026 Mendapat pendaftaran pengguna dan keterlibatan lebih, 483 00:26:51,109 --> 00:26:52,861 juga membuat kita mengajak orang lagi. 484 00:26:52,944 --> 00:26:55,989 Setelah semua tes, iterasi, dan semua ini, 485 00:26:56,072 --> 00:26:57,907 tahu hal terbesar yang kami sadari? 486 00:26:57,991 --> 00:27:00,994 Buat orang ajak tujuh teman dalam sepuluh hari. 487 00:27:01,953 --> 00:27:02,871 Itu saja. 488 00:27:02,954 --> 00:27:05,498 Dulu Chamath adalah kepala pertumbuhan Facebook 489 00:27:05,582 --> 00:27:08,251 dan dia sangat terkenal di industri teknologi 490 00:27:08,335 --> 00:27:11,004 karena memelopori banyak taktik pertumbuhan 491 00:27:11,087 --> 00:27:14,758 yang digunakan untuk menumbuhkan Facebook dengan sangat cepat. 492 00:27:14,841 --> 00:27:18,511 Taktik pertumbuhan itu lalu menjadi standar untuk Silicon Valley. 493 00:27:18,595 --> 00:27:21,222 Itu digunakan di Uber dan beberapa perusahaan lain. 494 00:27:21,306 --> 00:27:27,062 Salah satu yang dia pelopori adalah penggunaan uji A/B ilmiah 495 00:27:27,145 --> 00:27:28,480 dari perubahan fitur kecil. 496 00:27:29,022 --> 00:27:30,940 Perusahaan seperti Google dan Facebook 497 00:27:31,024 --> 00:27:34,569 akan mengeluarkan banyak eksperimen kecil 498 00:27:34,653 --> 00:27:36,821 yang terus mereka lakukan pada pengguna. 499 00:27:36,905 --> 00:27:39,866 Seiring waktu, dengan terus menjalankan eksperimen ini, 500 00:27:39,949 --> 00:27:42,994 mereka mengembangkan cara paling maksimal 501 00:27:43,078 --> 00:27:45,288 untuk membuat pengguna melakukan yang mereka mau. 502 00:27:45,372 --> 00:27:46,790 Itu manipulasi. 503 00:27:47,332 --> 00:27:49,417 Kau membuatku merasa seperti kelinci percobaan. 504 00:27:49,834 --> 00:27:51,961 Kau memang kelinci percobaan. Kita semua begitu. 505 00:27:52,545 --> 00:27:55,548 Namun, bukan kelinci percobaan untuk mengembangkan obat kanker. 506 00:27:55,632 --> 00:27:58,134 Mereka bukan mencoba memperalat kita. 507 00:27:58,218 --> 00:28:01,513 Kita hanya zombi dan mereka ingin kita melihat lebih banyak iklan 508 00:28:01,596 --> 00:28:03,264 agar mereka dapat lebih banyak uang. 509 00:28:03,556 --> 00:28:08,228 Facebook melakukan hal yang mereka sebut "eksperimen penularan skala besar". 510 00:28:08,311 --> 00:28:09,145 Baiklah. 511 00:28:09,229 --> 00:28:12,857 Bagaimana gunakan petunjuk bawah sadar di halaman Facebook 512 00:28:13,400 --> 00:28:17,570 agar lebih banyak orang memilih di pemilu paruh waktu? 513 00:28:17,987 --> 00:28:20,824 Mereka mendapati mereka mampu melakukan itu. 514 00:28:20,907 --> 00:28:24,160 Satu hal yang mereka simpulkan adalah kini kita tahu 515 00:28:24,744 --> 00:28:28,915 kita bisa memengaruhi perilaku dan emosi dunia nyata 516 00:28:28,998 --> 00:28:32,877 tanpa memicu kesadaran pengguna. 517 00:28:33,503 --> 00:28:37,382 Mereka sama sekali tak tahu. 518 00:28:38,049 --> 00:28:40,427 Kita mengarahkan mesin inteligensi artifisial ini 519 00:28:40,510 --> 00:28:41,970 pada diri kita 520 00:28:42,053 --> 00:28:46,224 untuk merekayasa balik pemicu respons kita. 521 00:28:47,100 --> 00:28:49,602 Hampir seperti menstimulasi sel saraf laba-laba 522 00:28:49,686 --> 00:28:51,479 untuk melihat pemicu respons kakinya. 523 00:28:51,938 --> 00:28:53,940 Ini sungguh semacam eksperimen penjara 524 00:28:54,023 --> 00:28:56,735 tempat kita memaksa orang memasuki matriks 525 00:28:56,818 --> 00:29:00,530 lalu kita mengambil semua uang dan data dari semua aktivitas mereka 526 00:29:00,613 --> 00:29:01,489 sebagai keuntungan. 527 00:29:01,573 --> 00:29:03,450 Kita bahkan tak tahu itu sedang terjadi. 528 00:29:04,117 --> 00:29:07,912 Kami ingin secara psikologis tahu cara memanipulasimu secepat mungkin 529 00:29:07,996 --> 00:29:10,081 lalu membalasnya dengan stimulasi dopamin. 530 00:29:10,165 --> 00:29:12,542 Kami melakukannya dengan sangat baik di Facebook. 531 00:29:12,625 --> 00:29:14,919 Instagram dan WhatsApp melakukannya. 532 00:29:15,003 --> 00:29:17,380 Snapchat dan Twitter melakukannya. 533 00:29:17,672 --> 00:29:19,424 Maksudku, itu persis ide 534 00:29:19,507 --> 00:29:22,427 yang akan dicetuskan oleh peretas sepertiku 535 00:29:22,510 --> 00:29:27,432 karena kita mengeksploitasi kelemahan dalam psikologi manusia. 536 00:29:27,766 --> 00:29:33,438 Kupikir kami, para penemu dan pencipta... 537 00:29:33,980 --> 00:29:37,317 Aku, Mark dan... 538 00:29:37,400 --> 00:29:40,403 Kevin Systrom di Instagram, semua orang ini... 539 00:29:41,154 --> 00:29:46,451 memahami ini secara sadar dan kami tetap melakukannya. 540 00:29:50,580 --> 00:29:53,750 Tak ada yang marah saat sepeda ditemukan. 541 00:29:55,043 --> 00:29:58,004 Benar, bukan? Jika semua orang mulai mengendarai sepeda, 542 00:29:58,087 --> 00:30:00,965 tak ada yang bilang, "Astaga, kita baru merusak masyarakat. 543 00:30:01,049 --> 00:30:03,051 Sepeda memengaruhi orang, 544 00:30:03,134 --> 00:30:05,303 menjauhkan mereka dari anak-anak mereka, 545 00:30:05,386 --> 00:30:08,723 merusak struktur demokrasi, orang tak tahu mana yang benar." 546 00:30:08,807 --> 00:30:11,476 Kita tak pernah berkata begitu soal sepeda. 547 00:30:12,769 --> 00:30:16,147 Jika sesuatu adalah alat, ia hanya duduk diam di sana, 548 00:30:16,731 --> 00:30:18,733 menunggu dengan sabar. 549 00:30:19,317 --> 00:30:22,821 Jika sesuatu bukan alat, ia menuntut sesuatu darimu, 550 00:30:22,904 --> 00:30:26,533 merayu, memanipulasi, dan menginginkan sesuatu darimu. 551 00:30:26,950 --> 00:30:30,495 Kita beralih dari memiliki lingkungan teknologi berbasis alat 552 00:30:31,037 --> 00:30:34,499 ke lingkungan teknologi berbasis kecanduan dan manipulasi. 553 00:30:34,582 --> 00:30:35,708 Itu yang berubah. 554 00:30:35,792 --> 00:30:39,420 Media sosial bukan alat yang menunggu untuk digunakan. 555 00:30:39,504 --> 00:30:43,466 Ia punya tujuan dan cara sendiri untuk memperolehnya 556 00:30:43,550 --> 00:30:45,677 menggunakan psikologimu melawan dirimu. 557 00:30:49,055 --> 00:30:52,517 "HANYA ADA DUA INDUSTRI YANG MENYEBUT PELANGGAN MEREKA 'PENGGUNA', 558 00:30:52,600 --> 00:30:57,480 NARKOBA DAN PERANTI LUNAK." EDWARD TUFTE 559 00:30:57,564 --> 00:31:02,193 Beberapa tahun lalu, aku adalah Presiden Pinterest. 560 00:31:03,152 --> 00:31:08,366 Aku pulang dan tak bisa menjauhi ponselku begitu tiba di rumah, 561 00:31:08,449 --> 00:31:12,161 meski aku punya dua anak kecil yang butuh cinta dan perhatianku. 562 00:31:12,245 --> 00:31:15,748 Aku ada di dapur, mengetik surel 563 00:31:15,832 --> 00:31:17,625 atau kadang melihat Pinterest. 564 00:31:18,001 --> 00:31:19,627 Kupikir, "Ini sungguh ironis. 565 00:31:19,711 --> 00:31:22,046 Aku akan bekerja di siang hari 566 00:31:22,130 --> 00:31:26,426 dan membangun sesuatu yang kemudian memanipulasiku." 567 00:31:26,509 --> 00:31:30,096 Aku tak bisa... Maksudku, terkadang, aku tak bisa menahan diri. 568 00:31:32,307 --> 00:31:36,102 Yang cenderung paling kugunakan adalah Twitter. 569 00:31:36,728 --> 00:31:38,021 Tadinya Reddit. 570 00:31:38,104 --> 00:31:42,859 Aku bahkan harus membuat perangkat lunak untuk hapus kecanduanku membaca Reddit. 571 00:31:45,403 --> 00:31:47,780 Aku mungkin kecanduan surel. 572 00:31:47,864 --> 00:31:49,866 Sungguh. Aku merasakannya. 573 00:31:52,577 --> 00:31:54,954 Rasanya menarik 574 00:31:55,038 --> 00:31:58,166 meski aku tahu apa yang terjadi di balik layar, 575 00:31:58,249 --> 00:32:01,628 aku masih tak bisa mengendalikan penggunaanku. 576 00:32:01,711 --> 00:32:03,254 Jadi, itu agak menakutkan. 577 00:32:03,630 --> 00:32:07,050 Meski tahu cara kerjanya, aku masih rentan terhadapnya. 578 00:32:07,133 --> 00:32:09,886 Aku masih akan mengangkat ponsel dan 20 menit akan berlalu. 579 00:32:12,805 --> 00:32:15,725 Apa kau memeriksa ponsel cerdasmu sebelum kencing saat pagi 580 00:32:15,808 --> 00:32:17,477 atau sambil kencing saat pagi? 581 00:32:17,560 --> 00:32:19,479 Karena hanya ada dua opsi itu. 582 00:32:19,771 --> 00:32:23,274 Aku berusaha dengan tekad kuat, 583 00:32:23,358 --> 00:32:26,903 "Akan kutaruh dan kutinggalkan ponselku di mobil saat pulang." 584 00:32:26,986 --> 00:32:30,573 Kurasa aku berkata pada diriku seribu kali pada seribu hari berbeda, 585 00:32:30,657 --> 00:32:32,659 "Aku takkan membawa ponselku ke kamar tidur," 586 00:32:32,742 --> 00:32:34,535 lalu saat pukul 21.00 tiba. 587 00:32:34,619 --> 00:32:37,121 "Aku mau membawa ponselku ke kamar tidur." 588 00:32:37,956 --> 00:32:39,290 Jadi, itu semacam... 589 00:32:39,374 --> 00:32:41,125 Kekuatan tekad adalah usaha pertama, 590 00:32:41,209 --> 00:32:44,295 lalu usaha kedua adalah pemaksaan. 591 00:32:44,379 --> 00:32:45,880 Perkenalkan, ini Kitchen Safe, 592 00:32:45,964 --> 00:32:49,801 Kitchen Safe adalah wadah berpengunci waktu revolusioner baru 593 00:32:49,884 --> 00:32:51,678 yang membantu Anda melawan godaan. 594 00:32:51,761 --> 00:32:56,724 David hanya perlu memasukkan godaan itu ke Kitchen Safe. 595 00:32:57,392 --> 00:33:00,603 Selanjutnya, dia memutar tombol untuk mengatur waktunya 596 00:33:01,479 --> 00:33:04,232 dan akhirnya, dia menekan tombol untuk mengaktifkan kuncinya. 597 00:33:04,315 --> 00:33:05,525 Kitchen Safe ini bagus... 598 00:33:05,608 --> 00:33:06,693 Kita punya itu, bukan? 599 00:33:06,776 --> 00:33:08,569 ...gim video, kartu kredit, dan ponsel. 600 00:33:08,653 --> 00:33:09,654 Ya, benar. 601 00:33:09,779 --> 00:33:11,114 Begitu Kitchen Safe terkunci, 602 00:33:11,197 --> 00:33:13,908 ini tak bisa dibuka sampai waktunya mencapai nol. 603 00:33:13,992 --> 00:33:17,537 Jadi, ini masalahnya. Media sosial adalah narkoba. 604 00:33:17,620 --> 00:33:20,873 Maksudku, kita punya perintah biologis dasar 605 00:33:20,957 --> 00:33:23,084 untuk terhubung dengan orang lain. 606 00:33:23,167 --> 00:33:25,253 Itu secara langsung memengaruhi 607 00:33:25,378 --> 00:33:28,214 pelepasan dopamin dalam "jalur kenikmatan". 608 00:33:28,297 --> 00:33:32,510 Jutaan tahun evolusi berada di balik sistem itu 609 00:33:32,593 --> 00:33:35,596 untuk membuat kita berkumpul dan hidup di komunitas, 610 00:33:35,680 --> 00:33:38,016 mencari pasangan, dan menyebarkan spesies kita. 611 00:33:38,099 --> 00:33:41,853 Jadi, tak diragukan lagi medium seperti media sosial 612 00:33:41,936 --> 00:33:45,690 yang mengoptimalkan hubungan antarorang ini 613 00:33:45,773 --> 00:33:48,568 akan memiliki potensi kecanduan. 614 00:33:52,739 --> 00:33:54,115 Ayah, hentikan! 615 00:33:55,450 --> 00:33:58,453 Aku harus mengirim seribu Snip lagi sebelum makan malam. 616 00:33:58,536 --> 00:33:59,537 Snip? 617 00:33:59,620 --> 00:34:01,080 Aku tak tahu apa itu Snip. 618 00:34:01,164 --> 00:34:03,207 - Aromanya enak, Sayang. - Terima kasih. 619 00:34:03,291 --> 00:34:07,712 Kupikir kita butuh kelima indra untuk menikmati makan malam kita. 620 00:34:07,795 --> 00:34:11,382 Jadi, kuputuskan tak boleh ada ponsel di meja malam ini. 621 00:34:11,466 --> 00:34:13,301 Jadi, serahkan kepadaku. 622 00:34:13,801 --> 00:34:14,802 - Sungguh? - Ya. 623 00:34:15,928 --> 00:34:18,056 - Baiklah. - Terima kasih. Ben? 624 00:34:18,139 --> 00:34:19,891 - Baik. - Ibu, si perompak ponsel. 625 00:34:21,100 --> 00:34:21,934 - Dapat. - Ibu! 626 00:34:22,602 --> 00:34:26,147 Jadi, mereka akan aman di sini sampai makan malam usai... 627 00:34:27,273 --> 00:34:31,277 dan semua bisa bersantai. Paham? 628 00:34:47,418 --> 00:34:49,253 - Boleh kulihat dari siapa itu? - Tidak. 629 00:34:54,759 --> 00:34:56,969 Aku akan mengambil garpu lagi. 630 00:34:58,304 --> 00:34:59,263 Terima kasih. 631 00:35:04,727 --> 00:35:06,729 Sayang, kau tak bisa membukanya. 632 00:35:06,813 --> 00:35:08,856 Aku menguncinya satu jam, jadi, biarkan saja. 633 00:35:11,317 --> 00:35:13,361 Jadi, apa yang harus kita bahas? 634 00:35:13,444 --> 00:35:15,613 Kita bisa membahas 635 00:35:15,696 --> 00:35:17,824 orang gila Extreme Center yang kuantar hari ini. 636 00:35:17,907 --> 00:35:18,825 Tolong, Frank. 637 00:35:18,908 --> 00:35:22,120 - Aku tak mau membahas politik. - Ada apa dengan Extreme Center? 638 00:35:22,203 --> 00:35:24,622 - Dia bahkan tak paham. - Tergantung menanyai siapa. 639 00:35:24,705 --> 00:35:26,624 Bagai bertanya, "Apa salahnya propaganda?" 640 00:35:28,918 --> 00:35:29,919 Isla! 641 00:35:32,797 --> 00:35:33,756 Astaga. 642 00:35:37,135 --> 00:35:38,553 - Kau mau aku... - Ya. 643 00:35:41,973 --> 00:35:43,933 Aku mencemaskan anak-anakku. 644 00:35:44,016 --> 00:35:46,686 Jika kau punya anak, aku mencemaskan anak-anakmu. 645 00:35:46,769 --> 00:35:50,189 Dengan semua pengetahuan dan pengalaman yang kupunya, 646 00:35:50,273 --> 00:35:52,108 aku mendebat anak-anakku soal waktu 647 00:35:52,191 --> 00:35:54,443 yang mereka habiskan pada ponsel dan komputer. 648 00:35:54,694 --> 00:35:56,070 Kuberi tahu putraku, 649 00:35:56,154 --> 00:35:58,197 "Berapa jam yang kau habiskan pada ponselmu?" 650 00:35:58,281 --> 00:36:01,075 Dia akan bilang, "Maksimal setengah jam." 651 00:36:01,159 --> 00:36:04,829 Kurasa lebih dari 60-90 menit. 652 00:36:04,912 --> 00:36:06,789 Kulihat statistiknya beberapa minggu lalu 653 00:36:06,873 --> 00:36:08,708 - dan itu tiga jam, 45 menit. - Itu... 654 00:36:11,252 --> 00:36:13,588 Kurasa itu tidak... Rata-rata per hari? 655 00:36:13,671 --> 00:36:15,506 - Ya. - Mau kuambil sekarang? 656 00:36:15,590 --> 00:36:19,177 Setiap hari, aku mengingatkan anak-anakku 657 00:36:19,260 --> 00:36:21,762 tentang keseimbangan rasa suka dan duka, 658 00:36:21,846 --> 00:36:26,267 kondisi kekurangan dopamin, dan risiko kecanduan. 659 00:36:26,350 --> 00:36:27,310 Momen penentuan. 660 00:36:27,935 --> 00:36:29,687 Dua jam, 50 menit per hari. 661 00:36:29,770 --> 00:36:31,772 - Coba lihat. - Kugunakan lama hari ini. 662 00:36:31,856 --> 00:36:33,316 - Tujuh hari ini. - Itu sebabnya. 663 00:36:33,399 --> 00:36:37,236 Instagram, enam jam, 13 menit. Jadi, Instagram-ku lebih buruk. 664 00:36:39,572 --> 00:36:43,201 Layarku hancur. Terima kasih, Cass. 665 00:36:44,410 --> 00:36:45,995 Apa maksudmu, "Terima kasih, Cass"? 666 00:36:46,078 --> 00:36:49,290 Kau terus membuat Ibu takut soal ponsel kita padahal bukan masalah. 667 00:36:49,373 --> 00:36:51,167 Tak butuh ponsel untuk makan malam. 668 00:36:51,250 --> 00:36:53,878 Aku paham maksudmu, tapi ini bukan masalah besar. 669 00:36:56,047 --> 00:36:58,382 Jika begitu, coba jangan gunakan selama seminggu. 670 00:37:01,135 --> 00:37:02,178 Ya. 671 00:37:02,261 --> 00:37:06,349 Ya, jika kau bisa menjauhinya selama seminggu... 672 00:37:07,725 --> 00:37:09,518 akan kubelikan kau layar baru. 673 00:37:11,020 --> 00:37:12,772 - Mulai sekarang? - Benar. 674 00:37:15,274 --> 00:37:16,859 Baiklah. Setuju. 675 00:37:16,943 --> 00:37:19,111 Namun, kau harus tinggalkan itu di sini, Kawan. 676 00:37:19,862 --> 00:37:21,405 Baiklah, aku akan mengecasnya. 677 00:37:22,531 --> 00:37:25,076 Mulai saat ini, aku akan menjauh. 678 00:37:25,159 --> 00:37:25,993 Baiklah. 679 00:37:27,703 --> 00:37:29,413 - Waktumu dimulai. - Satu minggu. 680 00:37:29,497 --> 00:37:30,331 Astaga... 681 00:37:31,457 --> 00:37:32,416 Kau pikir dia bisa? 682 00:37:33,000 --> 00:37:34,543 Entahlah, kita lihat saja. 683 00:37:35,002 --> 00:37:36,128 Makanlah saja, ya? 684 00:37:44,220 --> 00:37:45,680 Makan malam keluarga yang bagus! 685 00:37:47,682 --> 00:37:49,809 Produk teknologi ini tak dirancang 686 00:37:49,892 --> 00:37:53,896 oleh psikolog anak yang berusaha melindungi dan mengasuh anak. 687 00:37:53,980 --> 00:37:56,148 Namun, hanya didesain untuk membuat algoritme 688 00:37:56,232 --> 00:37:58,734 yang mahir merekomendasikan video berikutnya untuk kita 689 00:37:58,818 --> 00:38:02,321 atau membuat kita bisa berfoto dengan efek. 690 00:38:03,072 --> 00:38:05,324 DUA SUKA 691 00:38:13,291 --> 00:38:15,126 YAKIN INGIN MENGHAPUS? TIDAK 692 00:38:15,209 --> 00:38:16,210 YA 693 00:38:16,711 --> 00:38:20,256 Itu bukan hanya mengendalikan tujuan perhatian mereka. 694 00:38:21,173 --> 00:38:26,304 Media sosial mulai terus menggali lebih dalam ke batang otak, 695 00:38:26,387 --> 00:38:29,765 mengambil alih harga diri dan identitas anak. 696 00:38:29,849 --> 00:38:31,851 PERCANTIK AKU 697 00:38:42,069 --> 00:38:43,112 LILY_T MANIS! 698 00:38:43,195 --> 00:38:44,822 SOPHIA_M ASTAGA, CANTIK SEKALI 699 00:38:44,905 --> 00:38:46,490 OLIVIA_B KAU MENGAGUMKAN 700 00:38:46,574 --> 00:38:49,118 AVA_R BISA PERBESAR TELINGAMU? 701 00:38:52,496 --> 00:38:56,459 Kita berevolusi untuk peduli apakah orang lain di suku kita 702 00:38:56,751 --> 00:38:59,128 memandang kita baik atau tidak karena itu penting. 703 00:38:59,837 --> 00:39:04,550 Namun, apa kita berevolusi untuk menyadari pendapat 10.000 orang tentang kita? 704 00:39:04,633 --> 00:39:05,885 Kita tak berevolusi 705 00:39:05,968 --> 00:39:10,348 untuk menerima persetujuan sosial setiap lima menit. 706 00:39:10,431 --> 00:39:13,392 Kita sama sekali tak dirancang untuk mengalami itu. 707 00:39:15,394 --> 00:39:19,982 Kita menyesuaikan hidup kita mengikuti pandangan kesempurnaan ini 708 00:39:20,733 --> 00:39:23,527 karena kita mendapat imbalan dalam sinyal jangka pendek ini, 709 00:39:23,611 --> 00:39:25,154 ikon hati, suka, dan jempol. 710 00:39:25,237 --> 00:39:28,407 Lalu kita menyatukannya dengan nilai dan kebenaran. 711 00:39:29,825 --> 00:39:33,329 Alih-alih sebagai hal yang sebenarnya, yaitu popularitas palsu dan rapuh... 712 00:39:33,913 --> 00:39:37,458 yang hanya sesaat, membuat kita kecanduan, dan akuilah, 713 00:39:37,541 --> 00:39:39,919 membuat kita hampa sebelum melakukannya. 714 00:39:41,253 --> 00:39:43,381 Karena itu memaksa kita memasuki lingkaran ganas 715 00:39:43,464 --> 00:39:45,800 yang membuat kita bilang, "Aku harus apa berikutnya? 716 00:39:45,883 --> 00:39:47,343 Karena aku butuh itu." 717 00:39:48,260 --> 00:39:50,846 Bayangkan itu dilakukan oleh dua miliar orang lainnya 718 00:39:50,930 --> 00:39:54,767 lalu bayangkan reaksi orang terhadap persepsi orang lain. 719 00:39:54,850 --> 00:39:56,435 Itu sangat buruk. 720 00:39:56,977 --> 00:39:58,312 Itu benar-benar buruk. 721 00:40:00,856 --> 00:40:05,069 Ada peningkatan besar dalam depresi dan kecemasan 722 00:40:05,152 --> 00:40:06,529 bagi remaja Amerika 723 00:40:06,612 --> 00:40:10,950 yang dimulai antara tahun 2011 dan 2013. 724 00:40:11,033 --> 00:40:15,371 Jumlah gadis remaja dari 100.000 gadis di negara ini 725 00:40:15,454 --> 00:40:19,917 yang dirawat di rumah sakit setiap tahun karena menyayat atau melukai diri sendiri, 726 00:40:20,000 --> 00:40:23,921 angka itu cukup stabil sampai sekitar tahun 2010-2011, 727 00:40:24,004 --> 00:40:25,756 lalu mulai naik pesat. 728 00:40:28,717 --> 00:40:32,263 Naik 62 persen untuk gadis remaja lebih tua. 729 00:40:32,346 --> 00:40:33,931 RAWAT INAP UNTUK LUKA DIRI NONFATAL 730 00:40:34,014 --> 00:40:38,602 Naik 189 persen untuk gadis praremaja. Itu hampir tiga kali lipat. 731 00:40:40,354 --> 00:40:43,107 Lebih mengerikan lagi, bunuh diri alami tren yang sama. 732 00:40:43,190 --> 00:40:44,900 TINGKAT BUNUH DIRI AS PER SEJUTA GADIS 733 00:40:44,984 --> 00:40:47,570 Gadis remaja lebih tua, usia 15 sampai 19 tahun, 734 00:40:47,653 --> 00:40:51,449 mereka naik 70% dibandingkan dekade pertama abad ini. 735 00:40:52,158 --> 00:40:55,077 Para gadis praremaja, yang punya tingkat awal sangat rendah, 736 00:40:55,161 --> 00:40:57,663 mereka naik 151 persen. 737 00:40:58,831 --> 00:41:01,709 Lalu pola itu mengarah ke media sosial. 738 00:41:01,792 --> 00:41:03,961 MEDIA SOSIAL TERSEDIA DI PONSEL 2009 739 00:41:04,044 --> 00:41:07,214 Generasi Z, anak-anak yang lahir usai tahun 1996, 740 00:41:07,298 --> 00:41:10,342 mereka adalah generasi pertama dalam sejarah 741 00:41:10,426 --> 00:41:12,636 yang terjun ke media sosial di sekolah menengah. 742 00:41:15,973 --> 00:41:17,683 Bagaimana mereka menghabiskan waktu? 743 00:41:19,727 --> 00:41:22,480 Mereka pulang dari sekolah dan memakai gawai mereka. 744 00:41:24,315 --> 00:41:29,195 Seluruh generasi ini lebih cemas, rapuh, dan tertekan. 745 00:41:30,613 --> 00:41:33,282 Mereka kurang nyaman mengambil risiko. 746 00:41:34,325 --> 00:41:37,536 Tingkat permohonan SIM mereka menurun. 747 00:41:38,954 --> 00:41:41,081 Jumlah orang yang pernah berkencan 748 00:41:41,165 --> 00:41:44,251 atau memiliki hubungan romantis menurun drastis. 749 00:41:47,505 --> 00:41:49,882 Ini perubahan nyata dalam satu generasi. 750 00:41:53,177 --> 00:41:57,306 Ingatlah, untuk semua kasus ini, setiap perawatan di rumah sakit, 751 00:41:57,389 --> 00:42:00,267 ada keluarga yang merasa trauma dan ngeri. 752 00:42:00,351 --> 00:42:02,561 "Astaga, apa yang terjadi kepada anak-anak kita?" 753 00:42:19,411 --> 00:42:21,038 Ini sangat jelas bagiku. 754 00:42:22,873 --> 00:42:28,128 Layanan ini membunuh orang dan menyebabkan orang bunuh diri. 755 00:42:29,088 --> 00:42:33,300 Aku tak mengenal orang tua yang bilang, "Ya, aku ingin anak-anakku tumbuh dewasa 756 00:42:33,384 --> 00:42:35,135 dengan merasa dimanipulasi 757 00:42:35,678 --> 00:42:36,887 oleh desainer teknologi. 758 00:42:36,971 --> 00:42:39,723 Memanipulasi perhatian dan menjadikan PR mustahil dikerjakan, 759 00:42:39,807 --> 00:42:42,560 membuat mereka mengikuti standar kecantikan tak realistis." 760 00:42:42,643 --> 00:42:44,687 Tak ada yang mau itu. 761 00:42:45,104 --> 00:42:46,355 Tak ada yang mau. 762 00:42:46,438 --> 00:42:48,482 Dulu kita punya perlindungan. 763 00:42:48,566 --> 00:42:52,778 Saat anak-anak menonton kartun Sabtu pagi, kita peduli soal melindungi anak-anak. 764 00:42:52,861 --> 00:42:56,574 Kita bilang, "Kau tak bisa beriklan kepada anak usia ini dengan cara ini." 765 00:42:57,366 --> 00:42:58,784 Namun, muncul YouTube Kids 766 00:42:58,867 --> 00:43:02,454 yang menghapus seluruh jual-beli perhatian ini 767 00:43:02,538 --> 00:43:04,915 dan kini semua anak terpapar YouTube Kids. 768 00:43:04,999 --> 00:43:07,668 Semua perlindungan dan peraturan itu hilang. 769 00:43:10,296 --> 00:43:17,261 WAKTU TANPA PONSEL 770 00:43:18,304 --> 00:43:22,141 Kita melatih dan mengondisikan satu generasi orang baru... 771 00:43:23,434 --> 00:43:29,148 agar ketika kita tak nyaman, kesepian, merasa tak pasti, atau takut, 772 00:43:29,231 --> 00:43:31,775 kita punya penenang digital sendiri 773 00:43:32,526 --> 00:43:36,488 yang menghentikan kemampuan kita untuk menghadapinya. 774 00:43:53,964 --> 00:43:56,884 Photoshop tak punya ribuan teknisi di sisi lain layar 775 00:43:56,967 --> 00:43:59,011 yang menggunakan notifikasi, teman-teman kita, 776 00:43:59,094 --> 00:44:02,431 dan IA untuk memprediksi apa yang akan membuat kita kecanduan, 777 00:44:02,514 --> 00:44:04,516 memanipulasi kita, atau mengizinkan pengiklan 778 00:44:04,600 --> 00:44:07,853 menguji 60.000 variasi teks atau warna 779 00:44:07,936 --> 00:44:11,065 untuk tahu cara memanipulasi pikiran kita dengan sempurna. 780 00:44:11,148 --> 00:44:14,985 Ini jenis kekuasaan dan pengaruh baru. 781 00:44:16,070 --> 00:44:19,156 Sekali lagi kukatakan, metode yang digunakan 782 00:44:19,239 --> 00:44:22,826 untuk mempermainkan kemampuan orang untuk kecanduan atau dipengaruhi 783 00:44:22,910 --> 00:44:25,204 mungkin berbeda kali ini dan mungkin memang begitu. 784 00:44:25,287 --> 00:44:28,749 Mereka berbeda saat koran muncul dan mesin cetak muncul. 785 00:44:28,832 --> 00:44:31,835 Mereka berbeda saat televisi muncul 786 00:44:31,919 --> 00:44:34,004 lalu muncul tiga jaringan besar dan... 787 00:44:34,463 --> 00:44:36,423 - Saat itu. - Saat itu, itu maksudku. 788 00:44:36,507 --> 00:44:38,384 Namun, maksudku, ada sebuah tingkat baru 789 00:44:38,467 --> 00:44:42,054 dan tingkat baru itu sudah sering terjadi. 790 00:44:42,137 --> 00:44:45,099 Ini tingkat baru terkini yang kita lihat. 791 00:44:45,391 --> 00:44:48,727 Ada narasi yang berkata, "Kita beradaptasi saja atas itu. 792 00:44:48,811 --> 00:44:51,188 Kita akan belajar hidup dengan perangkat ini 793 00:44:51,271 --> 00:44:53,732 seperti belajar hidup dengan yang lain." 794 00:44:53,816 --> 00:44:56,694 Yang luput di sini adalah ada hal baru di sini. 795 00:44:57,569 --> 00:45:00,322 Mungkin hal paling berbahaya dari semua ini adalah fakta 796 00:45:00,406 --> 00:45:04,410 bahwa itu didorong oleh teknologi yang maju dengan sangat pesat. 797 00:45:05,953 --> 00:45:09,081 Kurang lebih, dari tahun 1960-an hingga saat ini, 798 00:45:09,873 --> 00:45:13,085 kekuatan memproses meningkat sekitar satu triliun kali. 799 00:45:13,794 --> 00:45:18,340 Tak ada hal yang kita punya yang laju kenaikannya mendekati itu. 800 00:45:18,424 --> 00:45:22,177 Misalnya, mobil kira-kira hanya naik dua kali lebih cepat. 801 00:45:22,261 --> 00:45:25,264 Lalu hampir semua yang lainnya bisa diabaikan. 802 00:45:25,347 --> 00:45:27,182 Mungkin yang terpenting, 803 00:45:27,266 --> 00:45:31,353 sifat manusia, fisiologi, dan otak kita tak berevolusi sama sekali. 804 00:45:31,854 --> 00:45:35,232 WAKTU TANPA PONSEL 805 00:45:37,401 --> 00:45:41,488 Level pikiran, raga, dan fisik manusia 806 00:45:41,947 --> 00:45:43,907 takkan berubah secara mendasar. 807 00:45:56,837 --> 00:45:58,172 Kita bisa melakukan 808 00:45:58,255 --> 00:46:01,091 rekayasa genetika dan mengembangkan manusia baru di masa depan, 809 00:46:01,175 --> 00:46:05,220 tapi secara realistis, kita hidup di dalam perangkat keras, otak, 810 00:46:05,304 --> 00:46:07,222 yang berusia jutaan tahun, 811 00:46:07,306 --> 00:46:10,559 lalu ada sebuah layar dan di baliknya, 812 00:46:10,642 --> 00:46:13,562 ada ribuan teknisi dan komputer super 813 00:46:13,645 --> 00:46:16,106 yang punya tujuan berbeda dari tujuan kita. 814 00:46:16,190 --> 00:46:19,693 Jadi, siapa yang akan menang dalam hal itu? 815 00:46:25,699 --> 00:46:26,950 Bagaimana kita bisa kalah? 816 00:46:27,159 --> 00:46:29,703 - Entahlah. - Di mana dia? Ini tidak normal. 817 00:46:29,787 --> 00:46:32,164 Apa aku mencecarnya dengan konten teman dan keluarga? 818 00:46:32,247 --> 00:46:34,082 - Mungkin. - Mungkin karena iklannya. 819 00:46:34,166 --> 00:46:37,795 Tidak. Ada yang salah. Mari beralih ke mode kebangkitan. 820 00:46:39,671 --> 00:46:44,051 Saat memikirkan IA, kita pikir itu akan merusak dunia. 821 00:46:44,134 --> 00:46:47,221 Anda membayangkan Terminator, Arnold Schwarzenegger. 822 00:46:47,638 --> 00:46:48,680 Aku akan kembali. 823 00:46:48,806 --> 00:46:52,643 Kita membayangkan pesawat nirawak dan berpikir, "IA akan membunuh orang." 824 00:46:53,644 --> 00:46:59,817 Yang orang lupa adalah IA sudah mengendalikan dunia saat ini. 825 00:46:59,900 --> 00:47:03,237 Bahkan membicarakan "IA" hanyalah sebuah metafora. 826 00:47:03,320 --> 00:47:09,451 Di perusahaan seperti Google, ada banyak ruangan yang sangat besar. 827 00:47:10,327 --> 00:47:13,121 Sebagian ada di bawah tanah, sebagian lagi ada di bawah air, 828 00:47:13,205 --> 00:47:14,498 yang hanya berisi komputer. 829 00:47:14,581 --> 00:47:17,835 Begitu banyak komputer sejauh mata memandang. 830 00:47:18,460 --> 00:47:20,504 Mereka sangat saling terhubung 831 00:47:20,587 --> 00:47:22,923 dan menjalankan program yang sangat rumit, 832 00:47:23,006 --> 00:47:26,009 saling mengirim informasi bolak-balik sepanjang waktu. 833 00:47:26,802 --> 00:47:28,595 Mereka menjalankan beragam program 834 00:47:28,679 --> 00:47:30,806 dan produk pada mesin yang sama. 835 00:47:31,348 --> 00:47:33,684 Sebagiannya adalah algoritme sederhana 836 00:47:33,767 --> 00:47:35,227 dan sebagian lagi algoritme 837 00:47:35,310 --> 00:47:37,521 yang sangat rumit hingga disebut kecerdasan. 838 00:47:40,148 --> 00:47:43,777 Menurutku, algoritme adalah opini yang disematkan dalam kode... 839 00:47:45,070 --> 00:47:47,656 dan algoritme itu tidak objektif. 840 00:47:48,365 --> 00:47:51,577 Algoritme dioptimalkan ke sebuah definisi kesuksesan. 841 00:47:52,244 --> 00:47:53,370 Jadi, bisa dibayangkan 842 00:47:53,453 --> 00:47:57,124 jika perusahaan komersial membuat sebuah algoritme 843 00:47:57,207 --> 00:47:59,293 untuk definisi kesuksesan bagi mereka, 844 00:47:59,835 --> 00:48:01,378 itu kepentingan komersial. 845 00:48:01,587 --> 00:48:02,671 Biasanya profit. 846 00:48:03,130 --> 00:48:07,384 Kita memberi komputer tujuan, "Aku ingin hasil ini," 847 00:48:07,467 --> 00:48:10,262 lalu komputer itu sendiri belajar melakukannya. 848 00:48:10,345 --> 00:48:12,598 Itulah asal istilah "pemelajaran mesin". 849 00:48:12,681 --> 00:48:14,892 Jadi, setiap hari, ia menjadi sedikit lebih baik 850 00:48:14,975 --> 00:48:16,894 dalam memilih pos dalam urutan yang tepat 851 00:48:16,977 --> 00:48:19,438 agar kita bisa lebih lama menggunakan produk itu. 852 00:48:19,521 --> 00:48:22,232 Tak ada yang paham apa yang mereka lakukan 853 00:48:22,316 --> 00:48:23,901 untuk mencapai tujuan itu. 854 00:48:23,984 --> 00:48:28,238 Algoritme itu punya pikiran sendiri, jadi, meski seseorang menulisnya, 855 00:48:28,906 --> 00:48:30,657 itu ditulis sedemikian rupa 856 00:48:30,741 --> 00:48:35,037 agar setelah kita membuat mesinnya, mesinnya akan berubah sendiri. 857 00:48:35,120 --> 00:48:37,915 Hanya ada sedikit orang di semua perusahaan ini, 858 00:48:37,998 --> 00:48:40,000 Facebook, Twitter, dan perusahaan lain... 859 00:48:40,083 --> 00:48:43,795 Hanya sedikit orang yang mengerti cara kerja sistem itu 860 00:48:43,879 --> 00:48:46,715 dan bahkan mereka tak sepenuhnya mengerti 861 00:48:46,798 --> 00:48:49,551 apa yang akan terjadi dengan konten tertentu. 862 00:48:49,968 --> 00:48:53,472 Jadi, sebagai manusia, kita hampir kehilangan kendali 863 00:48:53,555 --> 00:48:55,474 atas sistem ini 864 00:48:55,891 --> 00:48:59,603 karena mereka mengendalikan informasi yang kita lihat. 865 00:48:59,686 --> 00:49:02,439 Mereka mengendalikan kita melebihi kita mengendalikan mereka. 866 00:49:03,815 --> 00:49:07,319 Merujuk silang dia dengan yang serupa di zona geografisnya. 867 00:49:07,402 --> 00:49:09,571 Kembaran psikometrinya. 868 00:49:09,655 --> 00:49:13,700 Ada 13.694 orang yang berperilaku sepertinya di wilayahnya. 869 00:49:13,784 --> 00:49:16,370 - Apa yang mereka minati? - Kita butuh hal yang bagus 870 00:49:16,453 --> 00:49:19,957 untuk kebangkitan yang layak, mengingat hal-hal biasa tak berhasil. 871 00:49:20,040 --> 00:49:22,042 Bahkan gadis manis di sekolah itu pun tidak. 872 00:49:22,334 --> 00:49:25,253 Menurut analisisku, menampilkan konten politik Extreme Center 873 00:49:25,337 --> 00:49:28,256 punya potensi keterlibatan jangka panjang sebesar 62,3%. 874 00:49:28,340 --> 00:49:29,299 Itu tidak buruk. 875 00:49:30,342 --> 00:49:32,010 Namun, bukan awal yang cukup bagus. 876 00:49:32,386 --> 00:49:35,305 Baiklah. Jadi, kita sudah memberitahunya soal foto yang ditandai, 877 00:49:35,389 --> 00:49:39,017 undangan, peristiwa terkini, bahkan pesan langsung dari Rebecca. 878 00:49:39,101 --> 00:49:42,771 Bagaimana dengan pengguna 01265923010? 879 00:49:42,854 --> 00:49:44,648 Ya, Ben memberi ikon hati semua posnya. 880 00:49:44,731 --> 00:49:47,776 Semua posnya, selama berbulan-bulan, lalu berhenti. 881 00:49:47,859 --> 00:49:50,445 Aku menghitung kemungkinan kebangkitan 92,3 persen 882 00:49:50,529 --> 00:49:52,155 dengan notifikasi soal Ana. 883 00:49:53,907 --> 00:49:55,993 HUBUNGAN BARU 884 00:49:56,535 --> 00:49:57,744 Serta teman barunya. 885 00:49:58,495 --> 00:50:04,001 WAKTU TANPA PONSEL 886 00:50:24,354 --> 00:50:25,981 MANTAN PACARMU PUNYA HUBUNGAN BARU! 887 00:50:26,064 --> 00:50:27,315 Ini pasti bercanda. 888 00:50:35,657 --> 00:50:36,616 Baiklah. 889 00:50:37,576 --> 00:50:38,785 ANA DAN LUIZ BERHUBUNGAN 890 00:50:38,869 --> 00:50:39,703 Apa? 891 00:50:42,122 --> 00:50:44,207 - Kita kembali! - Ayo menghasilkan uang lagi. 892 00:50:44,291 --> 00:50:46,334 Ya, dan hubungkan mereka dengan seluruh dunia. 893 00:50:46,418 --> 00:50:49,337 Aku memberinya akses ke semua informasi yang mungkin dia suka. 894 00:50:49,755 --> 00:50:53,717 Hei, apa kalian pernah berpikir umpan beritanya bagus untuk Ben? 895 00:50:57,220 --> 00:50:58,221 - Tidak. - Tidak. 896 00:51:42,349 --> 00:51:44,893 PENGUJIAN A/B EXTREME CENTRE 897 00:52:20,929 --> 00:52:24,349 Jadi, bayangkan kita membuka Facebook... 898 00:52:24,975 --> 00:52:29,312 dan kita bermain melawan inteligensi artifisial ini 899 00:52:29,396 --> 00:52:31,314 yang tahu semuanya soal kita. 900 00:52:31,398 --> 00:52:34,568 Mengantisipasi langkah kita berikutnya dan kita tak tahu apa-apa 901 00:52:34,651 --> 00:52:37,404 kecuali video kucing dan ulang tahun yang diputar. 902 00:52:37,821 --> 00:52:39,656 Pertarungan itu tak adil! 903 00:52:41,575 --> 00:52:43,869 Ben dan Jerry, saatnya berangkat! 904 00:52:51,126 --> 00:52:51,960 Ben? 905 00:53:02,679 --> 00:53:03,513 Ben. 906 00:53:05,182 --> 00:53:06,057 Ayo. 907 00:53:07,225 --> 00:53:08,894 Waktunya sekolah. Ayo. 908 00:53:31,374 --> 00:53:33,543 - Apa kabarmu hari ini? - Aku gugup. 909 00:53:33,627 --> 00:53:34,628 - Benarkah? - Ya. 910 00:53:37,380 --> 00:53:39,049 Kita semua mewaspadai saat 911 00:53:39,132 --> 00:53:42,969 ketika teknologi akan mengalahkan kekuatan dan kecerdasan manusia. 912 00:53:43,136 --> 00:53:44,846 Kapan itu akan melampaui hal itu, 913 00:53:44,930 --> 00:53:47,015 merebut profesi, dan lebih pintar dari manusia? 914 00:53:48,141 --> 00:53:50,101 Namun, ada momen lebih awal... 915 00:53:50,977 --> 00:53:55,565 saat teknologi melampaui dan mengalahkan kelemahan manusia. 916 00:53:57,484 --> 00:54:02,030 Batasan-batasan yang dilampaui ini berakar pada kecanduan, 917 00:54:02,113 --> 00:54:03,657 polarisasi, radikalisasi, 918 00:54:03,740 --> 00:54:06,368 memicu kemarahan, keangkuhan, semuanya. 919 00:54:07,702 --> 00:54:09,913 Ini mengalahkan sifat manusia 920 00:54:10,705 --> 00:54:13,500 dan sekakmat bagi kemanusiaan. 921 00:54:30,558 --> 00:54:31,434 Maaf. 922 00:54:41,736 --> 00:54:44,656 Salah satu cara yang kucoba untuk membuat orang paham 923 00:54:45,198 --> 00:54:49,786 betapa salahnya umpan berita dari tempat seperti Facebook 924 00:54:49,869 --> 00:54:51,454 adalah dengan memikirkan Wikipedia. 925 00:54:51,538 --> 00:54:52,872 TAB BARU 926 00:54:52,956 --> 00:54:56,418 Saat kunjungi sebuah laman, kita melihat hal yang sama dengan orang lain. 927 00:54:56,626 --> 00:55:00,297 Itu satu dari beberapa hal di internet yang setidaknya menjadi kesamaan kita. 928 00:55:00,380 --> 00:55:03,425 Kini bayangkan sejenak Wikipedia berkata, 929 00:55:03,508 --> 00:55:07,178 "Kita akan memberi tiap orang definisi yang khusus dan berbeda 930 00:55:07,262 --> 00:55:09,472 dan kita akan dibayar orang untuk itu." 931 00:55:09,556 --> 00:55:13,435 Jadi, Wikipedia memata-matai kita dan mempertimbangkan, 932 00:55:13,518 --> 00:55:17,188 "Apa yang bisa kulakukan agar orang ini berubah sedikit 933 00:55:17,272 --> 00:55:19,899 demi kepentingan komersial?" Paham? 934 00:55:19,983 --> 00:55:21,818 Lalu entrinya akan diubah. 935 00:55:22,444 --> 00:55:23,570 Bisa bayangkan itu? 936 00:55:23,653 --> 00:55:26,698 Seharusnya bisa karena itulah yang terjadi di Facebook. 937 00:55:26,781 --> 00:55:28,992 Itulah yang terjadi di umpan berita YouTube kita. 938 00:55:29,159 --> 00:55:31,786 Saat kunjungi Google dan mengetik "perubahan iklim adalah", 939 00:55:31,870 --> 00:55:34,998 kita akan melihat hasil berbeda tergantung tempat tinggal. 940 00:55:35,081 --> 00:55:36,082 PERUBAHAN IKLIM ADALAH 941 00:55:36,166 --> 00:55:38,460 Di kota tertentu, akan muncul isian kata otomatis 942 00:55:38,543 --> 00:55:40,462 bertuliskan "perubahan iklim itu hoaks." 943 00:55:40,545 --> 00:55:42,088 Dalam kasus lain, akan muncul 944 00:55:42,172 --> 00:55:44,841 "perubahan iklim menyebabkan kerusakan alam." 945 00:55:44,924 --> 00:55:48,428 Itu bukan fungsi untuk tampikan kebenaran soal perubahan iklim, 946 00:55:48,511 --> 00:55:51,097 tapi soal tempat kita saat mencarinya di Google 947 00:55:51,181 --> 00:55:53,600 dan hal tertentu yang Google tahu soal minat kita. 948 00:55:55,185 --> 00:55:58,021 Bahkan dua teman yang sangat dekat sekalipun, 949 00:55:58,104 --> 00:56:00,190 yang punya teman yang hampir sama, 950 00:56:00,273 --> 00:56:02,817 mereka berpikir, "Akan kulihat umpan berita di Facebook. 951 00:56:02,901 --> 00:56:06,738 Aku akan melihat pembaruan yang sama." Namun, tidak seperti itu. 952 00:56:06,821 --> 00:56:08,448 Mereka melihat dunia yang berbeda 953 00:56:08,531 --> 00:56:12,035 karena itu berdasarkan analisis komputer soal apa yang ideal bagi mereka. 954 00:56:12,118 --> 00:56:14,245 SEDANG MENGUDARA 955 00:56:14,329 --> 00:56:18,416 Bisa dibilang itu adalah 2,7 miliar The Truman Show. 956 00:56:18,500 --> 00:56:21,294 Tiap orang punya realitas sendiri dengan fakta... 957 00:56:22,670 --> 00:56:23,671 mereka sendiri. 958 00:56:23,755 --> 00:56:28,051 Kenapa kau pikir Truman tak pernah hampir mengetahui 959 00:56:28,134 --> 00:56:30,095 kebenaran soal dunianya hingga kini? 960 00:56:31,054 --> 00:56:34,099 Kita menerima kenyataan dunia yang diberikan kepada kita. 961 00:56:34,182 --> 00:56:35,141 Sesederhana itu. 962 00:56:35,225 --> 00:56:36,393 SEDANG MENGUDARA 963 00:56:36,476 --> 00:56:41,064 Seiring waktu, kita memiliki kesan palsu bahwa semua orang setuju dengan kita 964 00:56:41,147 --> 00:56:44,067 karena semua orang di umpan berita tampak seperti kita. 965 00:56:44,567 --> 00:56:49,072 Begitu kita dalam keadaan itu, ternyata kita mudah dimanipulasi 966 00:56:49,155 --> 00:56:51,741 seperti dimanipulasi oleh pesulap. 967 00:56:51,825 --> 00:56:55,370 Pesulap menunjukkan trik kartu dan bilang, "Pilih kartu apa saja." 968 00:56:55,453 --> 00:56:58,373 Yang tak kita sadari adalah mereka sudah mengaturnya 969 00:56:58,456 --> 00:57:00,542 agar kita memilih kartu yang mereka mau. 970 00:57:00,625 --> 00:57:03,169 Begitulah Facebook bekerja. Ia duduk di sana dan berkata, 971 00:57:03,253 --> 00:57:06,172 "Hei, kau yang memilih teman dan tautan yang kau ikuti." 972 00:57:06,256 --> 00:57:08,716 Namun, itu omong kosong. Seperti pesulap. 973 00:57:08,800 --> 00:57:11,302 Facebook bertanggung jawab atas umpan berita kita. 974 00:57:11,386 --> 00:57:14,514 Kita semua hanya menggunakan fakta yang berbeda. 975 00:57:14,597 --> 00:57:16,474 Saat itu terjadi dalam skala besar, 976 00:57:16,558 --> 00:57:20,770 kita tak bisa lagi menghadapi atau menyerap informasi 977 00:57:20,854 --> 00:57:23,690 yang bertentangan dengan pandangan dunia yang kita ciptakan. 978 00:57:23,773 --> 00:57:28,027 Itu berarti kita bukan lagi individu yang objektif dan konstruktif. 979 00:57:28,778 --> 00:57:32,449 Buka matamu! Jangan percaya kebohongan! 980 00:57:32,532 --> 00:57:35,160 Lalu kita melihat ke sisi lain 981 00:57:35,243 --> 00:57:38,746 dan mulai berpikir, "Bagaimana mereka bisa begitu bodoh? 982 00:57:38,955 --> 00:57:42,125 Lihatlah semua informasi yang terus kulihat ini. 983 00:57:42,208 --> 00:57:44,711 Kenapa mereka tak melihat info yang sama?" 984 00:57:44,794 --> 00:57:47,297 Jawabannya, "Mereka memang tak melihat info yang sama." 985 00:57:47,380 --> 00:57:50,800 Buka matamu! Jangan percaya kebohongan! 986 00:57:52,093 --> 00:57:53,678 Seperti apa Partai Republik? 987 00:57:53,761 --> 00:57:55,472 Orang yang tak tahu apa-apa. 988 00:57:55,555 --> 00:57:58,933 Partai Demokrat adalah sindikat kejahatan, bukan partai politik sungguhan. 989 00:57:59,017 --> 00:58:03,104 Studi besar baru dari Pew Research Center terhadap 10.000 orang dewasa Amerika 990 00:58:03,188 --> 00:58:05,315 mendapati kita lebih terpecah dari sebelumnya, 991 00:58:05,398 --> 00:58:09,068 dengan polarisasi pribadi dan politis di level tertinggi pada 20 tahun terakhir. 992 00:58:09,152 --> 00:58:11,696 POLARISASI POLITIS AS MEDIAN DEMOKRAT - MEDIAN REPUBLIK 993 00:58:11,779 --> 00:58:14,199 Ada lebih dari sepertiga Partai Republik yang berkata 994 00:58:14,282 --> 00:58:16,826 Partai Demokrat adalah ancaman bagi negara 995 00:58:16,910 --> 00:58:20,580 dan seperempat lebih Demokrat berkata sama soal Partai Republik. 996 00:58:20,663 --> 00:58:24,417 Begitu banyak masalah yang kita bahas, misalnya seputar polarisasi politik, 997 00:58:24,501 --> 00:58:28,046 ditampilkan secara besar-besaran di TV kabel. 998 00:58:28,129 --> 00:58:31,007 Media punya masalah yang sama 999 00:58:31,090 --> 00:58:33,343 karena model bisnis mereka, pada umumnya, 1000 00:58:33,426 --> 00:58:35,762 adalah menjual perhatian kita kepada pengiklan. 1001 00:58:35,845 --> 00:58:38,890 Internet adalah cara lebih efisien baru untuk melakukan itu. 1002 00:58:40,391 --> 00:58:44,145 Di YouTube, aku mengerjakan rekomendasi YouTube. 1003 00:58:44,229 --> 00:58:47,148 Aku khawatir algoritme yang kukerjakan 1004 00:58:47,232 --> 00:58:50,401 sebenarnya meningkatkan polarisasi di masyarakat. 1005 00:58:50,485 --> 00:58:53,112 Namun, dari sudut pandang waktu menonton, 1006 00:58:53,196 --> 00:58:57,617 polarisasi ini sangat efisien untuk membuat orang tetap daring. 1007 00:58:58,785 --> 00:59:02,288 Alasan para guru mengajarkan hal ini hanyalah karena mereka dibayar. 1008 00:59:02,372 --> 00:59:04,332 - Itu konyol sekali. - Hei, Benji. 1009 00:59:04,791 --> 00:59:06,459 Tak ada latihan sepak bola hari ini? 1010 00:59:06,543 --> 00:59:08,878 Ada. Aku hanya melihat berita yang kulewatkan. 1011 00:59:08,962 --> 00:59:11,506 Risetlah sendiri. Info apa pun dari Extreme Center... 1012 00:59:11,589 --> 00:59:14,008 Hal yang kau tonton itu bukan berita. 1013 00:59:15,552 --> 00:59:18,721 Kau selalu membahas betapa kacaunya keadaan saat ini. Mereka juga. 1014 00:59:19,472 --> 00:59:21,140 Namun, itu hanya propaganda. 1015 00:59:21,224 --> 00:59:24,060 Tak ada yang benar. Intinya adalah apa yang masuk akal. 1016 00:59:24,769 --> 00:59:26,938 Ben, aku serius. Itu buruk untukmu. 1017 00:59:27,021 --> 00:59:28,690 Sebainya kau berlatih sepak bola. 1018 00:59:35,154 --> 00:59:37,490 Aku membagi ini karena aku peduli. 1019 00:59:37,574 --> 00:59:41,077 Aku peduli terhadap kalian yang disesatkan dan itu tak baik. Paham? 1020 00:59:41,160 --> 00:59:43,121 Orang mengira algoritme ini dirancang 1021 00:59:43,204 --> 00:59:46,833 untuk memberikan yang mereka inginkan, tapi ternyata tidak. 1022 00:59:46,916 --> 00:59:52,589 Algoritme ini sebenarnya mencoba mencari beberapa perangkap yang sangat kuat, 1023 00:59:52,672 --> 00:59:56,217 mencari perangkap mana yang paling sesuai dengan minat kita. 1024 00:59:56,301 --> 00:59:59,512 Lalu jika kita mulai menonton salah satu video itu, 1025 00:59:59,804 --> 01:00:02,223 itu akan merekomendasikannya berulang kali. 1026 01:00:02,682 --> 01:00:04,934 Tak ada yang mau ini terjadi. 1027 01:00:05,018 --> 01:00:07,812 Hanya saja, inilah yang dilakukan sistem rekomendasi. 1028 01:00:07,895 --> 01:00:10,815 Sampai-sampai Kyrie Irving, pemain basket terkenal, 1029 01:00:11,482 --> 01:00:14,152 berkata dia percaya Bumi datar yang meminta maaf kemudian 1030 01:00:14,235 --> 01:00:16,404 dan dia menyalahkan video perangkap di YouTube. 1031 01:00:16,487 --> 01:00:18,656 Kau mengeklik YouTube 1032 01:00:18,740 --> 01:00:21,534 lalu kita masuk ke perangkap yang sangat dalam. 1033 01:00:21,618 --> 01:00:23,328 Saat dia datang ke NPR untuk berkata, 1034 01:00:23,411 --> 01:00:25,955 "Maaf telah meyakini ini. Aku tak mau menyesatkan orang," 1035 01:00:26,039 --> 01:00:28,333 sekelompok siswa di kelas yang diwawancarai bilang, 1036 01:00:28,416 --> 01:00:30,251 "Penganut Bumi bulat memengaruhinya." 1037 01:00:31,044 --> 01:00:33,963 Teori konspirasi Bumi datar direkomendasikan 1038 01:00:34,047 --> 01:00:37,634 ratusan juta kali oleh algoritme itu. 1039 01:00:37,800 --> 01:00:39,010 Mudah untuk berpikir 1040 01:00:39,093 --> 01:00:43,890 bahwa hanya beberapa orang bodoh yang meyakininya, 1041 01:00:43,973 --> 01:00:46,893 tapi algoritme ini makin cerdas setiap harinya. 1042 01:00:46,976 --> 01:00:50,188 Jadi, kini mereka meyakinkan orang-orang bahwa Bumi itu datar, 1043 01:00:50,271 --> 01:00:53,983 tapi besok, mereka akan meyakinkanmu tentang hal keliru lainnya. 1044 01:00:54,317 --> 01:00:57,820 Pada 7 November, tagar "Pizzagate" lahir. 1045 01:00:57,904 --> 01:00:59,197 Pizzagate... 1046 01:01:00,782 --> 01:01:01,658 Astaga. 1047 01:01:03,159 --> 01:01:06,913 Aku masih tak yakin bagaimana awalnya ini terjadi, 1048 01:01:06,996 --> 01:01:12,377 tapi ide bahwa memesan piza berarti memesan orang yang diperdagangkan. 1049 01:01:12,460 --> 01:01:15,046 Saat grup itu makin besar di Facebook, 1050 01:01:15,129 --> 01:01:19,926 mesin rekomendasi Facebook mulai menyarankan para pengguna biasa 1051 01:01:20,009 --> 01:01:21,761 untuk bergabung dengan grup Pizzagate. 1052 01:01:22,053 --> 01:01:27,392 Jadi, jika pengguna, misalnya, anti-vaksin, meyakini teori jejak kimia, 1053 01:01:27,475 --> 01:01:30,645 atau menunjukkan kepada algoritme Facebook 1054 01:01:30,728 --> 01:01:33,398 bahwa mereka cenderung memercayai teori konspirasi, 1055 01:01:33,481 --> 01:01:36,859 mesin rekomendasi Facebook akan menyajikan grup Pizzagate. 1056 01:01:36,943 --> 01:01:41,072 Akhirnya, ini berujung pada seorang pria yang muncul dengan pistol 1057 01:01:41,155 --> 01:01:44,617 dan memutuskan dia akan membebaskan anak-anak dari basemen 1058 01:01:44,701 --> 01:01:47,078 dari tempat piza yang tak punya basemen. 1059 01:01:47,161 --> 01:01:49,997 - Kenapa kau kemari? - Memastikan tak ada apa-apa di sana. 1060 01:01:50,581 --> 01:01:52,291 - Soal apa? - Jaringan pedofilia. 1061 01:01:52,375 --> 01:01:53,835 - Soal apa? - Jaringan pedofilia. 1062 01:01:53,918 --> 01:01:55,878 Maksudnya, Pizzagate. 1063 01:01:55,962 --> 01:02:00,216 Ini contoh teori konspirasi 1064 01:02:00,299 --> 01:02:03,678 yang disebarkan di semua jejaring sosial. 1065 01:02:03,761 --> 01:02:07,974 Mesin rekomendasi jejaring sosial itu secara sukarela menyajikannya kepada orang 1066 01:02:08,057 --> 01:02:10,643 yang tak pernah sama sekali mencari istilah "Pizzagate". 1067 01:02:10,727 --> 01:02:12,353 PIZZAGATE WADAH DEMOKRAT DAN PEDOFIL 1068 01:02:12,437 --> 01:02:14,439 Ada sebuah studi MIT yang menyebutkan 1069 01:02:14,522 --> 01:02:16,441 berita palsu di Twitter menyebar 1070 01:02:16,524 --> 01:02:19,569 enam kali lebih cepat daripada berita sebenarnya. 1071 01:02:19,902 --> 01:02:21,863 Seperti apa dunia itu 1072 01:02:21,946 --> 01:02:24,907 jika ada yang lebih unggul enam kali lipat daripada yang lain? 1073 01:02:25,283 --> 01:02:27,660 Kita bisa membayangkan semua hal ini 1074 01:02:27,744 --> 01:02:31,706 seperti mengubah neraca perilaku manusia. 1075 01:02:31,789 --> 01:02:34,709 Mereka membuat sebagian perilaku lebih sulit atau lebih mudah. 1076 01:02:34,792 --> 01:02:37,420 Kita selalu bebas menghadapi yang sulit, 1077 01:02:37,503 --> 01:02:38,796 tapi jarang ada yang mau. 1078 01:02:38,880 --> 01:02:43,092 Jadi, dalam skala besar di masyarakat, kita memiringkan neraca itu, 1079 01:02:43,176 --> 01:02:45,970 mengubah pikiran dan perilaku miliaran orang. 1080 01:02:46,053 --> 01:02:52,018 Kita menciptakan sistem yang berprasangka terhadap informasi palsu. 1081 01:02:52,643 --> 01:02:54,437 Bukan karena kita mau, 1082 01:02:54,520 --> 01:02:58,816 tapi karena informasi palsu memberi semua perusahaan itu lebih banyak uang 1083 01:02:59,400 --> 01:03:01,486 daripada kebenaran. ebenaran itu membosankan. 1084 01:03:01,986 --> 01:03:04,489 Ini model bisnis yang mencari profit dari disinformasi. 1085 01:03:04,906 --> 01:03:08,159 Kita menghasilkan uang dengan membebaskan pesan tak terkontrol 1086 01:03:08,701 --> 01:03:11,412 diterima siapa saja dengan harga terbaik. 1087 01:03:11,662 --> 01:03:13,748 Karena perubahan iklim? Ya. 1088 01:03:13,831 --> 01:03:16,751 Itu hoaks. Ya, itu nyata. Itulah intinya. 1089 01:03:16,834 --> 01:03:20,046 Makin sering mereka membahasnya dan makin kita terpecah, 1090 01:03:20,129 --> 01:03:22,340 kekuatan dan kendali mereka akan makin besar. 1091 01:03:22,423 --> 01:03:25,551 Facebook punya triliunan pos umpan berita seperti ini. 1092 01:03:26,552 --> 01:03:29,263 Mereka tak bisa tahu apa yang nyata atau benar. 1093 01:03:29,972 --> 01:03:33,726 Itu sebabnya pembahasan ini sangat penting sekarang. 1094 01:03:33,810 --> 01:03:37,021 Bukan hanya COVID-19 yang menyebar cepat. 1095 01:03:37,104 --> 01:03:40,191 Ada rangkaian informasi yang salah tentang virus ini di internet. 1096 01:03:40,274 --> 01:03:43,694 Ide bahwa minum lebih banyak air akan menghapus virus korona dari tubuh 1097 01:03:43,778 --> 01:03:47,490 adalah salah satu mitos soal virus ini yang beredar di media sosial. 1098 01:03:47,573 --> 01:03:50,451 Pemerintah merencanakan peristiwa ini, menciptakan virusnya, 1099 01:03:50,827 --> 01:03:53,579 dan melakukan simulasi tentang reaksi berbagai negara. 1100 01:03:53,955 --> 01:03:55,581 Virus korona itu hoaks. 1101 01:03:56,165 --> 01:03:57,959 SARS, virus korona. 1102 01:03:58,376 --> 01:04:01,045 Lihatlah tahun pembuatannya. 2018. 1103 01:04:01,128 --> 01:04:03,798 Kurasa pemerintah Amerika memulai ini. 1104 01:04:04,215 --> 01:04:07,343 Tak ada yang sakit. 1105 01:04:07,426 --> 01:04:09,095 Tak ada yang kenal orang yang sakit. 1106 01:04:09,512 --> 01:04:12,849 Mungkin pemerintah menggunakan virus korona sebagai alasan 1107 01:04:12,932 --> 01:04:15,643 agar semua orang tetap di rumah karena ada hal lain terjadi. 1108 01:04:15,726 --> 01:04:18,020 Virus korona tidak membunuh orang, 1109 01:04:18,104 --> 01:04:20,940 tapi radiasi 5G yang mereka pancarkan. 1110 01:04:21,023 --> 01:04:22,525 MENARA 5G DIPOTONG DAN DIBAKAR 1111 01:04:22,608 --> 01:04:24,569 Kita dibombardir dengan rumor. 1112 01:04:25,403 --> 01:04:28,823 Orang-orang meledakkan menara seluler. 1113 01:04:28,906 --> 01:04:32,159 Kita melihat Rusia dan Cina menyebarkan rumor dan teori konspirasi. 1114 01:04:32,243 --> 01:04:35,246 Tadi pagi, muncul kepanikan dan protes di Ukraina... 1115 01:04:35,329 --> 01:04:38,916 Orang tak tahu apa yang benar dan kini menjadi masalah hidup dan mati. 1116 01:04:40,001 --> 01:04:42,628 Sumber-sumber yang menyebarkan informasi virus korona palsu 1117 01:04:42,712 --> 01:04:45,798 telah mengumpulkan sekitar 52 juta keterlibatan. 1118 01:04:45,882 --> 01:04:50,094 Maksudmu, larutan perak akan efektif. 1119 01:04:50,177 --> 01:04:54,140 Anggaplah itu belum diuji pada jenis virus korona ini... 1120 01:04:54,223 --> 01:04:57,226 Apa yang kita lihat dengan COVID hanyalah versi ekstrem 1121 01:04:57,310 --> 01:05:00,688 dari apa yang terjadi di seluruh ekosistem informasi kita. 1122 01:05:00,980 --> 01:05:04,942 Media sosial memperkuat gosip dan desas-desus eksponensial 1123 01:05:05,026 --> 01:05:07,111 hingga kita tak tahu apa yang benar, 1124 01:05:07,194 --> 01:05:09,113 apa pun isu yang kita pedulikan. 1125 01:05:26,130 --> 01:05:27,465 Kau masih tergabung di tim? 1126 01:05:30,468 --> 01:05:34,597 Aku akan membeli camilan sebelum latihan jika kau mau ikut. 1127 01:05:37,016 --> 01:05:38,684 Lupakan saja. 1128 01:05:39,936 --> 01:05:44,982 KAMI MEMBUTUHKANMU, BERGABUNGLAH SEKARANG 1129 01:05:45,066 --> 01:05:47,526 Sembilan dari sepuluh orang merasa tak puas saat ini. 1130 01:05:47,610 --> 01:05:50,613 Jika dipikir lagi, EC mirip dengan gerakan politik dalam sejarah. 1131 01:05:50,821 --> 01:05:54,492 Kita melawan gangguan ini. 1132 01:05:54,575 --> 01:05:57,036 Kalian adalah kaumku. Aku percaya kalian. 1133 01:05:59,205 --> 01:06:02,583 - Konten Extreme Center itu hebat. - Dia amat menyukainya. 1134 01:06:02,667 --> 01:06:03,626 Melakukan lelang. 1135 01:06:04,585 --> 01:06:08,547 Ada 843 penawar, dia terjual seharga 4,35 sen ke pabrik senjata. 1136 01:06:08,631 --> 01:06:10,841 Ayo promosikan beberapa acara ini. 1137 01:06:10,925 --> 01:06:13,511 Unjuk rasa mendatang di zona geografisnya akhir pekan ini. 1138 01:06:13,594 --> 01:06:15,179 Aku juga punya naravlog baru. 1139 01:06:17,848 --> 01:06:22,979 Sejujurnya, percayalah, aku bersedia melakukan apa saja. 1140 01:06:23,062 --> 01:06:24,939 Maksudku, apa saja. 1141 01:06:32,154 --> 01:06:33,197 - Berlanggananlah - Ben? 1142 01:06:33,280 --> 01:06:35,950 dan kembalilah lagi karena percayalah, 1143 01:06:36,617 --> 01:06:38,869 aku punya rencana sangat besar. 1144 01:06:38,953 --> 01:06:40,204 Rencana sangat besar. 1145 01:06:40,788 --> 01:06:45,292 Salah satu masalah dengan Facebook adalah sebagai alat persuasi, 1146 01:06:45,793 --> 01:06:47,920 itu mungkin hal terhebat yang pernah dibuat. 1147 01:06:48,170 --> 01:06:52,508 Sekarang, bayangkan artinya itu di tangan diktator atau pemimpin otoriter. 1148 01:06:53,718 --> 01:06:57,638 Jika kita ingin mengendalikan populasi negaramu, 1149 01:06:57,722 --> 01:07:01,308 tak pernah ada alat yang seefektif Facebook. 1150 01:07:04,937 --> 01:07:07,398 Beberapa implikasi yang paling meresahkan 1151 01:07:07,481 --> 01:07:11,235 dari pemerintah dan pelaku jahat lain yang menjadikan media sosial senjata 1152 01:07:11,527 --> 01:07:13,612 adalah menyebabkan bahaya di dunia nyata. 1153 01:07:13,696 --> 01:07:15,072 Kurasa contoh paling menonjol 1154 01:07:15,156 --> 01:07:17,658 yang banyak diberitakan adalah kejadian di Myanmar. 1155 01:07:17,742 --> 01:07:19,160 KANTOR KEPRESIDENAN MYANMAR 1156 01:07:19,243 --> 01:07:21,203 Di Myanmar, saat orang memikirkan internet, 1157 01:07:21,287 --> 01:07:22,913 yang terpikir adalah Facebook. 1158 01:07:22,997 --> 01:07:25,916 Yang sering terjadi adalah saat orang-orang membeli ponsel, 1159 01:07:26,000 --> 01:07:29,920 pemilik toko ponsel akan memasangkan Facebook 1160 01:07:30,004 --> 01:07:31,505 dan membuatkan mereka akun. 1161 01:07:31,589 --> 01:07:34,884 Jadi, saat mendapatkan ponsel, hal pertama yang mereka buka 1162 01:07:34,967 --> 01:07:37,595 dan yang mereka tahu cara membukanya hanyalah Facebook. 1163 01:07:38,179 --> 01:07:41,891 Penyelidikan mengejutkan baru mengungkap makin sulitnya Facebook 1164 01:07:41,974 --> 01:07:43,809 mengatasi ujaran kebencian di Myanmar. 1165 01:07:43,893 --> 01:07:46,020 BERHENTI MEMBUNUH MUSLIM 1166 01:07:46,103 --> 01:07:49,190 Facebook benar-benar memberi militer dan pelaku jahat lainnya 1167 01:07:49,273 --> 01:07:51,776 cara baru memanipulasi opini publik 1168 01:07:51,859 --> 01:07:55,529 dan membantu memicu kekerasan terhadap Muslim Rohingya 1169 01:07:55,613 --> 01:07:57,406 yang termasuk pembunuhan massal, 1170 01:07:58,074 --> 01:07:59,867 membakar seluruh desa, 1171 01:07:59,950 --> 01:08:00,951 pemerkosaan massal, 1172 01:08:01,035 --> 01:08:03,704 dan kejahatan berat lain terhadap kemanusiaan 1173 01:08:03,788 --> 01:08:08,209 yang kini membuat 700.000 Muslim Rohingya harus meninggalkan Myanmar. 1174 01:08:11,170 --> 01:08:16,550 Ini bukan karena pelaku propaganda yang gencar tak ada sebelumnya, 1175 01:08:16,634 --> 01:08:19,762 tapi karena semua platform ini memungkinkan 1176 01:08:19,845 --> 01:08:23,724 penyebaran narasi manipulatif dengan sangat mudah 1177 01:08:23,808 --> 01:08:25,434 dan tanpa membayar mahal. 1178 01:08:25,518 --> 01:08:27,812 Jika aku ingin memanipulasi pemilu, 1179 01:08:27,895 --> 01:08:30,564 aku bisa masuk ke grup teori konspirasi di Facebook, 1180 01:08:30,648 --> 01:08:34,443 menemukan 100 orang yang percaya bahwa Bumi benar-benar datar 1181 01:08:34,860 --> 01:08:37,780 dan menganggap pendaratan di bulan adalah teori konspirasi, 1182 01:08:37,863 --> 01:08:41,450 lalu bisa kuminta Facebook memberiku seribu pengguna yang tampak seperti itu. 1183 01:08:42,118 --> 01:08:46,080 Facebook akan dengan senang hati mengirim ribuan pengguna yang mirip mereka 1184 01:08:46,163 --> 01:08:49,416 yang kini bisa kujejali dengan teori konspirasi lainnya. 1185 01:08:51,127 --> 01:08:53,129 Terjual seharga 3,4 sen per impresi. 1186 01:08:53,379 --> 01:08:56,173 - Video EC baru untuk dipromosikan. - Satu iklan lagi siap. 1187 01:08:58,509 --> 01:09:02,138 Algoritme dan politisi manipulatif menjadi sangat ahli 1188 01:09:02,221 --> 01:09:04,056 dalam mempelajari cara memicu kita, 1189 01:09:04,140 --> 01:09:08,352 makin mahir menciptakan berita palsu yang kita serap seolah-olah itu kenyataan 1190 01:09:08,435 --> 01:09:10,813 dan membingungkan kita untuk meyakini kebohongan itu. 1191 01:09:10,896 --> 01:09:14,150 Seolah-olah kita kehilangan kendali atas jati diri dan keyakinan kita. 1192 01:09:31,375 --> 01:09:32,668 ...agar mereka bisa memihak. 1193 01:09:32,751 --> 01:09:34,879 Ada kebohongan di sini dan di sana. 1194 01:09:34,962 --> 01:09:39,967 Agar mereka bisa terus berkuasa dan mengendalikan semuanya. 1195 01:09:40,050 --> 01:09:42,636 Mereka bisa mengendalikan pikiran kita 1196 01:09:42,720 --> 01:09:46,390 agar mereka bisa menyimpan rahasia mereka. 1197 01:09:46,473 --> 01:09:48,601 CDC MENGAKU MENUTUPI FAKTA VAKSIN MEMICU AUTISME 1198 01:09:48,684 --> 01:09:50,895 Bayangkan dunia tempat kebenaran tak dipercaya. 1199 01:09:50,978 --> 01:09:52,813 VAKSIN ITU BERACUN LINDUNGI ANAK KITA 1200 01:09:52,897 --> 01:09:55,649 Semua orang percaya pemerintah membohongi mereka. 1201 01:09:56,317 --> 01:09:58,444 Semuanya adalah teori konspirasi. 1202 01:09:58,527 --> 01:10:01,197 "Aku tak boleh percaya siapa pun. Aku benci pihak lain." 1203 01:10:01,280 --> 01:10:02,698 Itulah arah semua ini. 1204 01:10:02,781 --> 01:10:06,160 Gempa bumi politik di Eropa terus bergemuruh, 1205 01:10:06,243 --> 01:10:08,412 kali ini di Italia dan Spanyol. 1206 01:10:08,495 --> 01:10:11,999 Koalisi sentris tradisional Eropa kehilangan mayoritas suaranya 1207 01:10:12,082 --> 01:10:15,002 sementara partai sayap kanan dan kiri alami peningkatan. 1208 01:10:19,715 --> 01:10:20,591 Mundur. 1209 01:10:21,675 --> 01:10:22,509 Baiklah, ayo. 1210 01:10:28,390 --> 01:10:31,268 Akun-akun ini dengan sengaja dan secara khusus berusaha 1211 01:10:31,352 --> 01:10:33,896 menebar pertikaian politik di Hong Kong. 1212 01:10:38,609 --> 01:10:39,610 Baiklah, Ben. 1213 01:10:42,863 --> 01:10:45,032 Bagaimana rasanya menjadi negara 1214 01:10:45,115 --> 01:10:48,410 yang sumber informasi utamanya adalah Facebook dan media sosial? 1215 01:10:48,953 --> 01:10:50,871 Demokrasi hancur begitu cepat. 1216 01:10:50,955 --> 01:10:51,830 Enam bulan. 1217 01:10:51,914 --> 01:10:53,791 Setelah kekacauan di Chicago, 1218 01:10:53,874 --> 01:10:57,086 bentrokan antara pemrotes dan pendukung, 1219 01:10:58,003 --> 01:11:01,632 Demokrasi menghadapi krisis kepercayaan. 1220 01:11:01,715 --> 01:11:04,343 Yang kita lihat adalah serangan global terhadap demokrasi. 1221 01:11:05,135 --> 01:11:07,930 Mayoritas negara yang menjadi target adalah negara-negara 1222 01:11:08,013 --> 01:11:10,099 yang menjalankan pemilu demokratis. 1223 01:11:10,724 --> 01:11:12,518 Ini terjadi dalam skala besar. 1224 01:11:12,601 --> 01:11:15,562 Oleh pihak negara dan pemilik jutaan dolar yang berkata, 1225 01:11:15,646 --> 01:11:18,524 "Aku ingin mengacaukan Kenya atau Kamerun. 1226 01:11:18,607 --> 01:11:20,651 Angola? Itu hanya seharga ini." 1227 01:11:20,734 --> 01:11:23,362 Pemilu luar biasa berlangsung hari Minggu lalu di Brasil. 1228 01:11:23,445 --> 01:11:25,823 Dengan kampanye yang didukung media sosial. 1229 01:11:31,036 --> 01:11:33,956 Kami dari industri teknologi telah menciptakan alat 1230 01:11:34,248 --> 01:11:37,418 untuk mengacaukan dan mengikis struktur masyarakat, 1231 01:11:37,501 --> 01:11:40,254 di setiap negara sekaligus, di mana-mana. 1232 01:11:40,337 --> 01:11:44,508 Ini terjadi di Jerman, Spanyol, Prancis, Brasil, Australia. 1233 01:11:44,591 --> 01:11:46,927 Beberapa negara maju di dunia 1234 01:11:47,428 --> 01:11:49,221 kini saling menghancurkan 1235 01:11:49,305 --> 01:11:50,931 dan apa kesamaan mereka? 1236 01:11:51,974 --> 01:11:56,312 Sepengetahuanmu, apa kau percaya Facebook memengaruhi hasil pemilu 2016? 1237 01:11:56,854 --> 01:11:58,188 Itu sulit. 1238 01:11:59,148 --> 01:12:00,024 Itu... 1239 01:12:01,275 --> 01:12:04,653 Kenyataannya adalah ada begitu banyak faktor. 1240 01:12:04,737 --> 01:12:07,865 Perwakilan dari Facebook, Twitter, dan Google kembali ke Capitol Hill 1241 01:12:07,948 --> 01:12:09,450 untuk kesaksian hari kedua 1242 01:12:09,533 --> 01:12:12,578 soal campur tangan Rusia dalam pemilu 2016. 1243 01:12:12,661 --> 01:12:17,291 Manipulasi oleh pihak ketiga bukanlah peretasan. 1244 01:12:18,500 --> 01:12:21,462 Rusia tak meretas Facebook. 1245 01:12:21,628 --> 01:12:24,965 Yang mereka lakukan adalah menggunakan alat yang dibuat Facebook 1246 01:12:25,049 --> 01:12:27,843 untuk pengiklan dan pengguna yang sah, 1247 01:12:27,926 --> 01:12:30,346 yang mereka terapkan untuk tujuan jahat. 1248 01:12:31,972 --> 01:12:34,016 Itu seperti perang dengan kendali jarak jauh. 1249 01:12:34,475 --> 01:12:36,602 Satu negara bisa memanipulasi negara lain 1250 01:12:36,685 --> 01:12:39,229 tanpa menyerbu perbatasan fisiknya. 1251 01:12:39,521 --> 01:12:41,023 Kita melihat video kekerasan ini. 1252 01:12:41,106 --> 01:12:43,317 Tampaknya itu bak sampah yang didorong... 1253 01:12:43,400 --> 01:12:45,903 Namun, itu bukan soal siapa yang ingin kita pilih, 1254 01:12:46,362 --> 01:12:50,574 tapi soal menabur kekacauan dan perpecahan di masyarakat. 1255 01:12:50,657 --> 01:12:53,077 Ini terjadi di Huntington Beach, sebuah demonstrasi... 1256 01:12:53,160 --> 01:12:54,870 Ini soal membuat dua pihak 1257 01:12:54,953 --> 01:12:58,082 yang tak bisa dan mau saling mendengar lagi, 1258 01:12:58,165 --> 01:12:59,875 yang tak saling percaya lagi. 1259 01:12:59,958 --> 01:13:02,252 Ini kota tempat kebencian diumbar 1260 01:13:03,295 --> 01:13:05,464 dan berubah menjadi kekerasan rasial. 1261 01:13:05,547 --> 01:13:07,633 KETEGANGAN VIRGINIA TIGA TEWAS DALAM KEKERASAN 1262 01:13:20,145 --> 01:13:20,979 Ben! 1263 01:13:21,605 --> 01:13:22,439 Cassandra! 1264 01:13:22,981 --> 01:13:23,816 - Cass! - Ben! 1265 01:13:23,899 --> 01:13:25,484 Kemari kau! 1266 01:13:27,486 --> 01:13:31,156 Angkat tangan. Berlutut. Tiarap. 1267 01:13:36,120 --> 01:13:37,204 - Tenang... - Ben! 1268 01:13:37,287 --> 01:13:38,580 Hei! Angkat tangan! 1269 01:13:39,623 --> 01:13:41,291 Berbaliklah. Tiarap. 1270 01:13:56,807 --> 01:13:59,643 Apa kita ingin sistem ini dijual kepada penawar tertinggi? 1271 01:13:59,726 --> 01:14:01,311 PRANCIS 2019 1272 01:14:01,395 --> 01:14:05,399 Demokrasi yang bisa dijual dan kita bisa menjangkau benak siapa pun yang kita mau, 1273 01:14:05,482 --> 01:14:08,694 membuat kebohongan pada populasi tertentu dan membuat perang budaya? 1274 01:14:09,236 --> 01:14:10,237 Apa kita mau itu? 1275 01:14:14,783 --> 01:14:16,201 Kita adalah bangsa... 1276 01:14:16,952 --> 01:14:18,620 yang tak saling bicara lagi. 1277 01:14:18,704 --> 01:14:19,997 SENATOR FLORIDA, AS 1278 01:14:20,080 --> 01:14:23,000 Kita bangsa orang yang berhenti berteman dengan orang 1279 01:14:23,083 --> 01:14:25,294 karena pilihan mereka di pemilu lalu. 1280 01:14:25,961 --> 01:14:28,422 Kita bangsa yang mengisolasi diri 1281 01:14:28,505 --> 01:14:30,966 untuk menonton saluran yang membenarkan kita saja. 1282 01:14:32,509 --> 01:14:36,805 Pesan saya hari ini adalah kesukuan menghancurkan kita. 1283 01:14:37,347 --> 01:14:39,183 Ini menghancurkan negara kita. 1284 01:14:40,225 --> 01:14:43,103 Bukan seperti ini cara orang dewasa waras bertindak. 1285 01:14:43,187 --> 01:14:45,397 Jika semua berhak meyakini fakta yang mereka mau, 1286 01:14:45,481 --> 01:14:49,401 tak perlu ada kompromi dan orang-orang tak perlu berkumpul. 1287 01:14:49,485 --> 01:14:51,695 Bahkan, orang-orang tak perlu berinteraksi. 1288 01:14:52,321 --> 01:14:56,617 Kita harus memiliki pemahaman bersama tentang kenyataan. 1289 01:14:57,367 --> 01:14:58,410 Atau kita bukan negara. 1290 01:14:58,911 --> 01:15:02,998 Jadi, solusi jangka panjangnya adalah membangun lebih banyak alat IA 1291 01:15:03,081 --> 01:15:08,128 yang menemukan pola penggunaan layanan yang mustahil dilakukan orang sungguhan. 1292 01:15:08,212 --> 01:15:11,840 Kita mengizinkan para pakar teknologi menganggap ini sebagai masalah 1293 01:15:11,924 --> 01:15:14,009 yang siap mereka pecahkan. 1294 01:15:15,135 --> 01:15:16,470 Itu bohong. 1295 01:15:17,638 --> 01:15:20,766 Orang-orang membahas IA seolah-olah itu akan paham kebenaran. 1296 01:15:21,683 --> 01:15:23,810 IA takkan menyelesaikan masalah ini. 1297 01:15:24,228 --> 01:15:27,189 IA tak bisa memecahkan masalah berita palsu. 1298 01:15:28,649 --> 01:15:31,026 Google tak punya pilihan untuk bilang, 1299 01:15:31,109 --> 01:15:34,363 "Apa ini konspirasi? Apa ini kebenaran?" 1300 01:15:34,655 --> 01:15:36,240 Karena mereka tak tahu kebenaran. 1301 01:15:36,823 --> 01:15:40,410 Mereka tak punya proksi kebenaran yang lebih baik dari klik. 1302 01:15:41,870 --> 01:15:45,123 Jika kita tak setuju soal apa yang benar 1303 01:15:45,207 --> 01:15:47,584 atau kebenaran itu sungguh ada, 1304 01:15:48,293 --> 01:15:49,294 kita akan hancur. 1305 01:15:49,878 --> 01:15:52,089 Ini masalah di bawah masalah lain, 1306 01:15:52,172 --> 01:15:54,424 karena jika tak bisa sepakat soal apa yang benar, 1307 01:15:55,092 --> 01:15:57,803 kita tak bisa keluar dari semua masalah kita. 1308 01:16:05,352 --> 01:16:07,854 Sebaiknya sarankan dia ikuti Klub Sepak Bola Bumi Datar. 1309 01:16:07,938 --> 01:16:10,399 Jangan tunjukkan kabar olahraga lagi. Dia tak tertarik. 1310 01:16:39,970 --> 01:16:42,764 Banyak orang di Silicon Valley yang meyakini sebuah teori 1311 01:16:42,848 --> 01:16:45,225 bahwa kita sedang membangun otak super global 1312 01:16:45,309 --> 01:16:48,020 dan semua pengguna hanyalah neuron kecil yang bisa ditukar. 1313 01:16:48,103 --> 01:16:49,563 Tak ada yang penting. 1314 01:16:50,230 --> 01:16:53,150 Itu memaksa orang mengambil peran aneh 1315 01:16:53,233 --> 01:16:56,069 yang menjadikan kita sebuah elemen komputer kecil 1316 01:16:56,153 --> 01:16:58,905 yang diprogram lewat manipulasi perilaku 1317 01:16:58,989 --> 01:17:02,367 untuk melayani otak raksasa ini dan kita tak penting. 1318 01:17:02,451 --> 01:17:06,455 Kita takkan dibayar, diakui, dan tak bisa menentukan nasib sendiri. 1319 01:17:06,538 --> 01:17:09,416 Kami akan diam-diam memanipulasimu karena kau simpul komputer, 1320 01:17:09,499 --> 01:17:12,336 jadi, kami harus memprogrammu karena begitulah simpul komputer. 1321 01:17:20,093 --> 01:17:21,094 Astaga. 1322 01:17:21,887 --> 01:17:25,390 Saat memikirkan teknologi yang menjadi ancaman eksistensial, 1323 01:17:25,474 --> 01:17:28,060 itu pernyataan berani dan... 1324 01:17:29,603 --> 01:17:33,982 Maka akan mudah bagi kita untuk berpikir, "Baiklah, aku membawa ponsel... 1325 01:17:35,525 --> 01:17:37,235 menggulir, mengeklik, menggunakannya. 1326 01:17:37,319 --> 01:17:39,237 Di mana ancaman eksistensialnya? 1327 01:17:40,238 --> 01:17:41,615 Ada komputer super, 1328 01:17:41,698 --> 01:17:44,034 di sisi lain layar, mengarah ke otakku, 1329 01:17:44,451 --> 01:17:47,537 membuatku menonton satu video lagi. Di mana ancaman eksistensialnya?" 1330 01:17:54,252 --> 01:17:59,341 Ini bukan soal teknologi yang menjadi ancaman eksistensial. 1331 01:18:02,511 --> 01:18:04,721 DENGAR PENDAPAT SENAT AS SOAL TEKNOLOGI PERSUASIF 1332 01:18:04,805 --> 01:18:06,348 Namun, kemampuan teknologi 1333 01:18:06,431 --> 01:18:08,975 untuk menghadirkan kemungkinan terburuk di masyarakat 1334 01:18:09,559 --> 01:18:13,522 dan kemungkinan terburuk itulah ancaman eksistensialnya. 1335 01:18:13,605 --> 01:18:15,899 SENAT AMERIKA SERIKAT 1336 01:18:18,777 --> 01:18:20,570 Jika teknologi menciptakan 1337 01:18:21,655 --> 01:18:24,533 kekacauan massal, kemarahan, ketidaksopanan, 1338 01:18:24,616 --> 01:18:26,326 kurangnya saling percaya, 1339 01:18:27,452 --> 01:18:30,622 kesepian, alienasi, peningkatan polarisasi, 1340 01:18:30,706 --> 01:18:33,333 peretasan pemilu, populisme, 1341 01:18:33,917 --> 01:18:36,962 gangguan, dan ketidakmampuan berfokus pada isu sebenarnya... 1342 01:18:37,963 --> 01:18:39,214 itulah masyarakat. 1343 01:18:40,340 --> 01:18:46,388 Kini masyarakat tak mampu menyembuhkan dirinya 1344 01:18:46,471 --> 01:18:48,724 dan berubah menjadi semacam kekacauan. 1345 01:18:51,977 --> 01:18:54,938 Ini memengaruhi semua orang, meski kita tak memakai produk ini. 1346 01:18:55,480 --> 01:18:57,524 Semua ini telah menjadi Frankenstein digital 1347 01:18:57,607 --> 01:19:00,110 yang mengubah dunia sesuai bayangan mereka, 1348 01:19:00,193 --> 01:19:01,862 entah itu kesehatan mental anak-anak 1349 01:19:01,945 --> 01:19:04,489 atau politik dan wacana politik kita, 1350 01:19:04,573 --> 01:19:07,492 tanpa bertanggung jawab membahasnya di ranah publik. 1351 01:19:07,576 --> 01:19:10,579 - Jadi, itu kembali ke... - Menurutmu siapa yang bertanggung jawab? 1352 01:19:10,662 --> 01:19:13,582 Kurasa kita harus meminta platform bertanggung jawab 1353 01:19:13,665 --> 01:19:15,584 karena saat mengambil alih iklan pemilu, 1354 01:19:15,667 --> 01:19:17,753 mereka bertanggung jawab melindungi pemilu. 1355 01:19:17,836 --> 01:19:20,464 Saat menguasai kesehatan mental anak atau acara Sabtu pagi, 1356 01:19:20,547 --> 01:19:22,716 mereka bertanggung jawab melindungi Sabtu pagi. 1357 01:19:23,800 --> 01:19:27,929 Perlombaan untuk menarik perhatian orang tak akan hilang. 1358 01:19:28,638 --> 01:19:31,850 Teknologi kita akan menjadi lebih menyatu dengan kehidupan kita. 1359 01:19:31,933 --> 01:19:34,978 IA akan lebih mahir memprediksi hal yang membuat kita melihat layar, 1360 01:19:35,061 --> 01:19:37,105 bukan lebih buruk dalam memprediksinya. 1361 01:19:38,940 --> 01:19:42,027 Usiaku 62 tahun, 1362 01:19:42,110 --> 01:19:45,113 makin tua seiring percakapan ini berlangsung, 1363 01:19:45,197 --> 01:19:47,365 tapi aku akan memberitahumu... 1364 01:19:48,700 --> 01:19:52,370 Aku mungkin akan mati dan mungkin akan bersyukur untuk itu 1365 01:19:52,454 --> 01:19:54,372 saat semua ini membuahkan hasil. 1366 01:19:54,790 --> 01:19:59,753 Karena kupikir ini membuatku sangat takut. 1367 01:20:00,921 --> 01:20:03,298 Apa kau sependapat? 1368 01:20:03,548 --> 01:20:06,885 Atau aku bereaksi berlebihan pada situasi yang kurang kuketahui? 1369 01:20:09,930 --> 01:20:11,640 Apa yang paling kau cemaskan? 1370 01:20:15,519 --> 01:20:18,480 Kurasa dalam jangka pendek... 1371 01:20:19,523 --> 01:20:20,524 perang saudara. 1372 01:20:24,444 --> 01:20:29,908 Jika kita teruskan situasi saat ini, anggaplah hingga 20 tahun lagi... 1373 01:20:31,117 --> 01:20:34,579 peradaban kita mungkin akan hancur karena kebodohan yang disengaja. 1374 01:20:34,663 --> 01:20:37,958 Kita mungkin gagal menghadapi tantangan perubahan iklim. 1375 01:20:38,041 --> 01:20:42,087 Kita mungkin memperburuk demokrasi dunia 1376 01:20:42,170 --> 01:20:46,132 sehingga mereka jatuh ke dalam disfungsi autokrat yang aneh. 1377 01:20:46,216 --> 01:20:48,510 Kita mungkin merusak ekonomi global. 1378 01:20:49,135 --> 01:20:52,264 Kita mungkin tak selamat. 1379 01:20:52,347 --> 01:20:54,808 Aku sungguh menganggap ini eksistensial. 1380 01:21:02,482 --> 01:21:04,985 Apa ini generasi terakhir 1381 01:21:05,068 --> 01:21:08,822 yang akan tahu rasanya sebelum ilusi ini terjadi? 1382 01:21:11,074 --> 01:21:14,578 Bagaimana kita terbangun dari matriks saat kita tak tahu ada di matriks? 1383 01:21:17,747 --> 01:21:23,253 "MENJADI UTOPIA ATAU DILUPAKAN, AKAN DITENTUKAN OLEH LOMBA ESTAFET 1384 01:21:23,336 --> 01:21:27,299 HINGGA SAAT TERAKHIR..." BUCKMINSTER FULLER 1385 01:21:27,382 --> 01:21:30,635 Banyak ucapan kami yang terdengar seolah-olah ini... 1386 01:21:31,511 --> 01:21:33,680 hanyalah hanya malapetaka dan kesuraman sepihak. 1387 01:21:33,763 --> 01:21:36,808 Seperti, "Astaga, teknologi menghancurkan dunia... 1388 01:21:36,892 --> 01:21:39,519 dan anak-anak," tapi tidak. 1389 01:21:40,228 --> 01:21:45,567 Ini membingungkan karena ini utopia sekaligus distopia. 1390 01:21:45,942 --> 01:21:50,447 Aku bisa menekan tombol di ponselku dan mobil akan muncul dalam 30 detik, 1391 01:21:50,530 --> 01:21:52,699 lalu aku bisa pergi ke tujuanku. 1392 01:21:53,033 --> 01:21:55,785 Itu ajaib. Itu luar biasa. 1393 01:21:56,161 --> 01:21:58,788 Saat kami membuat tombol "Suka", motivasi kami adalah, 1394 01:21:58,872 --> 01:22:01,499 "Bisakah kita menyebarkan aura positif dan cinta di dunia?" 1395 01:22:01,583 --> 01:22:06,379 Lalu berpikir bahwa kini remaja tertekan saat tak banyak dapat respons "Suka" 1396 01:22:06,463 --> 01:22:08,632 atau itu bisa mengarah ke polarisasi politik, 1397 01:22:08,715 --> 01:22:09,883 tak terpikir oleh kami. 1398 01:22:10,175 --> 01:22:12,344 Kurasa mereka tak berniat jahat. 1399 01:22:13,511 --> 01:22:15,764 Hanya model bisnisnya yang bermasalah. 1400 01:22:15,847 --> 01:22:20,226 Kita bisa menutup layanannya dan menghancurkan apa pun itu, 1401 01:22:20,310 --> 01:22:24,397 nilai pemegang saham 20 miliar dolar, dituntut... 1402 01:22:24,481 --> 01:22:27,108 Namun, kita tak bisa membalikkan keadaan seperti masa lalu. 1403 01:22:27,442 --> 01:22:30,403 Kita bisa membuat modifikasi kecil, tapi pada akhirnya, 1404 01:22:30,487 --> 01:22:34,032 pendapatan dan penggunaan harus meningkat, kuartal dari kuartal. 1405 01:22:34,658 --> 01:22:37,535 Makin besar itu, makin sulit bagi siapa pun untuk berubah. 1406 01:22:38,495 --> 01:22:43,458 Yang kulihat adalah sekelompok orang yang terjebak oleh model bisnis, 1407 01:22:43,541 --> 01:22:46,169 insentif ekonomi, dan tekanan pemegang saham 1408 01:22:46,252 --> 01:22:48,922 yang membuatnya hampir mustahil untuk melakukan hal lain. 1409 01:22:49,005 --> 01:22:50,840 Kurasa kita harus menerima fakta 1410 01:22:50,924 --> 01:22:53,176 bahwa perusahaan boleh berfokus menghasilkan uang. 1411 01:22:53,259 --> 01:22:56,888 Yang buruk adalah saat tak ada regulasi, aturan, dan persaingan 1412 01:22:56,972 --> 01:23:00,850 dan perusahaan bertindak sebagai pemerintah yang asli. 1413 01:23:01,142 --> 01:23:03,353 Lalu mereka berkata, "Kami bisa mengatur diri." 1414 01:23:03,436 --> 01:23:05,981 Itu sebuah kebohongan. Itu konyol. 1415 01:23:06,064 --> 01:23:09,150 Insentif keuangan bisa dibilang mengatur dunia, 1416 01:23:09,234 --> 01:23:15,573 jadi, apa pun solusi masalah ini haruslah mengubah insentif keuangan itu. 1417 01:23:16,157 --> 01:23:18,785 Tak ada alasan fiskal agar perusahaan ini berubah. 1418 01:23:19,160 --> 01:23:21,329 Itu sebabnya kita perlu peraturan. 1419 01:23:21,413 --> 01:23:24,290 Perusahaan telepon punya banyak data sensitif soal kita 1420 01:23:24,374 --> 01:23:27,544 dan ada banyak hukum yang memastikan mereka tak berbuat salah. 1421 01:23:27,627 --> 01:23:31,506 Kita hampir tak punya hukum tentang privasi digital misalnya. 1422 01:23:31,589 --> 01:23:34,426 Kita bisa memajaki pemungutan dan pemrosesan data. 1423 01:23:34,509 --> 01:23:37,554 Sama seperti saat kita membayar tagihan air 1424 01:23:37,637 --> 01:23:39,723 dengan memantau jumlah penggunaan air, 1425 01:23:39,806 --> 01:23:43,226 kenakan pajak pada perusahaan ini atas aset data yang mereka miliki. 1426 01:23:43,309 --> 01:23:44,769 Itu memberi mereka alasan fiskal 1427 01:23:44,853 --> 01:23:47,856 untuk tak memperoleh semua data di planet ini. 1428 01:23:48,148 --> 01:23:50,567 Hukum jauh tertinggal dalam hal ini. 1429 01:23:50,650 --> 01:23:55,864 Yang kutahu, situasi saat ini ada bukan untuk melindungi pengguna, 1430 01:23:55,947 --> 01:23:58,700 tapi untuk perlindungan hak dan privilese 1431 01:23:58,783 --> 01:24:01,453 dari semua perusahaan raksasa yang sangat kaya ini. 1432 01:24:02,203 --> 01:24:05,832 Apa kita akan selalu tunduk kepada orang terkaya dan paling berkuasa? 1433 01:24:05,915 --> 01:24:07,417 Atau kita akan bilang, 1434 01:24:07,959 --> 01:24:12,047 "Ada kalanya saat kepentingan nasional, 1435 01:24:12,130 --> 01:24:15,592 ada kalanya saat kepentingan orang atau para pengguna, 1436 01:24:15,675 --> 01:24:17,385 sebenarnya lebih penting 1437 01:24:18,011 --> 01:24:21,473 daripada keuntungan bagi orang yang sudah menjadi miliarder"? 1438 01:24:21,848 --> 01:24:26,603 Pasar-pasar ini merusak demokrasi dan kebebasan. 1439 01:24:26,686 --> 01:24:28,521 Mereka harus dilarang. 1440 01:24:29,147 --> 01:24:31,816 Ini bukan proposal radikal. 1441 01:24:31,900 --> 01:24:34,194 Ada pasar lain yang kita larang. 1442 01:24:34,277 --> 01:24:36,988 Kita melarang pasar organ manusia. 1443 01:24:37,197 --> 01:24:39,491 Kami melarang pasar budak manusia. 1444 01:24:39,949 --> 01:24:44,037 Karena mereka punya konsekuensi merusak yang tak terelakkan. 1445 01:24:44,662 --> 01:24:45,830 Kita hidup di dunia 1446 01:24:45,914 --> 01:24:50,251 tempat pohon mati bernilai lebih, secara finansial, daripada yang hidup. 1447 01:24:50,335 --> 01:24:53,838 Dunia tempat paus mati lebih berharga daripada yang hidup. 1448 01:24:53,922 --> 01:24:56,341 Jika ekonomi kita terus bekerja seperti itu 1449 01:24:56,424 --> 01:24:58,134 dan perusahaan tak diatur, 1450 01:24:58,218 --> 01:25:00,678 mereka akan terus menghancurkan pohon, 1451 01:25:00,762 --> 01:25:01,763 membunuh paus, 1452 01:25:01,846 --> 01:25:06,101 menambang tanah, dan terus menarik minyak dari tanah, 1453 01:25:06,184 --> 01:25:08,394 meski kita tahu itu menghancurkan planet 1454 01:25:08,478 --> 01:25:12,148 dan membuat dunia yang lebih buruk untuk generasi mendatang. 1455 01:25:12,232 --> 01:25:13,858 Ini pemikiran jangka pendek 1456 01:25:13,942 --> 01:25:16,694 berdasarkan perilaku yang menuhankan keuntungan ini, 1457 01:25:16,778 --> 01:25:20,073 seolah-olah secara ajaib, tiap perusahaan yang bertindak egois ini 1458 01:25:20,156 --> 01:25:21,950 akan memberikan hasil terbaik. 1459 01:25:22,033 --> 01:25:24,494 Ini sudah memengaruhi lingkungan sejak lama. 1460 01:25:24,702 --> 01:25:27,205 Yang menakutkan dan semoga ini menjadi pemicu terakhir 1461 01:25:27,288 --> 01:25:29,249 yang akan menyadarkan kita sebagai peradaban 1462 01:25:29,332 --> 01:25:31,709 akan betapa salahnya teori ini sejak awal 1463 01:25:31,793 --> 01:25:35,004 adalah menganggap bahwa kini kitalah pohon dan pausnya. 1464 01:25:35,088 --> 01:25:37,048 Perhatian kita bisa ditambang. 1465 01:25:37,132 --> 01:25:39,134 Kita akan lebih menguntungkan perusahaan 1466 01:25:39,217 --> 01:25:41,594 jika kita menghabiskan waktu menatap layar, 1467 01:25:41,678 --> 01:25:42,971 menatap iklan, 1468 01:25:43,054 --> 01:25:45,890 daripada menghabiskan waktu itu untuk menikmati hidup. 1469 01:25:45,974 --> 01:25:47,559 Jadi, kini kita melihat akibatnya. 1470 01:25:47,642 --> 01:25:50,687 Kita melihat perusahaan menggunakan inteligensi artifisial yang kuat 1471 01:25:50,770 --> 01:25:53,606 untuk mengakali dan mencari cara menarik perhatian kita 1472 01:25:53,690 --> 01:25:57,068 menuju hal yang mereka mau kita lihat, daripada hal yang paling konsisten 1473 01:25:57,152 --> 01:25:59,237 dengan tujuan, nilai, dan hidup kita. 1474 01:26:02,991 --> 01:26:04,450 PIDATO UTAMA HARI INI STEVE JOBS 1475 01:26:05,535 --> 01:26:06,911 Arti komputer bagiku adalah 1476 01:26:06,995 --> 01:26:10,290 ini alat paling luar biasa yang pernah kami buat. 1477 01:26:11,124 --> 01:26:13,877 Itu setara dengan sepeda untuk pikiran kita. 1478 01:26:15,587 --> 01:26:20,341 Ide soal teknologi manusiawi, itulah awal mula Silicon Valley. 1479 01:26:21,050 --> 01:26:25,722 Lalu kita kehilangan arah karena itu menjadi tindakan yang keren, 1480 01:26:25,805 --> 01:26:27,265 bukan yang benar. 1481 01:26:27,557 --> 01:26:29,726 Dulu internet adalah tempat yang aneh dan gila. 1482 01:26:30,018 --> 01:26:31,394 Itu eksperimental. 1483 01:26:31,519 --> 01:26:34,731 Dulu hal-hal kreatif terjadi di internet dan tentu masih hingga kini, 1484 01:26:34,814 --> 01:26:38,610 tapi kini rasanya itu seperti mal raksasa. 1485 01:26:38,693 --> 01:26:44,282 Aku berpikir, "Astaga, pasti ada sesuatu yang lebih dari itu." 1486 01:26:46,743 --> 01:26:48,411 Kurasa aku hanya optimistis. 1487 01:26:48,494 --> 01:26:52,165 Karena kurasa kita bisa mengubah rupa dan arti media sosial. 1488 01:26:54,250 --> 01:26:57,921 Cara kerja teknologi bukan hukum fisika. Tidak mustahil diubah. 1489 01:26:58,004 --> 01:27:02,175 Ini adalah pilihan yang dibuat manusia sepertiku selama ini. 1490 01:27:02,967 --> 01:27:05,345 Manusia bisa mengubah teknologi itu. 1491 01:27:06,971 --> 01:27:09,974 Pertanyaannya sekarang adalah apakah kita bersedia mengakui 1492 01:27:10,475 --> 01:27:15,438 bahwa hasil buruk itu adalah wujud produk dari pekerjaan kita. 1493 01:27:21,027 --> 01:27:24,864 Kita membangun ini dan bertanggung jawab untuk mengubahnya. 1494 01:27:37,168 --> 01:27:38,711 Model ekstraksi perhatian 1495 01:27:38,795 --> 01:27:42,298 bukanlah cara memperlakukan manusia yang kita mau. 1496 01:27:46,094 --> 01:27:48,137 Ini perasaanku saja atau... 1497 01:27:49,806 --> 01:27:50,848 Pria yang malang. 1498 01:27:51,474 --> 01:27:53,226 Struktur masyarakat yang sehat 1499 01:27:53,309 --> 01:27:56,145 bergantung pada keluarnya kita dari model bisnis merusak ini. 1500 01:28:04,696 --> 01:28:07,782 Kita bisa menuntut produk ini dirancang secara manusiawi. 1501 01:28:09,409 --> 01:28:13,204 Kita bisa menuntut untuk tak diperlakukan sebagai sumber daya yang bisa diekstraksi. 1502 01:28:15,164 --> 01:28:18,459 Tujuannya mungkin bisa berupa cara kita membuat dunia lebih baik. 1503 01:28:20,461 --> 01:28:23,798 Dalam sejarah, setiap ada perubahan ke arah yang lebih baik, 1504 01:28:23,881 --> 01:28:26,342 itu karena seseorang maju dan berkata, 1505 01:28:26,426 --> 01:28:28,428 "Ini bodoh. Kita bisa lebih baik." 1506 01:28:29,178 --> 01:28:32,557 Para kritikuslah yang mendorong perbaikan. 1507 01:28:33,141 --> 01:28:35,393 Para kritikuslah yang benar-benar optimistis. 1508 01:28:38,313 --> 01:28:39,147 Halo. 1509 01:28:46,195 --> 01:28:47,697 Maksudku, itu agak gila, bukan? 1510 01:28:47,780 --> 01:28:51,534 Seolah-olah desain fundamental dari hal ini... 1511 01:28:52,994 --> 01:28:54,954 tidak berjalan ke arah yang baik. 1512 01:28:55,246 --> 01:28:56,873 Seluruhnya. 1513 01:28:56,956 --> 01:29:00,668 Jadi, terdengar gila jika berkata kita harus mengubah semua itu, 1514 01:29:01,169 --> 01:29:03,046 tapi itu yang harus kita lakukan. 1515 01:29:04,380 --> 01:29:05,965 Menurutmu, kita akan berhasil? 1516 01:29:07,425 --> 01:29:08,343 Harus. 1517 01:29:21,314 --> 01:29:24,942 Sepertinya kau sangat optimistis. 1518 01:29:26,194 --> 01:29:27,403 Aku terdengar seperti itu? 1519 01:29:27,653 --> 01:29:30,198 Ya, maksudku... Sulit kupercaya kau terus mengatakan itu 1520 01:29:30,281 --> 01:29:33,326 karena aku berpikir, "Sungguh? Aku merasa kita menuju distopia. 1521 01:29:33,409 --> 01:29:35,370 Aku merasa kita menuju distopia dengan cepat 1522 01:29:35,453 --> 01:29:37,914 dan butuh keajaiban untuk mengeluarkan kita darinya." 1523 01:29:37,997 --> 01:29:40,375 Keajaiban itu, tentu saja, adalah keinginan bersama. 1524 01:29:41,000 --> 01:29:44,587 Aku merasa optimistis kita akan menemukan solusi, 1525 01:29:44,670 --> 01:29:47,048 tapi kurasa itu akan butuh waktu lama. 1526 01:29:47,131 --> 01:29:50,385 Karena tak semua orang menganggap ini sebagai masalah. 1527 01:29:50,468 --> 01:29:55,890 Kurasa salah satu kegagalan besar dalam teknologi saat ini 1528 01:29:55,973 --> 01:29:58,643 adalah kegagalan kepemimpinan 1529 01:29:58,726 --> 01:30:01,979 dari orang-orang yang tampil dan melakukan percakapan terbuka 1530 01:30:02,063 --> 01:30:05,900 yang bukan hanya soal hal-hal baik, tapi juga yang tak sempurna 1531 01:30:05,983 --> 01:30:08,194 agar seseorang bisa membangun sesuatu yang baru. 1532 01:30:08,486 --> 01:30:10,321 Pada akhirnya, 1533 01:30:10,405 --> 01:30:14,617 mesin ini takkan berubah sampai ada tekanan publik yang besar. 1534 01:30:14,700 --> 01:30:18,329 Dengan melakukan percakapan ini dan menyuarakan pendapat kita, 1535 01:30:18,413 --> 01:30:21,082 dalam beberapa kasus melalui teknologi ini, 1536 01:30:21,165 --> 01:30:24,252 kita bisa mulai mengubah keadaan dan pembahasan. 1537 01:30:24,335 --> 01:30:27,004 Ini mungkin terdengar aneh, tapi ini dunia dan komunitasku. 1538 01:30:27,088 --> 01:30:29,674 Aku tak membenci dan mau merugikan Google atau Facebook. 1539 01:30:29,757 --> 01:30:32,885 Aku hanya ingin mengubah mereka agar mereka tak menghancurkan dunia. 1540 01:30:32,969 --> 01:30:35,513 Aku sudah menghapus banyak aplikasi dari ponselku 1541 01:30:35,596 --> 01:30:37,723 yang kurasa hanya membuang waktuku. 1542 01:30:37,807 --> 01:30:40,685 Semua aplikasi media sosial dan berita. 1543 01:30:40,768 --> 01:30:42,520 Aku pun mematikan notifikasi 1544 01:30:42,603 --> 01:30:45,815 pada apa pun yang menggetarkan kakiku dengan informasi 1545 01:30:45,898 --> 01:30:48,943 yang tak tepat waktu dan penting bagiku saat ini. 1546 01:30:49,026 --> 01:30:51,279 Karena alasan itu juga, aku tak mengantongi kue. 1547 01:30:51,362 --> 01:30:53,197 Kurangi jumlah notifikasi yang didapat. 1548 01:30:53,281 --> 01:30:54,449 Matikan notifikasi. 1549 01:30:54,532 --> 01:30:55,950 Mematikan semua notifikasi. 1550 01:30:56,033 --> 01:30:58,536 Aku tak menggunakan Google lagi, tapi Qwant 1551 01:30:58,619 --> 01:31:01,497 yang tak menyimpan riwayat pencarian kita. 1552 01:31:01,581 --> 01:31:04,417 Jangan pernah menerima video rekomendasi di YouTube. 1553 01:31:04,500 --> 01:31:07,003 Selalu memilih. Itu cara melawan yang lain. 1554 01:31:07,295 --> 01:31:12,133 Ada banyak ekstensi Chrome yang menghapus rekomendasi. 1555 01:31:12,216 --> 01:31:15,636 Aku suka kau merekomendasikan sesuatu untuk membatalkan yang kau buat. 1556 01:31:15,720 --> 01:31:16,554 Ya. 1557 01:31:16,929 --> 01:31:18,473 Sebelum membagi, 1558 01:31:18,556 --> 01:31:21,684 periksa fakta, pertimbangkan sumbernya, riset lebih banyak di Google. 1559 01:31:21,767 --> 01:31:25,104 Jika sepertinya itu dirancang untuk memancing emosi kita, 1560 01:31:25,188 --> 01:31:26,314 mungkin memang begitu. 1561 01:31:26,731 --> 01:31:29,025 Intinya, kita memilih dengan klik. 1562 01:31:29,108 --> 01:31:30,359 Jika mengeklik umpan klik, 1563 01:31:30,443 --> 01:31:33,779 kita menciptakan insentif keuangan yang melanggengkan sistem yang ada. 1564 01:31:33,863 --> 01:31:37,909 Pastikan kita mendapat beragam informasi dalam hidupmu sendiri. 1565 01:31:38,117 --> 01:31:40,995 Aku mengikuti orang yang tak kusukai di Twitter 1566 01:31:41,078 --> 01:31:44,207 karena aku ingin melihat sudut pandang berbeda. 1567 01:31:44,582 --> 01:31:46,584 Perhatikan banyak orang di industri teknologi 1568 01:31:46,667 --> 01:31:49,045 tak memberikan perangkat ini kepada anak mereka. 1569 01:31:49,128 --> 01:31:51,255 Anak-anakku tak menggunakan media sosial. 1570 01:31:51,964 --> 01:31:53,549 Apa itu aturan atau... 1571 01:31:53,633 --> 01:31:54,509 Itu aturannya. 1572 01:31:55,092 --> 01:31:57,845 Kami fanatik soal itu. 1573 01:31:57,929 --> 01:31:59,222 Kami gila. 1574 01:31:59,305 --> 01:32:05,603 Kami tak memberikan anak-anak kami waktu di depan layar. 1575 01:32:05,686 --> 01:32:08,564 Aku sudah memikirkan tiga aturan sederhana 1576 01:32:08,648 --> 01:32:12,610 yang mempermudah hidup keluarga dan itu dibenarkan oleh penelitian. 1577 01:32:12,693 --> 01:32:15,571 Aturan pertama adalah tak ada gawai di kamar tidur 1578 01:32:15,655 --> 01:32:17,281 pada waktu tetap setiap malam. 1579 01:32:17,365 --> 01:32:20,535 Apa pun waktunya, 30 menit sebelum tidur, semua gawai keluar. 1580 01:32:20,618 --> 01:32:24,038 Aturan kedua adalah tak ada media sosial sampai SMA. 1581 01:32:24,121 --> 01:32:26,374 Secara pribadi, kurasa usianya harus 16 tahun. 1582 01:32:26,457 --> 01:32:28,960 SMP sudah cukup sulit. Jadi, jauhkan hingga SMA. 1583 01:32:29,043 --> 01:32:32,964 Aturan ketiga adalah menyusun anggaran waktu dengan anak-anak kita. 1584 01:32:33,047 --> 01:32:34,799 Jika bicara dengan mereka dan berkata, 1585 01:32:34,882 --> 01:32:37,802 "Berapa jam sehari kau mau menggunakan gawaimu? 1586 01:32:37,885 --> 01:32:39,637 Menurutmu, berapa durasi yang sesuai," 1587 01:32:39,720 --> 01:32:41,597 jawaban mereka sering kali masuk akal. 1588 01:32:42,056 --> 01:32:44,642 Dengar, aku tahu betul 1589 01:32:44,725 --> 01:32:48,563 aku tak akan membuat semua orang menghapus akun media sosial mereka, 1590 01:32:48,646 --> 01:32:50,439 tapi kurasa ada beberapa orang 1591 01:32:50,523 --> 01:32:54,485 dan membuat beberapa orang menghapus akun mereka itu sangat penting. 1592 01:32:54,569 --> 01:32:58,406 Alasannya adalah itu menciptakan ruang untuk percakapan 1593 01:32:58,489 --> 01:33:00,908 karena aku ingin ada cukup banyak orang di masyarakat 1594 01:33:00,992 --> 01:33:05,079 yang bebas dari mesin manipulasi untuk melakukan percakapan sosial 1595 01:33:05,162 --> 01:33:07,540 yang tak dibatasi oleh mesin manipulasi. 1596 01:33:07,623 --> 01:33:10,126 Jadi, lakukanlah! Keluar dari sistem. 1597 01:33:10,334 --> 01:33:12,670 Ya, hapuslah. Lepaskan benda bodoh itu. 1598 01:33:13,546 --> 01:33:16,507 Dunia ini indah. Lihat, di luar sana bagus. 1599 01:33:18,467 --> 01:33:19,969 IKUTI KAMI DI MEDIA SOSIAL! 1600 01:33:20,052 --> 01:33:21,887 HANYA BERCANDA 1601 01:33:21,971 --> 01:33:27,476 AYO MEMBAHAS CARA MEMPERBAIKINYA THESOCIALDILEMMA.COM 1602 01:33:32,064 --> 01:33:34,609 Terjemahan subtitle oleh Alphino Fajar