1 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.MX 2 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.MX 3 00:00:18,727 --> 00:00:23,690 ‎"필멸자들의 삶에 ‎저주 없는 광대함은 없다" 4 00:00:23,773 --> 00:00:27,861 ‎"소포클레스" 5 00:00:31,156 --> 00:00:34,659 ‎네, 우선 앉아 보세요 ‎자리가 편한지 앉아 봐요 6 00:00:37,579 --> 00:00:38,580 ‎괜찮아요? 네 7 00:00:38,663 --> 00:00:39,497 ‎네 8 00:00:43,043 --> 00:00:44,419 ‎테이크 1, 마커 9 00:00:46,880 --> 00:00:48,923 ‎자기 소개부터 하고 싶어요? 10 00:00:50,467 --> 00:00:53,344 ‎안녕, 세상 ‎베일리야, 테이크 3 11 00:00:53,970 --> 00:00:56,056 ‎- 괜찮아요? ‎- 전 이런 게 제일 싫어요 12 00:00:57,515 --> 00:00:58,516 ‎마음에 안 들어요 13 00:00:59,851 --> 00:01:02,228 ‎2011, 2012년에 ‎페이스북에서 일했어요 14 00:01:02,312 --> 00:01:05,190 ‎저는 초창기 인스타그램의 ‎직원이었어요 15 00:01:05,273 --> 00:01:08,693 ‎저는 구글, 유튜브에서 일했어요 16 00:01:08,777 --> 00:01:11,696 ‎애플, 구글, 트위터, 팜 17 00:01:12,739 --> 00:01:15,533 ‎모질라랩 창업을 도왔고 ‎파이어폭스로 옮겨갔어요 18 00:01:15,617 --> 00:01:17,994 ‎지금 촬영 중이야? 다들... 19 00:01:18,078 --> 00:01:18,953 ‎좋아 20 00:01:21,206 --> 00:01:26,169 ‎전 트위터에서 일했습니다 ‎엔지니어링 수석 부사장이었죠 21 00:01:27,462 --> 00:01:29,255 ‎전 핀터레스트 회장이었습니다 22 00:01:29,339 --> 00:01:32,717 ‎그전에는 페이스북에서 ‎수익 창출 이사로 23 00:01:32,801 --> 00:01:34,260 ‎5년간 있었습니다 24 00:01:34,344 --> 00:01:37,972 ‎트위터에서는 몇 년 동안 ‎그들의 개발 플랫폼을 지휘했어요 25 00:01:38,056 --> 00:01:40,225 ‎그러다 소비자 상품 ‎책임자가 되었죠 26 00:01:40,308 --> 00:01:44,270 ‎저는 구글 드라이브와 ‎지메일 챗의 공동 개발자고 27 00:01:44,354 --> 00:01:46,689 ‎페이스북 페이지와 ‎좋아요 버튼도 만들었습니다 28 00:01:47,440 --> 00:01:50,777 ‎네, 이래서 8개월 동안 ‎변호사들과 29 00:01:50,860 --> 00:01:52,779 ‎계속 이야기를 했던 거예요 30 00:01:54,030 --> 00:01:55,406 ‎진짜 적응 안 되네요 31 00:01:58,409 --> 00:02:02,914 ‎거기 있을 때는 그게 ‎선을 위한 힘이라고 느껴졌는데 32 00:02:03,456 --> 00:02:05,375 ‎지금도 그런지는 모르겠어요 33 00:02:05,458 --> 00:02:10,588 ‎저는 윤리적 문제로 ‎2017년 6월에 구글을 떠났습니다 34 00:02:10,672 --> 00:02:14,134 ‎구글뿐만이 아니라 ‎업계 전반이 다 그랬어요 35 00:02:14,217 --> 00:02:15,385 ‎걱정이 많이 되네요 36 00:02:16,719 --> 00:02:17,679 ‎아주 많이요 37 00:02:19,097 --> 00:02:21,808 ‎이 도구들이 실제로 38 00:02:21,891 --> 00:02:27,814 ‎놀라운 것들을 이뤄냈다는 걸 ‎잊기가 정말로 쉽습니다 39 00:02:27,897 --> 00:02:31,943 ‎헤어진 가족을 만나게 했고 ‎장기 기증자도 찾았어요 40 00:02:32,026 --> 00:02:35,613 ‎의미 있는 시스템적인 변화가 41 00:02:35,697 --> 00:02:37,866 ‎전 세계에서 일어나고 있었어요 42 00:02:37,949 --> 00:02:40,201 ‎이런 플랫폼들 때문에요 ‎긍정적이었죠 43 00:02:40,827 --> 00:02:44,539 ‎우린 그 동전의 앞면에 ‎너무 혹했던 거예요 44 00:02:45,540 --> 00:02:48,585 ‎이런 것들은 공개하자마자 ‎생명을 얻게 돼요 45 00:02:48,668 --> 00:02:52,005 ‎그리고 사용자들의 사용 방법은 ‎우리의 예상과 많이 다릅니다 46 00:02:52,088 --> 00:02:56,509 ‎이런 결과를 의도한 사람은 ‎정말 아무도 없을 거예요 47 00:02:56,885 --> 00:02:59,554 ‎거대한 흑막은 없어요, 절대로요 48 00:03:01,639 --> 00:03:03,600 ‎그럼 뭐가 문제죠? 49 00:03:09,230 --> 00:03:11,357 ‎무슨 문제가 있나요? 뭐가 문제죠? 50 00:03:18,406 --> 00:03:20,158 ‎간단하게 말하기가 힘드네요 51 00:03:20,241 --> 00:03:22,118 ‎다른 많은 문제들을 ‎다루려고 하다 보니까요 52 00:03:22,577 --> 00:03:23,578 ‎뭐가 문제죠? 53 00:03:28,208 --> 00:03:32,253 ‎"NETFLIX 오리지널 다큐멘터리" 54 00:03:33,588 --> 00:03:35,340 ‎쏟아지는 비판에도 불구하고 55 00:03:35,423 --> 00:03:37,675 ‎거대 IT 기업들은 ‎더욱 커지고 있습니다 56 00:03:37,759 --> 00:03:40,929 ‎IT 산업 전체가 새로운 차원의 ‎감사를 받고 있습니다 57 00:03:41,012 --> 00:03:43,806 ‎그리고 정신 건강과 ‎소셜 미디어 사용의 관계를 58 00:03:43,890 --> 00:03:46,142 ‎조명하는 새로운 연구가 ‎진행 중인데 59 00:03:46,226 --> 00:03:48,478 ‎최근 연구에 대해 말씀해 주실... 60 00:03:49,187 --> 00:03:51,397 ‎그런데 아무도 이야기를 안 해요 61 00:03:51,481 --> 00:03:54,108 ‎수천만 명의 미국인들이 ‎그들의 전자 기기에 62 00:03:54,192 --> 00:03:56,319 ‎심각하게 중독되어 있는데 말이죠 63 00:03:56,402 --> 00:03:59,364 ‎말 그대로 거품 속에 ‎자신을 고립시킬 수 있다는 게 64 00:03:59,447 --> 00:04:00,698 ‎"사진에 태그되었습니다" 65 00:04:00,782 --> 00:04:02,742 ‎더 심해지고 있어요 ‎우리의 기술 덕분에 말이죠 66 00:04:02,825 --> 00:04:04,577 ‎가짜 뉴스가 더욱 발전하고 67 00:04:04,661 --> 00:04:06,788 ‎전 세계를 위협하고 있습니다 68 00:04:06,871 --> 00:04:10,333 ‎12년 전에 트위터를 만들었을 때 ‎이런 건 전혀 예상하지 못했습니다 69 00:04:10,416 --> 00:04:12,502 ‎러시아의 사이버 공격이 70 00:04:12,585 --> 00:04:14,754 ‎멈추는 일은 없을 것이라고 합니다 71 00:04:14,837 --> 00:04:18,132 ‎유튜브는 강제적으로 ‎사이트 정화에 힘을 쏟고 있습니다 72 00:04:18,216 --> 00:04:21,552 ‎틱톡에서 유소년들과 ‎이야기를 했다면 73 00:04:21,636 --> 00:04:24,013 ‎걔들이 그걸 지울 일은 ‎절대 없을 거예요 74 00:04:24,097 --> 00:04:26,266 ‎아일라, 테이블 준비 좀 해 줄래? 75 00:04:26,349 --> 00:04:27,517 ‎소셜 미디어가 아이들을 76 00:04:27,600 --> 00:04:29,978 ‎우울하게 만드는지에 대한 ‎의문이 떠오르고 있습니다 77 00:04:30,061 --> 00:04:32,105 ‎아일라, 테이블 준비해 줘 78 00:04:32,188 --> 00:04:35,316 ‎10대들에게 화장품의 인기가 ‎엄청나게 높아지고 있고 79 00:04:35,400 --> 00:04:37,902 ‎성형외과 의사들은 ‎필터를 먹인 셀카와 80 00:04:37,986 --> 00:04:40,822 ‎닮기를 원하는 젊은 환자들과 ‎스냅챗 이형증이라는 81 00:04:40,905 --> 00:04:43,741 ‎새로운 증후군을 만들어냈습니다 82 00:04:43,825 --> 00:04:45,910 ‎그러게 스마트폰을 ‎못 갖게 했어야지 83 00:04:45,994 --> 00:04:47,537 ‎그럼 어떡해? 84 00:04:47,620 --> 00:04:49,580 ‎다른 친구들은 다 있다잖아 85 00:04:50,164 --> 00:04:51,165 ‎쟨 겨우 11살이야 86 00:04:51,249 --> 00:04:52,959 ‎캐스, 아무도 강요하는 사람 없어 87 00:04:53,042 --> 00:04:55,086 ‎원하는 만큼 단절되어 지내도 돼 88 00:04:55,169 --> 00:04:59,340 ‎휴대폰 없어도 연결되어 있거든 ‎지금 인터넷에 접속해 있다고 89 00:04:59,424 --> 00:05:03,094 ‎그리고 그건 연결도 아니야 ‎그저 쓸모없는... 90 00:05:03,177 --> 00:05:06,514 ‎감시 자본주의는 많은 이들이 ‎인지하지 못하는 방식으로 91 00:05:06,597 --> 00:05:08,308 ‎우리의 정치, 문화에 ‎영향을 끼치고 있습니다 92 00:05:08,391 --> 00:05:10,101 ‎ISIS가 팔로워들을 선동하고 93 00:05:10,184 --> 00:05:12,812 ‎백인 우월주의자들도 ‎똑같이 하고 있습니다 94 00:05:12,895 --> 00:05:14,147 ‎최근에 인도에서는 95 00:05:14,230 --> 00:05:17,442 ‎인터넷 린치 마피아들이 ‎여러 명을 살해했는데... 96 00:05:17,525 --> 00:05:20,361 ‎단순한 가짜 뉴스로 끝나지 않고 ‎파문을 일으키고 있습니다 97 00:05:20,445 --> 00:05:24,073 ‎가짜 뉴스의 시대에 ‎어떻게 전염병을 다루죠? 98 00:05:24,157 --> 00:05:26,993 ‎중국 음식을 먹으면 ‎코로나바이러스에 걸리나요? 99 00:05:27,535 --> 00:05:32,540 ‎우린 정보화 사회에서 ‎허위 정보의 사회로 넘어왔습니다 100 00:05:32,623 --> 00:05:34,667 ‎우리 민주주의가 ‎공격받고 있습니다 101 00:05:34,751 --> 00:05:38,254 ‎제가 말했던 건 ‎우리가 만들었던 도구가 102 00:05:38,338 --> 00:05:41,799 ‎사회의 사회 구조를 ‎침식하기 시작했다는 겁니다 103 00:06:00,151 --> 00:06:03,446 ‎아사가 환영 인사를 하고 ‎우리가 영상을 틀어요 104 00:06:04,197 --> 00:06:07,325 ‎그리고 소개하는 거죠 ‎'여러분, 트리스탄 해리스입니다' 105 00:06:07,408 --> 00:06:08,826 ‎- 네 ‎- 좋아요 106 00:06:08,951 --> 00:06:12,038 ‎그럼 제가 올라와서... 107 00:06:12,121 --> 00:06:13,748 ‎"인간적인 기술에 대한 ‎새로운 의제" 108 00:06:13,831 --> 00:06:16,042 ‎와 줘서 고맙다는 말을 하는 거죠? 109 00:06:17,919 --> 00:06:22,048 ‎우리는 오늘 기술에 대한 ‎새로운 의제에 대해 얘기할 건데 110 00:06:22,131 --> 00:06:25,468 ‎그 이유가 뭐냐면 ‎요즘 사람들에게 물어보세요 111 00:06:25,551 --> 00:06:27,804 ‎요즘 IT 산업에서 ‎뭐가 잘못된 거냐고 말이죠 112 00:06:28,346 --> 00:06:31,641 ‎불만의 불협화음과 스캔들이 있고 113 00:06:31,724 --> 00:06:33,893 ‎데이터 절도와 기술 중독도 있고 114 00:06:33,976 --> 00:06:35,978 ‎가짜 뉴스, 분극화와 115 00:06:36,062 --> 00:06:37,688 ‎선거도 해킹되고 있습니다 116 00:06:38,189 --> 00:06:41,609 ‎하지만 이 동시다발적인 ‎문제들의 이면에 117 00:06:41,692 --> 00:06:44,654 ‎그 원인이 있는 걸까요? 118 00:06:46,447 --> 00:06:48,408 ‎- 어때요? ‎- 아주 좋아요 119 00:06:50,827 --> 00:06:52,954 ‎제가 하려는 건... ‎사람들에게 보여 주... 120 00:06:53,037 --> 00:06:55,206 ‎IT 산업에서 ‎일어나는 문제가 있는데 121 00:06:55,289 --> 00:07:00,211 ‎이름은 없지만 하나의 소스에서... 122 00:07:05,091 --> 00:07:09,387 ‎주변을 돌아보면 ‎세상이 미쳐가는 것 같아요 123 00:07:12,765 --> 00:07:15,143 ‎이게 정상인지 자문해 봐야 합니다 124 00:07:16,102 --> 00:07:18,771 ‎아니면 우리가 전부 ‎마법에 걸렸는지 말이죠 125 00:07:22,316 --> 00:07:25,153 ‎"트리스탄 해리스 ‎구글의 전 디자인 윤리학자" 126 00:07:25,236 --> 00:07:27,905 ‎"인간적 기술 센터 공동 창업자" 127 00:07:27,989 --> 00:07:30,491 ‎더 많은 사람들이 ‎이해했으면 좋겠습니다 128 00:07:30,575 --> 00:07:34,036 ‎IT 산업에서만 ‎알아야 하는 게 아니거든요 129 00:07:34,120 --> 00:07:36,289 ‎모두가 알아야만 하는 겁니다 130 00:07:47,383 --> 00:07:48,301 ‎- 안녕하세요 ‎- 안녕 131 00:07:48,843 --> 00:07:50,595 ‎- 트리스탄입니다, 반가워요 ‎- 트리스탄이죠? 132 00:07:50,678 --> 00:07:51,721 ‎- 네 ‎- 좋아요 133 00:07:53,181 --> 00:07:55,933 ‎트리스탄 해리스는 ‎구글의 전 디자인 윤리학자인데 134 00:07:56,017 --> 00:07:59,353 ‎실리콘 밸리에서 양심에 ‎가장 가까운 존재라 불립니다 135 00:07:59,437 --> 00:08:00,730 ‎그는 IT 산업에게 136 00:08:00,813 --> 00:08:04,192 ‎상품에 '윤리적인 디자인'을 ‎추가할 것을 요구하고 있습니다 137 00:08:04,275 --> 00:08:06,903 ‎IT 업계 사람이 ‎직설적인 경우는 드물지만 138 00:08:06,986 --> 00:08:10,114 ‎누군가는 이래야 한다고 ‎트리스탄 해리스는 믿습니다 139 00:08:11,324 --> 00:08:12,700 ‎제가 구글에 있을 때 140 00:08:12,783 --> 00:08:15,786 ‎지메일 팀에 있었는데 ‎굉장히 지치더라고요 141 00:08:16,120 --> 00:08:18,372 ‎대화를 너무 많이 했거든요 142 00:08:19,457 --> 00:08:23,169 ‎수신함의 모양과 색깔에 대해서요 143 00:08:23,252 --> 00:08:25,880 ‎그리고 개인적으로 ‎이메일에 중독되는 것 같았고 144 00:08:26,297 --> 00:08:27,632 ‎그 누구도 덜 중독적으로 145 00:08:27,715 --> 00:08:31,511 ‎만들려고 하지 않는 것에 ‎흥미를 느꼈습니다 146 00:08:31,969 --> 00:08:34,514 ‎그래서 이랬죠 ‎'나만 이런 생각을 하나?' 147 00:08:34,597 --> 00:08:36,390 ‎'왜 이런 얘기는 못 들은 거지?' 148 00:08:36,849 --> 00:08:41,229 ‎그래서 IT 업계 전반에서 ‎불만을 느꼈습니다 149 00:08:41,312 --> 00:08:43,147 ‎길을 잃은 것 같았거든요 150 00:08:46,817 --> 00:08:49,820 ‎저는 내부에서 ‎바꿀 방법을 찾기 위해 151 00:08:49,904 --> 00:08:52,573 ‎정말 고민을 많이 했습니다 152 00:08:55,201 --> 00:08:58,120 ‎그래서 프레젠테이션을 ‎만들기로 했어요 153 00:08:58,204 --> 00:08:59,497 ‎반향을 일으키려고요 154 00:09:00,998 --> 00:09:04,669 ‎매일 집에 가서 ‎두어 시간씩 작업을 했습니다 155 00:09:06,170 --> 00:09:11,884 ‎역사상 단 한 번도 ‎50명의 캘리포니아의 20, 35세의 156 00:09:12,426 --> 00:09:15,263 ‎백인 남성 디자이너들이 157 00:09:15,888 --> 00:09:19,725 ‎20억 명의 사람들에게 ‎영향을 끼친 적이 없었습니다 158 00:09:21,018 --> 00:09:24,438 ‎20억 명의 사람들은 ‎그들의 아침을 깨우는 159 00:09:24,522 --> 00:09:28,401 ‎알림 설정을 만든 ‎구글의 디자이너 때문에 160 00:09:28,484 --> 00:09:30,778 ‎전혀 새로운 생각을 하게 됐습니다 161 00:09:31,153 --> 00:09:35,283 ‎구글에겐 그 문제를 해결해야 하는 ‎도덕적인 책임이 있는 거죠 162 00:09:36,075 --> 00:09:37,743 ‎그리고 이 프레젠테이션을 163 00:09:37,827 --> 00:09:41,789 ‎구글의 가까운 동료 ‎15, 20명에게 보냈습니다 164 00:09:41,872 --> 00:09:44,667 ‎굉장히 긴장됐어요 ‎어떤 반응이 올지 몰랐으니까요 165 00:09:46,460 --> 00:09:48,045 ‎다음 날 출근을 해 보니 166 00:09:48,129 --> 00:09:50,464 ‎대부분의 노트북에 ‎제 프레젠테이션이 떠 있었어요 167 00:09:50,548 --> 00:09:52,049 ‎"주목" 168 00:09:52,133 --> 00:09:54,552 ‎그날 오후에는 동시 접속자가 ‎400명이나 됐고 169 00:09:54,635 --> 00:09:57,388 ‎그 수는 계속해서 늘어났어요 ‎회사 곳곳에서 이메일도 받았고요 170 00:09:58,180 --> 00:10:00,266 ‎모든 부서의 사람들이 이랬어요 171 00:10:00,349 --> 00:10:02,852 ‎'완전히 동의해요 ‎아이가 영향받는 게 보이거든요' 172 00:10:02,935 --> 00:10:06,856 ‎'주변 사람들도 그렇고요 ‎우리가 뭔가를 해야 해요' 173 00:10:07,481 --> 00:10:10,818 ‎마치 제가 혁명에 불씨를 ‎당긴 것만 같았죠 174 00:10:11,861 --> 00:10:15,197 ‎나중에 래리 페이지가 ‎그날 제 프레젠테이션에 대해서 175 00:10:15,281 --> 00:10:17,116 ‎세 번의 다른 회의에서 ‎들었다는 걸 알았습니다 176 00:10:17,950 --> 00:10:20,369 ‎구글이 진지하게 다뤄야만 하는 177 00:10:20,870 --> 00:10:23,205 ‎문화적인 움직임을 만들어낸 거죠 178 00:10:26,000 --> 00:10:27,460 ‎그러다가... 179 00:10:28,461 --> 00:10:29,337 ‎그게 다였어요 180 00:10:34,300 --> 00:10:36,135 ‎2006년에 우리 모두는... 181 00:10:37,219 --> 00:10:39,055 ‎페이스북도 포함해서요 182 00:10:39,305 --> 00:10:43,392 ‎구글과 구글이 이룬 것에 ‎감탄하고 있었습니다 183 00:10:43,476 --> 00:10:47,396 ‎굉장히 유용한 서비스로 184 00:10:47,480 --> 00:10:51,192 ‎우리가 알기에는 ‎세상에 좋은 일도 많이 했고 185 00:10:51,525 --> 00:10:54,695 ‎황금알을 낳는 ‎시스템을 만들었습니다 186 00:10:55,404 --> 00:11:00,034 ‎그게 정말 부러웠습니다 ‎그리고 정말 우아했고 187 00:11:00,826 --> 00:11:02,161 ‎완벽해 보였어요 188 00:11:02,953 --> 00:11:05,122 ‎페이스북은 2년 차를 ‎맞고 있었는데 189 00:11:05,873 --> 00:11:08,376 ‎저는 페이스북에 맞는 ‎비즈니스 모델을 찾기 위해 190 00:11:08,459 --> 00:11:10,586 ‎그들에게 고용되어 있었습니다 191 00:11:10,961 --> 00:11:13,422 ‎저는 수익 창출 이사였는데 ‎이런 거였어요 192 00:11:13,506 --> 00:11:16,592 ‎'어떻게 수익을 낼지 ‎당신이 알아내야 해' 193 00:11:17,134 --> 00:11:19,804 ‎많은 사람들이 많은 일을 했지만 194 00:11:19,887 --> 00:11:25,476 ‎그들을 지휘하는 ‎사람들 중 하나가 저였고 195 00:11:26,769 --> 00:11:28,437 ‎돈을 버는 게 최우선 목표였습니다 196 00:11:29,313 --> 00:11:33,651 ‎가장 우아한 광고 모델도 ‎찾으면서요 197 00:11:43,077 --> 00:11:44,453 ‎엄마가 어떤 영상을 보냈지? 198 00:11:44,537 --> 00:11:47,873 ‎토크쇼 영상인데 ‎꽤 괜찮아, 좀 천재 같더라 199 00:11:47,957 --> 00:11:50,584 ‎소셜 미디어 삭제를 얘기하던데 ‎너도 좀 지워야지? 200 00:11:50,668 --> 00:11:52,878 ‎엄마 이메일을 차단해야겠어 201 00:11:52,962 --> 00:11:56,090 ‎무슨 말을 하는 건지 모르겠네 ‎엄마가 나보다 더 심하잖아 202 00:11:56,173 --> 00:11:58,592 ‎- 레시피 찾을 때만 쓰는데? ‎- 일할 때도 쓰잖아 203 00:11:58,676 --> 00:12:00,511 ‎- 운동 영상도 보고 ‎- 우리 감시도 하지 204 00:12:00,594 --> 00:12:02,680 ‎여태 만났던 사람들의 삶도 ‎전부 엿보면서 말이야 205 00:12:04,932 --> 00:12:07,893 ‎우리 방송을 보면서 ‎소셜 미디어 피드를 보고 있다면 206 00:12:07,977 --> 00:12:11,731 ‎당장 스마트폰을 ‎내려두고 잘 들어요 207 00:12:11,814 --> 00:12:14,817 ‎왜냐하면 우리의 다음 손님이 ‎소셜 미디어가 우리의 삶을 208 00:12:14,900 --> 00:12:18,112 ‎얼마나 망쳤는지에 대한 ‎멋진 책을 썼거든요 209 00:12:18,195 --> 00:12:19,447 ‎모두 환영해 주세요 210 00:12:19,530 --> 00:12:24,452 ‎'당장 소셜 미디어를 ‎삭제해야 하는 10가지 이유'를 쓴 211 00:12:24,535 --> 00:12:25,786 ‎재런 래니어입니다 212 00:12:27,997 --> 00:12:31,834 ‎구글이나 페이스북 같은 회사는 ‎역사상 가장 부유하고 213 00:12:31,917 --> 00:12:33,544 ‎성공한 회사들입니다 214 00:12:34,295 --> 00:12:36,839 ‎직원은 상대적으로 적지만 215 00:12:36,922 --> 00:12:40,468 ‎거대한 컴퓨터로 ‎돈을 갈퀴로 쓸어담거든요 216 00:12:41,510 --> 00:12:45,222 ‎그들은 왜 돈을 벌까요? ‎이게 정말 중요한 질문이죠 217 00:12:47,308 --> 00:12:49,977 ‎저는 35년 동안 ‎IT 산업에 투자를 했습니다 218 00:12:51,020 --> 00:12:54,356 ‎첫 50년 동안 실리콘 밸리는 ‎상품을 만들었습니다 219 00:12:54,440 --> 00:12:58,402 ‎하드웨어, 소프트웨어를 파는 ‎단순한 사업이었죠 220 00:12:58,486 --> 00:13:01,447 ‎지난 10년 동안 ‎실리콘 밸리의 거대 회사들은 221 00:13:01,530 --> 00:13:03,866 ‎자신들의 사용자들을 ‎파는 사업을 했습니다 222 00:13:03,949 --> 00:13:05,910 ‎지금 말하기엔 좀 진부하지만 223 00:13:05,993 --> 00:13:09,205 ‎우리는 우리가 사용하는 ‎상품에 돈을 내지 않고 224 00:13:09,288 --> 00:13:12,166 ‎광고주들이 ‎우리가 쓰는 상품에 돈을 냅니다 225 00:13:12,249 --> 00:13:14,084 ‎광고주가 고객인 거죠 226 00:13:14,710 --> 00:13:16,086 ‎팔리는 건 우리고요 227 00:13:16,170 --> 00:13:17,630 ‎이런 말이 있어요 228 00:13:17,713 --> 00:13:21,592 ‎'상품의 대가를 치르지 않으면 ‎네가 상품이다' 229 00:13:21,675 --> 00:13:23,302 ‎"네가 상품이다" 230 00:13:23,385 --> 00:13:27,223 ‎많은 사람들이 이렇게 생각해요 ‎구글은 그저 검색 엔진이고 231 00:13:27,306 --> 00:13:30,601 ‎페이스북은 친구들의 사생활과 ‎사진을 볼 수 있는 곳이라고요 232 00:13:31,185 --> 00:13:33,020 ‎하지만 사람들이 모르는 건 233 00:13:33,729 --> 00:13:35,481 ‎당신의 관심을 놓고 ‎그들이 경쟁한다는 겁니다 234 00:13:36,524 --> 00:13:41,111 ‎페이스북, 스냅챗, 트위터 ‎인스타그램, 유튜브 235 00:13:41,195 --> 00:13:45,282 ‎이런 회사들은 사람들의 눈을 ‎계속 잡아 두려고 합니다 236 00:13:46,283 --> 00:13:49,578 ‎그들은 사용자의 관심을 ‎최대한으로 끌 237 00:13:49,662 --> 00:13:50,955 ‎방법을 찾으려 고민합니다 238 00:13:51,455 --> 00:13:53,374 ‎얼마나 많은 시간을 쓰게 할까? 239 00:13:53,874 --> 00:13:56,669 ‎인생의 몇 퍼센트나 ‎우리에게 바치게 할까? 240 00:13:58,712 --> 00:14:01,090 ‎이런 회사들이 ‎돌아가는 방식을 보면 241 00:14:01,173 --> 00:14:02,424 ‎이해가 됩니다 242 00:14:03,050 --> 00:14:06,095 ‎공짜처럼 보이는 서비스가 ‎인터넷에 많이 있는데 243 00:14:06,178 --> 00:14:09,473 ‎공짜가 아니에요 ‎광고주가 돈을 대는 거죠 244 00:14:09,557 --> 00:14:11,559 ‎왜 광고주가 ‎그런 회사들에게 돈을 줄까요? 245 00:14:11,642 --> 00:14:14,687 ‎우리에게 ‎광고를 보여 주기 위해서예요 246 00:14:14,770 --> 00:14:15,729 ‎우리가 상품인 거예요 247 00:14:15,813 --> 00:14:18,357 ‎우리의 관심이 광고주에게 ‎상품으로 팔리는 거죠 248 00:14:18,816 --> 00:14:20,442 ‎그건 너무 단순해요 249 00:14:20,818 --> 00:14:23,654 ‎개인의 점진적이고 눈에 띄지 않는 250 00:14:23,737 --> 00:14:26,282 ‎행동과 인식의 변화가 ‎상품인 것입니다 251 00:14:26,365 --> 00:14:27,575 ‎"행동과 인식의 변화" 252 00:14:27,950 --> 00:14:30,244 ‎바로 그게 유일한 상품이에요 253 00:14:30,327 --> 00:14:33,789 ‎다른 건 상품이라고 ‎할 만한 게 없죠 254 00:14:34,164 --> 00:14:36,834 ‎그들이 돈을 벌 수 있는 ‎유일한 수단이니까요 255 00:14:37,668 --> 00:14:39,253 ‎당신의 행동을 바꾸고 256 00:14:39,336 --> 00:14:41,714 ‎사고방식과 ‎정체성을 바꾸는 거예요 257 00:14:42,631 --> 00:14:45,301 ‎아주 점진적인 변화예요 258 00:14:45,384 --> 00:14:48,971 ‎누군가에게서 천만 달러를 받고 259 00:14:49,054 --> 00:14:54,310 ‎세상을 원하는 방향으로 ‎1% 바꿔 주겠다고 하는 거예요 260 00:14:54,894 --> 00:14:58,188 ‎세상을 말이에요, 정말 놀랍고 ‎엄청나게 많은 돈이죠 261 00:14:59,315 --> 00:15:00,149 ‎그래요 262 00:15:00,691 --> 00:15:04,570 ‎모든 사업이 늘 꿈꾸던 일이에요 263 00:15:04,653 --> 00:15:10,910 ‎성공이 보장된 ‎광고 공간을 갖는 것 말이죠 264 00:15:11,327 --> 00:15:13,996 ‎그게 그들의 사업이에요 ‎확실성을 파는 거죠 265 00:15:14,079 --> 00:15:14,914 ‎"확실성" 266 00:15:14,997 --> 00:15:17,625 ‎그쪽 업계에서 성공하려면 267 00:15:17,708 --> 00:15:19,585 ‎선견지명이 필요해요 268 00:15:19,668 --> 00:15:20,544 ‎"선견지명" 269 00:15:20,628 --> 00:15:24,173 ‎선견지명에는 ‎꼭 필요한 것이 있습니다 270 00:15:25,215 --> 00:15:26,926 ‎방대한 양의 데이터죠 271 00:15:27,009 --> 00:15:29,053 ‎"데이터" 272 00:15:29,136 --> 00:15:31,555 ‎많은 사람들이 ‎이걸 감시 자본주의라고 부릅니다 273 00:15:31,639 --> 00:15:34,350 ‎광고주들의 성공을 위해서 274 00:15:34,433 --> 00:15:38,062 ‎모든 사용자들을 ‎무제한으로 추적하는 275 00:15:38,145 --> 00:15:39,605 ‎비즈니스 모델을 가진 276 00:15:39,772 --> 00:15:42,858 ‎거대 IT 기업들의 ‎자본주의 말이에요 277 00:15:42,942 --> 00:15:45,569 ‎이건 새로운 시장이에요 278 00:15:45,653 --> 00:15:48,072 ‎예전에는 없었던 시장이죠 279 00:15:48,822 --> 00:15:55,371 ‎인간이 선물로 거래되는 ‎시장인 것이에요 280 00:15:56,372 --> 00:16:01,585 ‎삼겹살 선물 시장이나 ‎원유 선물 시장처럼 281 00:16:02,127 --> 00:16:07,591 ‎지금 우리에겐 인간이 선물로 ‎거래되는 대규모 시장이 있어요 282 00:16:08,175 --> 00:16:13,472 ‎그리고 인터넷 회사들은 ‎그 시장에서 283 00:16:14,014 --> 00:16:19,269 ‎수조 달러를 벌어들여 ‎인류의 역사상 284 00:16:19,353 --> 00:16:22,356 ‎가장 부유한 회사들이 된 겁니다 285 00:16:27,444 --> 00:16:31,073 ‎제가 사람들이 알았으면 하는 건 ‎우리의 모든 온라인 활동이 286 00:16:31,156 --> 00:16:34,326 ‎감시되고, 추적되고 ‎측량된다는 것입니다 287 00:16:35,035 --> 00:16:39,623 ‎당신의 모든 행동이 ‎세심히 관찰되고 기록됩니다 288 00:16:39,707 --> 00:16:43,836 ‎무슨 이미지를 ‎얼마나 오래 봤는지도 말이죠 289 00:16:43,919 --> 00:16:45,796 ‎네, 정말 얼마나 ‎오래 봤는지도 기록해요 290 00:16:45,879 --> 00:16:47,548 ‎"Naviya_R, 활동 시간" 291 00:16:47,631 --> 00:16:49,341 ‎"Ryan_M, 활동 시간" 292 00:16:49,425 --> 00:16:50,426 ‎"Wren_F, 활동 시간" 293 00:16:50,509 --> 00:16:53,804 ‎사람들이 외로워하거나 ‎우울해 하는 것도 알아요 294 00:16:53,887 --> 00:16:57,099 ‎사용자가 전 애인의 사진을 보면 ‎알 수 있는 거죠 295 00:16:57,182 --> 00:17:00,019 ‎밤에 뭘 하는지도 알고 ‎모르는 게 없어요 296 00:17:01,270 --> 00:17:03,230 ‎내성적인지 외향적인지 297 00:17:03,313 --> 00:17:06,817 ‎어떤 신경증을 갖고 있는지 ‎성격은 어떤지도 다 알고요 298 00:17:08,193 --> 00:17:11,613 ‎그들은 우리에 대한 정보를 ‎우리는 상상도 할 수 없을 정도로 299 00:17:11,697 --> 00:17:14,324 ‎많이 갖고 있습니다 300 00:17:14,950 --> 00:17:16,368 ‎전례 없는 일이죠 301 00:17:18,579 --> 00:17:22,791 ‎이 모든 데이터가 ‎항상 쏟아지고 있습니다 302 00:17:22,875 --> 00:17:26,754 ‎인간의 간섭이 ‎거의 전무한 시스템으로 말이죠 303 00:17:27,463 --> 00:17:30,883 ‎그리고 우리가 무엇을 할 것이며 304 00:17:30,966 --> 00:17:33,552 ‎우리가 누구인지 ‎점점 더 잘 예측하고 있습니다 305 00:17:34,887 --> 00:17:36,346 ‎"추천 목록" 306 00:17:36,430 --> 00:17:39,558 ‎많은 사람들은 그런 데이터가 ‎팔린다고 오해하고 있어요 307 00:17:40,350 --> 00:17:43,187 ‎그런 데이터를 포기하는 건 ‎페이스북의 관심사가 아닙니다 308 00:17:45,522 --> 00:17:47,107 ‎그 데이터로 뭘 하는 걸까요? 309 00:17:51,070 --> 00:17:54,490 ‎그들은 우리의 행동을 ‎예측하는 모델을 만들고 310 00:17:54,573 --> 00:17:57,618 ‎최고의 모델을 가진 이가 ‎승리하는 겁니다 311 00:18:02,706 --> 00:18:04,041 ‎스크롤 속도가 느려졌어 312 00:18:04,124 --> 00:18:07,002 ‎평균 사용 시간이 ‎거의 다 되었어, 광고 줄여 313 00:18:07,086 --> 00:18:08,337 ‎친구, 가족의 사진을 끌어와 314 00:18:09,671 --> 00:18:11,340 ‎마치 화면 반대편에 315 00:18:11,423 --> 00:18:15,469 ‎우리를 본뜬 인형이 ‎그들에게 있는 것 같아요 316 00:18:16,845 --> 00:18:18,180 ‎우리가 한 모든 것들 317 00:18:18,263 --> 00:18:19,473 ‎우리가 클릭한 모든 것들 318 00:18:19,556 --> 00:18:21,642 ‎우리가 모든 영상들과 ‎좋아요를 눌렀던 것들로 319 00:18:21,725 --> 00:18:25,354 ‎점점 더 정확한 모델을 ‎만들고 있는 겁니다 320 00:18:25,896 --> 00:18:27,481 ‎그런 모델이 있으면 321 00:18:27,564 --> 00:18:29,858 ‎사용자의 행동을 ‎예측할 수 있게 되죠 322 00:18:30,234 --> 00:18:31,777 ‎좋아, 시험해 보자고 323 00:18:32,569 --> 00:18:33,487 ‎어디로 갈 건지 324 00:18:33,570 --> 00:18:36,115 ‎어떤 종류의 영상을 더 볼 건지 ‎예측할 수 있고 325 00:18:36,198 --> 00:18:39,159 ‎어떤 감정이 당신을 자극하는지도 ‎예측할 수 있어요 326 00:18:39,243 --> 00:18:40,410 ‎그래, 완벽해 327 00:18:41,578 --> 00:18:42,788 ‎올해의 가장 큰 실패로군 328 00:18:43,747 --> 00:18:44,665 ‎"가장 큰 실패!" 329 00:18:48,627 --> 00:18:51,088 ‎- 완벽해, 먹혔어 ‎- 다른 비디오 띄울게 330 00:18:51,171 --> 00:18:54,049 ‎아주 좋아, 시작 전에 ‎신발 광고 끼워 넣자 331 00:18:56,510 --> 00:18:59,721 ‎많은 이런 IT 회사에는 ‎세 가지 목표가 있습니다 332 00:18:59,805 --> 00:19:03,517 ‎시작 목표는 사용자의 ‎사용 시간을 늘리는 것이에요 333 00:19:04,601 --> 00:19:06,145 ‎그리고 성장 목표는 334 00:19:06,228 --> 00:19:08,647 ‎계속 찾게 만들고 ‎친구들을 초대하게 해서 335 00:19:08,730 --> 00:19:10,732 ‎그 친구들이 친구들을 ‎또 초대하게 만드는 겁니다 336 00:19:11,650 --> 00:19:14,987 ‎그리고 광고 목표가 있는데 ‎광고를 이용해서 337 00:19:15,070 --> 00:19:17,406 ‎최대한 많은 돈을 ‎벌어들이는 겁니다 338 00:19:19,283 --> 00:19:21,994 ‎각각의 목표는 ‎수치들을 올리기 위해 339 00:19:22,077 --> 00:19:24,454 ‎사용자들의 성향을 파악하는 340 00:19:24,538 --> 00:19:26,165 ‎알고리즘에 의해 움직입니다 341 00:19:26,623 --> 00:19:29,918 ‎우리는 페이스북에서 ‎종종 이야기했어요 342 00:19:30,002 --> 00:19:34,006 ‎필요한 만큼 ‎조작할 수 있는 것에 대해서요 343 00:19:34,673 --> 00:19:38,594 ‎그리고 마크가 조작 권한을 ‎갖는 것에 대해서도요 344 00:19:41,305 --> 00:19:44,474 ‎'오늘은 한국의 사용자 수가 ‎늘었으면 좋겠어' 345 00:19:45,684 --> 00:19:46,602 ‎누워서 떡 먹기지 346 00:19:47,436 --> 00:19:49,188 ‎'광고를 조금 더 넣자' 347 00:19:49,980 --> 00:19:51,732 ‎'이익 창출을 조금만 더 높여' 348 00:19:53,150 --> 00:19:55,444 ‎그래서... 349 00:19:55,527 --> 00:19:59,239 ‎모든 IT 회사가 ‎그 정도는 다 갖추고 있습니다 350 00:19:59,990 --> 00:20:02,409 ‎- 야, 어떻게... ‎- 어떻게 안 걸렸는지 모르겠어 351 00:20:02,492 --> 00:20:05,704 ‎- 심판이 완전 허수아비였어 ‎- 진짜 완전히... 352 00:20:05,787 --> 00:20:07,956 ‎- 리베카야, 가서 말 걸어 ‎- 누군지 알거든 353 00:20:08,040 --> 00:20:10,834 ‎- 가서 말 걸어 보라니까 ‎- 노력 중이야 354 00:20:10,918 --> 00:20:14,171 ‎지금 쉬는 시간일 건데 ‎우리 앱이 꺼져 있어 355 00:20:15,255 --> 00:20:16,465 ‎슬쩍 떠밀어 볼까? 356 00:20:17,132 --> 00:20:18,050 ‎그래, 떠밀어 봐 357 00:20:21,720 --> 00:20:24,181 ‎'네 친구 타일러가 가입했어 ‎환영해 주도록 해' 358 00:20:26,016 --> 00:20:27,184 ‎제발, 좀 359 00:20:27,267 --> 00:20:28,769 ‎환영해 줘 360 00:20:29,394 --> 00:20:31,647 ‎노력은 무슨, 가서 말 걸어 봐 361 00:20:31,730 --> 00:20:34,900 ‎"네 친구 타일러가 가입했어 ‎환영해 주도록 해" 362 00:20:36,902 --> 00:20:37,986 ‎"네트워크 연결" 363 00:20:38,070 --> 00:20:40,447 ‎새 링크! 좋아, 연결됐어 364 00:20:40,948 --> 00:20:46,078 ‎사용자 079044238820 ‎리베카의 포스트도 띄워 365 00:20:46,161 --> 00:20:49,790 ‎좋은 생각이야, GPS에 따르면 ‎지금 둘이 가까이 있어 366 00:20:52,167 --> 00:20:55,837 ‎"Rebecca_G ‎쏠메 발견! #절친 #평생친구" 367 00:20:55,921 --> 00:20:57,172 ‎광고 볼 준비가 됐군 368 00:20:57,631 --> 00:20:58,632 ‎경매 시간 369 00:20:58,715 --> 00:21:00,050 ‎"광고 미리 보기 ‎딥 페이드 왁스" 370 00:21:00,133 --> 00:21:02,803 ‎낙찰! 딥 페이드 왁스 371 00:21:03,387 --> 00:21:07,933 ‎468명이 입찰했고 ‎3.262센트에 벤에게 팔았어 372 00:21:17,109 --> 00:21:21,530 ‎우리는 온라인 연결이 ‎더 중요한 세상을 만들었어요 373 00:21:22,072 --> 00:21:23,907 ‎특히 젊은 세대들에게 말이죠 374 00:21:23,991 --> 00:21:28,328 ‎그리고 그 세계에서 ‎두 사람이 연결될 때 375 00:21:29,162 --> 00:21:33,250 ‎두 사람의 조종에 돈을 지불하는 ‎교활한 제삼자를 통해서만 376 00:21:33,333 --> 00:21:35,627 ‎자금이 조달됩니다 377 00:21:36,128 --> 00:21:39,381 ‎즉, 우리는 전 세계에서 ‎소통과 문화의 의미가 378 00:21:39,464 --> 00:21:44,011 ‎조작이라는 맥락 안에서 ‎성장하는 세대를 379 00:21:44,094 --> 00:21:47,431 ‎만들어내고 만 것입니다 380 00:21:47,514 --> 00:21:49,725 ‎우리는 우리가 하는 ‎모든 일의 중심에 381 00:21:49,808 --> 00:21:52,311 ‎기만과 은밀함을 둔 거예요 382 00:21:55,981 --> 00:22:01,445 ‎"충분히 발달한 과학 기술은 ‎마법과 구별할 수 없다" 383 00:22:01,528 --> 00:22:05,657 ‎"아서 C 클라크" 384 00:22:05,741 --> 00:22:07,242 ‎- 다른 걸 잡... ‎- 네 385 00:22:07,326 --> 00:22:09,369 ‎- 어디를 잡아야 하죠? ‎- 그렇게 하시면 돼요 386 00:22:09,453 --> 00:22:10,620 ‎- 여기요? ‎- 네 387 00:22:10,704 --> 00:22:13,707 ‎이렇게 하면 카메라에는 ‎어떻게 찍히는 거죠? 388 00:22:13,790 --> 00:22:15,459 ‎- 실은 저희가... ‎- 이렇게 말이죠 389 00:22:15,542 --> 00:22:16,835 ‎- 뭐죠? ‎- 네 390 00:22:16,918 --> 00:22:18,462 ‎- 다시 해 봐요 ‎- 그러니까요 391 00:22:19,046 --> 00:22:20,589 ‎아니, 이건 좀... 392 00:22:22,466 --> 00:22:23,884 ‎그리고 이건 좀 덜... 393 00:22:31,016 --> 00:22:33,268 ‎지금 크리스는 ‎기절할 것 같은 표정이네요 394 00:22:34,728 --> 00:22:35,562 ‎좀 괜찮아요? 395 00:22:35,645 --> 00:22:37,773 ‎"마술!" 396 00:22:37,856 --> 00:22:41,068 ‎저는 5살 때 마술을 배웠습니다 397 00:22:41,151 --> 00:22:45,781 ‎그리고 어른도 속일 수 있었어요 ‎박사 학위가 있는 사람도요 398 00:22:55,040 --> 00:22:57,709 ‎마술사들은 ‎최초의 신경 과학자이자 399 00:22:57,793 --> 00:22:58,960 ‎심리학자였어요 400 00:22:59,044 --> 00:23:02,005 ‎사람들의 심리가 ‎어떻게 작용하는지 401 00:23:02,089 --> 00:23:03,382 ‎최초로 이해했거든요 402 00:23:04,216 --> 00:23:07,260 ‎그들은 실시간으로 ‎사람들에게 많은 실험을 했습니다 403 00:23:09,137 --> 00:23:11,139 ‎마술사들은 이해하는 거예요 404 00:23:11,223 --> 00:23:14,017 ‎우리는 알지도 못하는 ‎심리의 일면을 말이죠 405 00:23:14,101 --> 00:23:15,936 ‎그래서 환각이 이뤄지는 겁니다 406 00:23:16,019 --> 00:23:20,607 ‎의사, 변호사, 비행기 엔지니어나 ‎핵미사일을 만드는 사람들도 407 00:23:20,690 --> 00:23:24,361 ‎자신의 심리가 ‎얼마나 취약한지 모릅니다 408 00:23:24,444 --> 00:23:26,113 ‎별도로 훈련을 해야 하죠 409 00:23:26,571 --> 00:23:28,990 ‎그리고 그건 모든 사람에게 ‎다 적용됩니다 410 00:23:29,074 --> 00:23:30,909 ‎"스탠퍼드 대학교" 411 00:23:30,992 --> 00:23:34,079 ‎그런 관점에서 보면 ‎기술이 뭘 하고 있는지에 대해 412 00:23:34,162 --> 00:23:35,580 ‎다르게 이해할 수 있습니다 413 00:23:36,873 --> 00:23:41,044 ‎전 스탠퍼드 설득 기술 연구소에서 ‎그런 것들을 배웠습니다 414 00:23:41,628 --> 00:23:43,463 ‎사람들을 설득하는 심리학에 대해 415 00:23:43,547 --> 00:23:45,882 ‎우리가 아는 모든 것들을 416 00:23:45,966 --> 00:23:48,385 ‎어떻게 기술과 접목했을까요? 417 00:23:48,468 --> 00:23:50,887 ‎관객 중 많은 분이 이미 천재예요 418 00:23:50,971 --> 00:23:55,851 ‎하지만 제 목적은 여러분을 ‎행동 변화의 천재로 만드는 겁니다 419 00:23:56,852 --> 00:24:01,148 ‎실리콘 밸리의 저명한 인사들이 ‎그 수업을 많이 들었습니다 420 00:24:01,231 --> 00:24:05,485 ‎페이스북, 우버와 다른 회사들의 ‎주요 인물들이 421 00:24:05,569 --> 00:24:09,197 ‎더 설득력 있는 기술을 ‎만드는 법을 배웠죠 422 00:24:09,614 --> 00:24:10,782 ‎트리스탄도 거기 있었죠 423 00:24:12,284 --> 00:24:16,580 ‎설득 기술은 ‎누군가의 행동을 바꾸기 위해 424 00:24:16,663 --> 00:24:18,874 ‎극단적으로 설계된 디자인입니다 425 00:24:18,957 --> 00:24:20,542 ‎사용자가 ‎특정한 행동을 하게 만들고 426 00:24:20,625 --> 00:24:23,336 ‎스크롤을 ‎멈출 수 없게 하려고 말이죠 427 00:24:23,420 --> 00:24:26,256 ‎새로 고침을 하면 ‎새로운 게 제일 위에 뜰 겁니다 428 00:24:26,339 --> 00:24:28,508 ‎새로 고침을 하면 또 달라지고요 ‎매번 말이죠 429 00:24:28,592 --> 00:24:33,722 ‎심리학에서는 그걸 ‎간헐적 정적 강화라고 합니다 430 00:24:33,805 --> 00:24:37,142 ‎언제 뜰지도 모르고 ‎뭐가 뜰지도 모르는 게 431 00:24:37,225 --> 00:24:40,061 ‎라스베이거스의 ‎슬롯머신과 완전히 똑같죠 432 00:24:40,145 --> 00:24:42,230 ‎상품을 계속해서 ‎쓰게 만드는 것도 모자라서 433 00:24:42,314 --> 00:24:44,024 ‎뇌간 깊숙한 곳으로 들어가 434 00:24:44,107 --> 00:24:47,652 ‎여러분에게 ‎무의식적인 습관을 심어서 435 00:24:47,736 --> 00:24:50,864 ‎심층부에서부터 ‎프로그래밍을 하는 겁니다 436 00:24:50,947 --> 00:24:52,115 ‎아주 은밀하게 말이죠 437 00:24:52,532 --> 00:24:54,034 ‎제임스 마셜이라는 자는... 438 00:24:54,117 --> 00:24:56,286 ‎책상 위의 스마트폰을 볼 때마다 439 00:24:56,369 --> 00:24:59,789 ‎계속 눈이 가고 ‎손이 가기 마련이에요 440 00:24:59,873 --> 00:25:01,333 ‎재밌는 게 있을 것 같거든요 441 00:25:01,416 --> 00:25:03,877 ‎그리고 슬롯머신을 당겨 보는 거죠 442 00:25:04,294 --> 00:25:06,046 ‎그건 우연이 아니라 ‎그렇게 디자인된 거예요 443 00:25:06,129 --> 00:25:11,134 ‎샌프란시스코의 육군 장교에게 ‎그는 황금 덩어리를 가져갔어 444 00:25:12,219 --> 00:25:15,388 ‎샌프란시스코의 ‎당시 인구는 고작... 445 00:25:15,472 --> 00:25:17,432 ‎다른 예시는 포토 태그예요 446 00:25:19,726 --> 00:25:24,064 ‎친구가 당신을 방금 사진에 ‎태그했다는 이메일을 받으면 447 00:25:24,147 --> 00:25:28,568 ‎당연히 이메일을 클릭하고 ‎사진을 보겠죠 448 00:25:29,152 --> 00:25:31,821 ‎그건 그냥 무시할 수 있는 게 ‎아니에요 449 00:25:32,364 --> 00:25:36,326 ‎인간 심리의 아주 깊숙한 곳을 ‎건드리는 것이니까요 450 00:25:36,409 --> 00:25:38,078 ‎근데 이런 질문을 하셔야 해요 451 00:25:38,161 --> 00:25:40,288 ‎'왜 이메일에 ‎사진이 안 들어 있는 거지?' 452 00:25:40,372 --> 00:25:42,165 ‎'그러면 간편할 텐데' 453 00:25:42,541 --> 00:25:45,919 ‎페이스북이 그걸 발견했을 때 ‎그들은 그걸 최대화했습니다 454 00:25:46,002 --> 00:25:48,505 ‎활동량을 늘리기에 ‎좋은 방법이 될 거라며 455 00:25:48,588 --> 00:25:51,091 ‎사람들이 종일 사진에 ‎태그를 하게 만들었어요 456 00:25:56,263 --> 00:25:58,890 ‎"Ben_W ‎적어도 한 사람은 잘 나왔네" 457 00:25:59,349 --> 00:26:00,475 ‎댓글을 달았어 458 00:26:00,559 --> 00:26:01,434 ‎좋아 459 00:26:01,935 --> 00:26:04,688 ‎리베카가 댓글을 봤고 ‎대댓글을 다는 중이야 460 00:26:04,771 --> 00:26:07,566 ‎리베카가 타이핑 중이라고 ‎벤에게 알려 줘 461 00:26:07,649 --> 00:26:08,733 ‎말줄임표 활성화 462 00:26:19,411 --> 00:26:20,745 ‎좋아, 이모지를 달았어 463 00:26:21,454 --> 00:26:24,249 ‎이제 벤이 자신의 댓글에 달린 ‎댓글에 다시 댓글을 달고 있어 464 00:26:25,041 --> 00:26:26,418 ‎잠깐, 타이핑을 멈췄어 465 00:26:26,751 --> 00:26:27,752 ‎자동 완성을 쓰자 466 00:26:28,420 --> 00:26:30,005 ‎이모지야, 벤은 이모지 좋아하거든 467 00:26:31,381 --> 00:26:33,758 ‎"자동 완성 완료, 실행" 468 00:26:33,842 --> 00:26:34,676 ‎불꽃을 선택했어 469 00:26:35,427 --> 00:26:36,803 ‎난 가지를 선택하길 바랐는데 470 00:26:38,597 --> 00:26:42,726 ‎'그로스 해킹'이라는 ‎분야가 있어요 471 00:26:42,809 --> 00:26:47,147 ‎엔지니어들이 사람들의 ‎심리를 해킹해서 472 00:26:47,230 --> 00:26:48,565 ‎더 성장하는 거예요 473 00:26:48,648 --> 00:26:50,984 ‎더 많은 신규 사용자를 늘리고 ‎활동량도 늘리고 474 00:26:51,067 --> 00:26:52,861 ‎더 많은 이들을 초대하게 만들어요 475 00:26:52,944 --> 00:26:55,697 ‎모든 실험을 하고 ‎다시 반복한 다음에 476 00:26:56,072 --> 00:26:57,574 ‎우리가 깨달은 게 뭔지 아세요? 477 00:26:57,991 --> 00:26:59,826 ‎10일 안에 ‎7명의 친구를 데려오는 것 478 00:26:59,909 --> 00:27:01,870 ‎"차마스 팔리하피티야 ‎전 페이스북 부사장" 479 00:27:01,953 --> 00:27:02,787 ‎그게 다예요 480 00:27:02,871 --> 00:27:05,498 ‎차마스는 초기 페이스북의 ‎성장 책임자였고 481 00:27:05,582 --> 00:27:08,835 ‎IT 업계에서 굉장히 유명합니다 482 00:27:08,960 --> 00:27:11,004 ‎페이스북을 급성장시킨 483 00:27:11,087 --> 00:27:14,758 ‎성장 전략들을 ‎개발한 것으로 말이죠 484 00:27:14,841 --> 00:27:18,553 ‎그리고 그 성장 전략들은 ‎실리콘 밸리의 교본이 되었습니다 485 00:27:18,637 --> 00:27:21,222 ‎우버를 비롯한 ‎다른 회사에서도 사용했죠 486 00:27:21,306 --> 00:27:27,062 ‎그가 개척한 것 중의 하나는 ‎작은 변화를 이용하는 487 00:27:27,145 --> 00:27:28,480 ‎과학적인 A/B 테스트예요 488 00:27:29,022 --> 00:27:30,940 ‎구글이나 페이스북 같은 회사들은 489 00:27:31,024 --> 00:27:34,569 ‎사용자들을 상대로 작은 실험들을 490 00:27:34,653 --> 00:27:36,821 ‎엄청나게 많이 하고 있습니다 491 00:27:36,905 --> 00:27:39,866 ‎그리고 그런 실험을 계속하다 보면 492 00:27:39,949 --> 00:27:43,036 ‎사용자들을 조종할 수 있는 493 00:27:43,119 --> 00:27:45,288 ‎가장 효과적인 방법을 ‎개발하게 됩니다 494 00:27:45,372 --> 00:27:46,790 ‎조작인 거죠 495 00:27:47,332 --> 00:27:49,209 ‎실험실 쥐가 된 기분이에요 496 00:27:49,834 --> 00:27:51,920 ‎실험실 쥐 맞아요 ‎우리 모두가 그렇죠 497 00:27:52,545 --> 00:27:55,548 ‎암 치료제 개발에 ‎쓰이는 실험실 쥐도 아니고 498 00:27:55,632 --> 00:27:58,134 ‎그들이 우리에게 ‎뭔가를 주려는 것도 아니에요 499 00:27:58,218 --> 00:28:01,680 ‎우린 그냥 광고만 보는 ‎좀비일 뿐이에요 500 00:28:01,763 --> 00:28:03,181 ‎그들이 돈을 더 벌 수 있게 말이죠 501 00:28:03,556 --> 00:28:08,228 ‎페이스북에서는 소위 ‎'대규모 전염 실험'이란 걸 했어요 502 00:28:08,311 --> 00:28:09,145 ‎좋아 503 00:28:09,229 --> 00:28:12,857 ‎'페이스북 페이지에서 ‎어떻게 무의식적인 암시를 줘서' 504 00:28:13,400 --> 00:28:17,570 ‎'사람들이 중간 선거에 ‎투표를 더 하게 만들까?' 505 00:28:17,987 --> 00:28:20,824 ‎그리고 그게 가능하다는 걸 ‎그들이 알게 됐어요 506 00:28:20,907 --> 00:28:24,160 ‎한 가지 결론은 ‎이제 우리도 알고 있습니다 507 00:28:24,744 --> 00:28:28,915 ‎그들은 아무도 모르게 사용자들의 508 00:28:28,998 --> 00:28:32,877 ‎실제 행동과 감정을 ‎끌어낼 수 있다는 것이죠 509 00:28:33,378 --> 00:28:37,382 ‎사용자들은 꿈에도 몰라요 510 00:28:38,049 --> 00:28:41,970 ‎우리는 인공지능 엔진들을 ‎우리에게 써서 511 00:28:42,053 --> 00:28:46,224 ‎우리가 무엇에 어떻게 반응하는지 ‎알아내고 있습니다 512 00:28:47,100 --> 00:28:49,561 ‎마치 거미의 신경 세포를 자극해서 513 00:28:49,644 --> 00:28:51,479 ‎무엇이 다리를 움직이는지 ‎알아내는 것과 같죠 514 00:28:51,938 --> 00:28:53,940 ‎일종의 감옥 실험 같은 겁니다 515 00:28:54,023 --> 00:28:56,735 ‎사람들을 매트릭스로 끌어들여서 516 00:28:56,818 --> 00:29:00,572 ‎그들의 활동에서 나오는 ‎돈과 데이터로 517 00:29:00,655 --> 00:29:01,489 ‎이익을 얻는 거죠 518 00:29:01,573 --> 00:29:03,199 ‎근데 우리는 그 사실도 모르고요 519 00:29:04,117 --> 00:29:07,912 ‎우리는 최대한 빨리 심리적으로 ‎당신을 조작할 방법을 알아내고 520 00:29:07,996 --> 00:29:10,081 ‎말초적인 보상을 주려고 합니다 521 00:29:10,165 --> 00:29:12,542 ‎페이스북은 그걸 너무 잘했고 522 00:29:12,625 --> 00:29:14,919 ‎인스타그램과 왓츠앱도 했어요 523 00:29:15,003 --> 00:29:17,380 ‎스냅챗도, 트위터도 그랬고요 524 00:29:17,464 --> 00:29:19,424 ‎저 같은 해커들이나 525 00:29:19,507 --> 00:29:22,427 ‎떠올릴 법한 발상입니다 526 00:29:22,510 --> 00:29:27,015 ‎인간 심리의 취약한 면을 ‎착취하는 것이니까요 527 00:29:27,098 --> 00:29:28,725 ‎"션 파커 ‎전 페이스북 회장" 528 00:29:28,808 --> 00:29:33,438 ‎우리 같은 창업가, 개발자들... 529 00:29:33,980 --> 00:29:37,317 ‎저나 마크 같은 사람들 530 00:29:37,400 --> 00:29:40,403 ‎그리고 인스타그램의 ‎케빈 시스트롬도 531 00:29:41,154 --> 00:29:46,451 ‎그걸 다 의식하고 있었지만 ‎그래도 했습니다 532 00:29:50,580 --> 00:29:53,750 ‎자전거가 나타났을 땐 ‎아무도 화를 내지 않았어요 533 00:29:55,043 --> 00:29:58,004 ‎그렇죠? 다들 자전거를 타고 ‎돌아다니기 바빴지 534 00:29:58,087 --> 00:30:00,924 ‎이런 말은 아무도 안 했어요 ‎'맙소사, 우리가 세상을 망쳤어' 535 00:30:01,007 --> 00:30:03,051 ‎'자전거가 ‎사람들에게 영향을 끼치고' 536 00:30:03,134 --> 00:30:05,303 ‎'자녀들과 멀어지게 하고' 537 00:30:05,386 --> 00:30:08,723 ‎'민주주의의 근간을 해치며 ‎눈을 흐리게 만들었어' 538 00:30:08,807 --> 00:30:11,476 ‎우린 자전거에 대해선 ‎그런 말을 안 했어요 539 00:30:12,769 --> 00:30:16,147 ‎도구라는 것은 ‎쓰지 않을 때는 가만히 있습니다 540 00:30:16,731 --> 00:30:18,733 ‎가만히 기다리고만 있죠 541 00:30:19,317 --> 00:30:22,821 ‎뭔가를 당신에게 요구한다면 ‎도구가 아닌 거죠 542 00:30:22,904 --> 00:30:26,533 ‎당신을 유혹하고 조종하며 ‎당신에게서 뭔가를 요구해요 543 00:30:26,950 --> 00:30:30,495 ‎우리는 근본이 도구인 ‎기술 환경에서 옮겨간 거예요 544 00:30:31,037 --> 00:30:34,499 ‎근본이 중독, 조종인 ‎기술 환경으로 말이죠 545 00:30:34,582 --> 00:30:35,708 ‎그게 변한 거예요 546 00:30:35,792 --> 00:30:39,420 ‎소셜 미디어는 사용되길 기다리는 ‎도구가 아닙니다 547 00:30:39,504 --> 00:30:43,466 ‎그만의 목적이 있고 ‎그 목적을 달성하려고 합니다 548 00:30:43,550 --> 00:30:45,677 ‎당신의 심리를 역이용해서 말이죠 549 00:30:48,930 --> 00:30:52,517 ‎"고객을 사용자라고 부르는 산업은 ‎단 두 종류가 있다" 550 00:30:52,600 --> 00:30:55,562 ‎"불법 마약과 ‎소프트웨어 산업이다" 551 00:30:55,645 --> 00:30:57,480 ‎"에드워드 터프티" 552 00:30:57,564 --> 00:31:02,193 ‎저는 몇 년 전에 ‎핀터레스트의 회장이었습니다 553 00:31:03,152 --> 00:31:08,366 ‎집에 가서도 손에서 스마트폰을 ‎놓을 수가 없는 거예요 554 00:31:08,449 --> 00:31:12,161 ‎제 사랑과 관심이 필요한 ‎어린 자식이 둘이나 있는데도요 555 00:31:12,245 --> 00:31:15,748 ‎저는 식료품 저장실에서 ‎이메일을 보내거나 556 00:31:15,832 --> 00:31:17,542 ‎핀터레스트를 보고 있었어요 557 00:31:18,001 --> 00:31:19,627 ‎완전 전형적인 ‎아이러니라고 생각했죠 558 00:31:19,711 --> 00:31:22,046 ‎낮에 직장에서 559 00:31:22,130 --> 00:31:26,426 ‎제가 만든 것에 ‎먹히고 있었으니까요 560 00:31:26,509 --> 00:31:30,096 ‎저도 정말 어쩔 수 없었던 ‎때가 있었습니다 561 00:31:32,307 --> 00:31:36,102 ‎제가 제일 많이 하는 건 ‎트위터예요 562 00:31:36,728 --> 00:31:38,021 ‎예전에는 레딧이었고요 563 00:31:38,104 --> 00:31:42,859 ‎레딧에서 벗어나기 위해 ‎소프트웨어를 만들었을 정도였죠 564 00:31:45,361 --> 00:31:47,780 ‎저는 제 이메일에 ‎제일 중독된 것 같습니다 565 00:31:47,864 --> 00:31:49,866 ‎진짜 그렇게 느껴요 566 00:31:52,577 --> 00:31:54,954 ‎정말 흥미로운 건 567 00:31:55,038 --> 00:31:58,166 ‎막후에서 무슨 일이 ‎벌어지는지 잘 알면서도 568 00:31:58,249 --> 00:32:01,628 ‎자신을 컨트롤하지 ‎못했다는 거예요 569 00:32:01,711 --> 00:32:03,046 ‎조금 무섭죠 570 00:32:03,630 --> 00:32:07,050 ‎어떤 속임수를 쓰는지 알면서도 ‎전 여전히 휘둘립니다 571 00:32:07,133 --> 00:32:09,886 ‎스마트폰을 잡으면 ‎20분이 순식간에 사라지죠 572 00:32:12,805 --> 00:32:15,725 ‎아침에 소변 보기 전에 ‎스마트폰을 확인하나요? 573 00:32:15,808 --> 00:32:17,477 ‎아니면 소변 보면서 확인하나요? 574 00:32:17,560 --> 00:32:19,187 ‎선택할 수 있는 건 ‎그게 전부거든요 575 00:32:19,562 --> 00:32:23,274 ‎저는 의지로 버티려고 했어요 576 00:32:23,358 --> 00:32:26,903 ‎'스마트폰 안 만질 거야 ‎퇴근하면 차에 두고 내릴 거야' 577 00:32:26,986 --> 00:32:30,573 ‎그걸 수천 번이나 되뇌었어요 ‎아주 오랫동안요 578 00:32:30,657 --> 00:32:32,617 ‎'침실에 스마트폰 안 가져가야지' 579 00:32:32,700 --> 00:32:34,535 ‎그래놓고 밤 9시가 되면 580 00:32:34,619 --> 00:32:37,121 ‎'침실에 스마트폰 가져가고 싶어' 581 00:32:37,956 --> 00:32:39,290 ‎그렇게 결국에는... 582 00:32:39,374 --> 00:32:41,125 ‎처음에는 의지로 버티다가 583 00:32:41,209 --> 00:32:44,295 ‎강제력을 동원하기도 했어요 584 00:32:44,379 --> 00:32:45,880 ‎'키친 세이프'를 소개합니다 585 00:32:45,964 --> 00:32:49,801 ‎시한 잠금장치가 달린 ‎혁명적인 용기인데 586 00:32:49,884 --> 00:32:51,678 ‎유혹과 맞서는 것을 도와줍니다 587 00:32:51,761 --> 00:32:56,724 ‎데이비드는 키친 세이프에 ‎물건을 넣기만 하면 됩니다 588 00:32:57,392 --> 00:33:00,561 ‎이제 다이얼을 돌려서 ‎타이머를 설정할 겁니다 589 00:33:01,479 --> 00:33:04,232 ‎마지막으로 다이얼을 눌러서 ‎잠금장치를 활성화합니다 590 00:33:04,315 --> 00:33:05,525 ‎키친 세이프는 대단해요 591 00:33:05,608 --> 00:33:06,776 ‎우리도 저거 있지? 592 00:33:06,859 --> 00:33:08,569 ‎비디오 게임, 신용 카드, 휴대폰 593 00:33:08,653 --> 00:33:09,654 ‎맞아 594 00:33:09,737 --> 00:33:11,072 ‎키친 세이프가 잠기면 595 00:33:11,155 --> 00:33:13,866 ‎타이머가 다 될 때까지 ‎절대 열리지 않습니다 596 00:33:13,950 --> 00:33:17,537 ‎그러니까 말이죠 ‎소셜 미디어는 마약이에요 597 00:33:17,620 --> 00:33:20,873 ‎우리에겐 다른 사람들과 ‎연결되어야 하는 598 00:33:20,957 --> 00:33:23,084 ‎생물학적 의무가 있고 599 00:33:23,167 --> 00:33:28,214 ‎보상 차원의 도파민 방출에 ‎직접적인 영향을 끼치죠 600 00:33:28,297 --> 00:33:32,552 ‎수백 만년의 진화가 ‎그 시스템 뒤에 있어요 601 00:33:32,635 --> 00:33:35,596 ‎우리가 무리를 지어 살고 602 00:33:35,680 --> 00:33:38,016 ‎짝을 찾고 ‎대를 잇기 위해서 말이에요 603 00:33:38,099 --> 00:33:41,853 ‎그러니 소셜 미디어 같은 것은 604 00:33:41,936 --> 00:33:45,690 ‎사람들 간의 연결을 최적화해서 605 00:33:45,773 --> 00:33:48,568 ‎중독되게 만들기 마련입니다 606 00:33:52,780 --> 00:33:54,115 ‎아빠, 그만해요 607 00:33:55,450 --> 00:33:58,453 ‎저녁 먹기 전에 ‎보내야 할 스닙이 엄청 많다고요 608 00:33:58,536 --> 00:33:59,537 ‎스닙? 609 00:33:59,620 --> 00:34:01,080 ‎그건 나도 모르겠어 610 00:34:01,164 --> 00:34:03,207 ‎- 향이 정말 좋네 ‎- 고마워 611 00:34:03,291 --> 00:34:05,877 ‎오늘 저녁은 오감을 다 써서 612 00:34:05,960 --> 00:34:07,712 ‎즐기면 좋을 것 같았어 613 00:34:07,795 --> 00:34:11,382 ‎그래서 오늘 밤 식탁에는 ‎스마트폰이 없을 거야 614 00:34:11,466 --> 00:34:13,301 ‎그러니까 빨리 넘겨 615 00:34:13,801 --> 00:34:14,802 ‎- 정말? ‎- 그래 616 00:34:15,928 --> 00:34:18,056 ‎- 알았어 ‎- 고마워, 벤? 617 00:34:18,139 --> 00:34:19,891 ‎- 알았어요 ‎- 스마트폰 해적이네 618 00:34:21,100 --> 00:34:21,934 ‎- 뺏었다 ‎- 엄마! 619 00:34:22,602 --> 00:34:26,147 ‎저녁 다 먹기 전까지 ‎여기 보관할 거니까 620 00:34:27,273 --> 00:34:31,277 ‎다들 유난 떨지 마, 알겠지? 621 00:34:47,418 --> 00:34:49,253 ‎- 누군지 봐도 돼요? ‎- 아니 622 00:34:54,759 --> 00:34:56,969 ‎포크 가지고 올게요 623 00:34:58,304 --> 00:34:59,263 ‎고마워 624 00:35:04,727 --> 00:35:06,771 ‎그런다고 안 열려 625 00:35:06,854 --> 00:35:09,315 ‎한 시간 동안 잠갔으니 ‎그냥 그대로 둬 626 00:35:11,192 --> 00:35:13,361 ‎우리 무슨 이야기 할까? 627 00:35:13,444 --> 00:35:17,907 ‎오늘 운전하면서 봤던 ‎극 중도파 이야기를 해 볼까? 628 00:35:17,990 --> 00:35:18,825 ‎- 제발, 프랭크 ‎- 뭐? 629 00:35:18,908 --> 00:35:20,785 ‎정치 얘기는 하기 싫어 630 00:35:20,868 --> 00:35:23,538 ‎- 극 중도파가 잘못됐나요? ‎- 봐, 얜 이해도 못 했어 631 00:35:23,621 --> 00:35:24,622 ‎묻는 사람에 따라 달라 632 00:35:24,705 --> 00:35:26,624 ‎프로파간다가 ‎잘못됐냐고 묻는 것과 같아 633 00:35:28,709 --> 00:35:29,710 ‎아일라! 634 00:35:32,797 --> 00:35:33,756 ‎맙소사 635 00:35:37,135 --> 00:35:38,553 ‎- 내가... ‎- 응 636 00:35:41,973 --> 00:35:43,933 ‎전 제 아이들이 걱정돼요 637 00:35:44,016 --> 00:35:46,686 ‎그쪽이 애가 있으면 ‎그쪽 애도 걱정되고요 638 00:35:46,769 --> 00:35:50,189 ‎저는 제가 가진 지식과 ‎경험으로 무장하고 639 00:35:50,273 --> 00:35:52,108 ‎아이들과 싸우고 있어요 640 00:35:52,191 --> 00:35:54,443 ‎스마트폰, 컴퓨터 사용 시간을 ‎놓고 말이죠 641 00:35:54,527 --> 00:35:58,197 ‎제 아들한테 몇 시간이나 ‎스마트폰을 보냐고 물으면 642 00:35:58,281 --> 00:36:01,075 ‎이렇게 답을 해요 ‎'최대 1시간 반이에요' 643 00:36:01,159 --> 00:36:04,871 ‎1시간 조금 넘겨서 ‎1시간 반 정도인 것 같아요 644 00:36:04,954 --> 00:36:06,789 ‎몇 주 전에 얘 사용 시간 ‎기록을 봤는데 645 00:36:06,873 --> 00:36:08,708 ‎- 3시간 45분이었어요 ‎- 그건... 646 00:36:11,377 --> 00:36:13,588 ‎그건 좀 아닌 것... ‎하루 평균 시간이? 647 00:36:13,671 --> 00:36:15,506 ‎- 그래 ‎- 지금 확인해 볼까? 648 00:36:15,590 --> 00:36:19,760 ‎아이들에게 쾌락과 고통의 균형과 649 00:36:19,927 --> 00:36:21,762 ‎도파민 부족 상태와 650 00:36:21,846 --> 00:36:26,267 ‎중독의 위험에 대해 ‎말하지 않는 날이 없어요 651 00:36:26,350 --> 00:36:27,310 ‎- 좋아 ‎- 누가 맞나 보자 652 00:36:27,935 --> 00:36:29,687 ‎하루에 2시간 50분 653 00:36:29,770 --> 00:36:31,772 ‎- 어디 보자 ‎- 실은 오늘 많이 썼어 654 00:36:31,856 --> 00:36:33,357 ‎- 지난 7일간 ‎- 그래서일 거야 655 00:36:33,441 --> 00:36:37,153 ‎인스타그램, 6시간 13분 ‎제 인스타그램은 더 심해요 656 00:36:39,572 --> 00:36:43,201 ‎화면을 완전히 박살 냈어 ‎고마워, 캐스 657 00:36:44,410 --> 00:36:45,995 ‎그게 무슨 말이야? 658 00:36:46,078 --> 00:36:49,290 ‎별일도 아닌데 ‎스마트폰 가지고 엄마를 겁주잖아 659 00:36:49,373 --> 00:36:51,167 ‎저녁 먹을 때 ‎스마트폰은 필요 없어 660 00:36:51,250 --> 00:36:53,294 ‎무슨 말인지 알겠는데 ‎별일 아니라는 거야 661 00:36:56,047 --> 00:36:58,382 ‎별일 아니라면 ‎일주일 동안 쓰지 마 662 00:37:01,135 --> 00:37:02,178 ‎그래 663 00:37:02,261 --> 00:37:06,349 ‎만약 네가 일주일 동안 ‎스마트폰에 손 안 대면 664 00:37:07,725 --> 00:37:09,518 ‎엄마가 화면 갈아 줄게 665 00:37:11,062 --> 00:37:12,772 ‎- 지금부터요? ‎- 지금부터 666 00:37:15,274 --> 00:37:16,859 ‎좋아요, 그렇게 해요 667 00:37:16,943 --> 00:37:19,111 ‎스마트폰은 여기 두고 가 668 00:37:19,862 --> 00:37:21,364 ‎네, 전원만 연결하고요 669 00:37:22,531 --> 00:37:25,076 ‎잘 봐요, 여기다가 뒀어요 670 00:37:25,159 --> 00:37:25,993 ‎그래 671 00:37:27,703 --> 00:37:29,413 ‎- 지금부터 시간 잰다 ‎- 일주일이에요 672 00:37:29,497 --> 00:37:30,331 ‎맙소사... 673 00:37:31,457 --> 00:37:32,416 ‎쟤가 할 수 있을까요? 674 00:37:33,000 --> 00:37:34,252 ‎몰라, 두고 봐야지 675 00:37:35,002 --> 00:37:36,128 ‎혼자 먹고 있어 676 00:37:44,220 --> 00:37:45,263 ‎다 같이 먹으니까 좋네요 677 00:37:47,682 --> 00:37:49,809 ‎이런 상품들은 ‎아이들을 보호하려는 678 00:37:49,892 --> 00:37:53,729 ‎아동 심리학자들이 ‎만든 것들이 아니에요 679 00:37:53,980 --> 00:37:56,148 ‎당신에게 맞는 다음 비디오를 680 00:37:56,232 --> 00:37:58,734 ‎추천하기 위한 알고리즘을 위해 ‎만들어진 것들이죠 681 00:37:58,818 --> 00:38:02,071 ‎필터를 먹여서 ‎사진을 찍게 만들기도 하고요 682 00:38:03,072 --> 00:38:05,324 ‎"좋아요, 2명" 683 00:38:13,291 --> 00:38:15,126 ‎"정말 지울 건가요? 아니요" 684 00:38:15,209 --> 00:38:16,210 ‎"네" 685 00:38:16,752 --> 00:38:20,256 ‎아이들의 관심만 ‎통제하는 게 아니에요 686 00:38:21,173 --> 00:38:26,304 ‎특히 소셜 미디어는 ‎뇌간 깊숙이 파고들어서 687 00:38:26,387 --> 00:38:29,765 ‎아이들의 자존감과 ‎정체성을 장악합니다 688 00:38:29,849 --> 00:38:31,851 ‎"더 예쁘게" 689 00:38:42,069 --> 00:38:43,112 ‎"Lily_T, 귀여워!" 690 00:38:43,195 --> 00:38:44,822 ‎"Sophia_M ‎대박, 완전 예쁘다" 691 00:38:44,905 --> 00:38:46,490 ‎"Olivia_B, 너 완전 최고" 692 00:38:46,574 --> 00:38:48,200 ‎"Ava_R ‎귀 더 크게 만들 수 있어?" 693 00:38:48,284 --> 00:38:49,118 ‎"하하" 694 00:38:52,496 --> 00:38:55,499 ‎우리는 주변 사람들의 비평에 ‎관심을 갖도록 695 00:38:55,583 --> 00:38:56,667 ‎"Brianna_S, 예쁘다!" 696 00:38:56,751 --> 00:38:59,128 ‎진화했습니다 ‎왜냐하면 중요하니까요 697 00:38:59,837 --> 00:39:04,550 ‎하지만 우리가 1만 명의 비평을 ‎인식하도록 진화했나요? 698 00:39:04,633 --> 00:39:05,885 ‎우린 5분마다 한 번씩 699 00:39:05,968 --> 00:39:10,348 ‎사회적 인정을 받도록 ‎진화하지 않았어요 700 00:39:10,431 --> 00:39:13,142 ‎우린 그런 걸 ‎감당할 수가 없다고요 701 00:39:15,394 --> 00:39:19,982 ‎우리는 완벽함을 중심으로 ‎우리의 삶을 꾸려나갑니다 702 00:39:20,733 --> 00:39:23,527 ‎잠깐 뜨고 마는 ‎하트, 좋아요 같은 신호에 703 00:39:23,611 --> 00:39:25,154 ‎보상을 받기 때문이죠 704 00:39:25,237 --> 00:39:28,407 ‎그리고 가치와 진실을 혼동합니다 705 00:39:29,825 --> 00:39:33,120 ‎또한 알고보면 가짜인 것과 ‎부서지기 쉬운 인기이며... 706 00:39:33,913 --> 00:39:37,458 ‎오래가지도 않는 것에 매달리다가 707 00:39:37,541 --> 00:39:39,919 ‎전보다 더 공허해집니다 708 00:39:41,295 --> 00:39:43,381 ‎왜냐하면 악순환에 빠지게 되어 709 00:39:43,464 --> 00:39:46,801 ‎다음에는 뭘 해야 보상을 받을지 ‎고민하게 만드니까요 710 00:39:48,260 --> 00:39:50,846 ‎20억 명의 사람들이 그러는 것과 711 00:39:50,930 --> 00:39:54,433 ‎사람들이 그들의 평판에 ‎어떻게 반응하는지 생각해 보세요 712 00:39:54,850 --> 00:39:56,435 ‎정말 심각합니다 713 00:39:56,977 --> 00:39:58,229 ‎진짜 심각하다고요 714 00:40:00,856 --> 00:40:05,069 ‎미국의 10대들에게서 ‎우울증과 불안이 715 00:40:05,152 --> 00:40:06,529 ‎엄청나게 증가했는데 716 00:40:06,612 --> 00:40:10,950 ‎2011년과 2013년 사이에 ‎시작되었어요 717 00:40:11,033 --> 00:40:15,371 ‎이 나라의 10대 소녀 중 ‎10만 명이 718 00:40:15,454 --> 00:40:17,123 ‎매년 병원에 입원합니다 719 00:40:17,206 --> 00:40:19,917 ‎자해를 해서 말이죠 720 00:40:20,000 --> 00:40:23,921 ‎그 수는 2010, 2011년까지 ‎꽤 안정적이었다가 721 00:40:24,004 --> 00:40:25,756 ‎갑자기 급상승했습니다 722 00:40:28,759 --> 00:40:31,971 ‎10대 후반 소녀들의 수는 ‎62%가 증가했고 723 00:40:32,054 --> 00:40:33,931 ‎"치명적이지 않은 자해로 인한 ‎병원 입원율" 724 00:40:34,014 --> 00:40:38,310 ‎10대 초반 소녀들의 수는 ‎189%로 거의 3배나 뛰었습니다 725 00:40:40,312 --> 00:40:43,107 ‎더 끔찍한 건 ‎자살률도 그만큼 늘었다는 거예요 726 00:40:43,190 --> 00:40:44,900 ‎"미국인 소녀 100만 명당 자살률" 727 00:40:44,984 --> 00:40:47,570 ‎10대 후반인 ‎15, 19세 소녀들의 자살률은 728 00:40:47,653 --> 00:40:51,449 ‎2000년에서 2010년까지에 비하면 ‎70%가 상승했습니다 729 00:40:52,158 --> 00:40:55,077 ‎10대 초반의 소녀들의 ‎자살률은 매우 낮았지만 730 00:40:55,161 --> 00:40:57,663 ‎무려 151%나 상승했습니다 731 00:40:58,831 --> 00:41:01,709 ‎그리고 그 패턴은 ‎소셜 미디어를 가리켜요 732 00:41:01,792 --> 00:41:03,961 ‎"2009년의 ‎모바일 소셜 미디어 사용량" 733 00:41:04,044 --> 00:41:07,214 ‎1996년 이후에 태어난 Z세대들 734 00:41:07,298 --> 00:41:10,342 ‎그 아이들은 역사상 처음으로 735 00:41:10,426 --> 00:41:12,636 ‎중학생 때 ‎소셜 미디어를 접했습니다 736 00:41:15,973 --> 00:41:17,433 ‎그들이 어떻게 시간을 보내냐고요? 737 00:41:19,727 --> 00:41:22,480 ‎학교에서 돌아와서 ‎스마트폰에 매달립니다 738 00:41:24,315 --> 00:41:29,195 ‎세대 전체가 더 불안하고 ‎더 연약하고 더 우울해 합니다 739 00:41:30,613 --> 00:41:33,282 ‎위험을 감수하려는 마음도 적고요 740 00:41:34,325 --> 00:41:37,203 ‎운전면허 취득률도 ‎떨어지고 있습니다 741 00:41:39,038 --> 00:41:41,081 ‎데이트 같은 로맨틱한 관계를 742 00:41:41,165 --> 00:41:44,251 ‎가져 본 이들의 수도 ‎급감하고 있습니다 743 00:41:47,505 --> 00:41:49,715 ‎한 세대가 ‎정말 변하고 있는 거예요 744 00:41:53,177 --> 00:41:57,306 ‎그리고 기억하세요 ‎이런 아이들이 입원할 때마다 745 00:41:57,389 --> 00:42:00,267 ‎충격을 받는 가족이 ‎있다는 걸 말이에요 746 00:42:00,351 --> 00:42:02,353 ‎'맙소사 ‎애들이 어떻게 되는 거지?' 747 00:42:19,411 --> 00:42:21,038 ‎제겐 뻔히 보입니다 748 00:42:22,873 --> 00:42:28,128 ‎이런 서비스들이 사람을 죽이고 ‎자살하게 만듭니다 749 00:42:29,088 --> 00:42:33,300 ‎이러는 부모가 어디 있나요? ‎'네, 저는 IT 디자이너들에게' 750 00:42:33,384 --> 00:42:36,887 ‎'아이들이 조종당했으면 좋겠어요' 751 00:42:36,971 --> 00:42:39,723 ‎'관심을 모조리 뺏겨서 ‎숙제도 할 수 없고' 752 00:42:39,807 --> 00:42:42,560 ‎'비현실적인 미의 기준에 ‎자신을 비교했으면 좋겠어요' 753 00:42:42,643 --> 00:42:44,687 ‎그런 사람은 아무도 없어요 754 00:42:45,104 --> 00:42:46,355 ‎한 명도 없죠 755 00:42:46,438 --> 00:42:48,482 ‎예전에는 보호 장치가 있었어요 756 00:42:48,566 --> 00:42:50,943 ‎아이들이 토요일 오전에 ‎만화 영화를 볼 때 757 00:42:51,026 --> 00:42:52,778 ‎아이들에게 신경을 썼잖아요 758 00:42:52,861 --> 00:42:56,574 ‎'이렇게 어린 아이들에게 ‎이런 광고를 하면 안 돼' 759 00:42:57,366 --> 00:42:58,784 ‎그런데 유튜브를 보세요 760 00:42:58,867 --> 00:43:02,454 ‎유튜브가 모두의 관심을 ‎완전히 장악했고 761 00:43:02,538 --> 00:43:04,915 ‎모든 아이들이 ‎유튜브에 노출되었어요 762 00:43:04,999 --> 00:43:07,376 ‎모든 보호와 규정이 사라졌고요 763 00:43:10,296 --> 00:43:17,261 ‎"벤이 스마트폰을 포기하고 ‎경과한 시간" 764 00:43:18,304 --> 00:43:22,141 ‎우리는 한 세대 전체를 ‎훈련하고 길들이고 있습니다 765 00:43:23,434 --> 00:43:29,148 ‎우리가 불편하거나 외롭거나 ‎불확실하거나 두려울 때 766 00:43:29,231 --> 00:43:31,775 ‎디지털 젖꼭지를 찾게 말이죠 767 00:43:32,526 --> 00:43:36,488 ‎우리가 본래 가진 능력을 ‎위태롭게 하는 거예요 768 00:43:53,964 --> 00:43:56,884 ‎포토샵은 수천 명의 엔지니어가 ‎화면 뒤에서 769 00:43:56,967 --> 00:43:58,969 ‎알림과 친구들을 이용하고 770 00:43:59,053 --> 00:44:02,431 ‎인공 지능을 이용해서 ‎당신을 중독시키고 771 00:44:02,514 --> 00:44:04,516 ‎조종하거나 광고주들이 772 00:44:04,600 --> 00:44:06,894 ‎6만 개의 다양한 문자나 색상을 ‎테스트해서 773 00:44:06,977 --> 00:44:08,395 ‎"시카고 ‎기술 독과점 금지 콘퍼런스" 774 00:44:08,479 --> 00:44:10,773 ‎당신의 마음을 조작하는 법을 ‎알아내지 않았습니다 775 00:44:11,148 --> 00:44:14,985 ‎이건 전혀 새로운 힘과 ‎영향력입니다 776 00:44:16,070 --> 00:44:19,156 ‎다시 말하겠는데 ‎사람들을 중독시키고 777 00:44:19,239 --> 00:44:22,868 ‎영향력을 끼치기 위해 ‎사용된 방식은 778 00:44:22,951 --> 00:44:25,204 ‎이번에는 아마 꽤 다를 겁니다 779 00:44:25,287 --> 00:44:28,749 ‎신문이 나왔을 때도 달랐고 ‎인쇄기가 나왔을 때도 달랐고 780 00:44:28,832 --> 00:44:31,835 ‎TV가 나왔을 때도 달랐어요 781 00:44:31,919 --> 00:44:34,004 ‎그땐 주요 방송국이 ‎세 개 있었는데... 782 00:44:34,463 --> 00:44:36,423 ‎- 그때는요 ‎- 네, 제 말이 그거예요 783 00:44:36,507 --> 00:44:38,384 ‎하지만 새로운 방식은 대두는 784 00:44:38,467 --> 00:44:42,054 ‎이미 과거에도 ‎여러 번 있었다는 거예요 785 00:44:42,137 --> 00:44:45,099 ‎이건 우리가 가장 최근에 ‎목격한 것일 뿐이고요 786 00:44:45,182 --> 00:44:48,727 ‎우리가 적응할 수 있다는 ‎내러티브가 있어요 787 00:44:48,811 --> 00:44:51,188 ‎'이 기기들과 ‎공존할 방법을 배울 거야' 788 00:44:51,271 --> 00:44:53,357 ‎'다른 모든 것들과 ‎그랬던 것처럼 말이지' 789 00:44:53,816 --> 00:44:56,694 ‎그런데 분명히 새로운 뭔가가 ‎있다는 걸 놓치고 있어요 790 00:44:57,569 --> 00:44:59,613 ‎아마도 가장 위험한 것은 791 00:44:59,697 --> 00:45:04,410 ‎기하급수적으로 발전하는 기술에 ‎휘둘린다는 것일 겁니다 792 00:45:04,910 --> 00:45:05,911 ‎"컴퓨터 연산 능력" 793 00:45:05,994 --> 00:45:09,081 ‎1960년대부터 오늘날까지 794 00:45:09,873 --> 00:45:12,960 ‎컴퓨터 연산 능력은 ‎대략 1조 배나 상승했습니다 795 00:45:13,794 --> 00:45:18,340 ‎그 어떤 기술도 ‎이런 속도로 발전한 게 없습니다 796 00:45:18,424 --> 00:45:22,177 ‎자동차는 ‎겨우 두 배 정도 빨라졌고 797 00:45:22,261 --> 00:45:25,264 ‎다른 건 ‎거의 무시해도 될 정도입니다 798 00:45:25,347 --> 00:45:27,182 ‎그리고 가장 중요한 것은 799 00:45:27,266 --> 00:45:31,353 ‎인간의 생리와 두뇌는 ‎전혀 발전하지 않았다는 겁니다 800 00:45:31,854 --> 00:45:35,232 ‎"벤이 스마트폰을 포기하고 ‎경과한 시간" 801 00:45:37,401 --> 00:45:41,488 ‎인간의 정신과 신체 같은 건 802 00:45:41,947 --> 00:45:43,866 ‎근본적인 변화가 없을 겁니다 803 00:45:56,837 --> 00:46:00,924 ‎미래에는 유전 공학으로 ‎새로운 인간을 개발할지 모르지만 804 00:46:01,008 --> 00:46:05,220 ‎현실적으로 말해서 ‎우리는 뇌라는 하드웨어 안에 살고 805 00:46:05,304 --> 00:46:07,222 ‎그 뇌는 수백만 년이나 된 겁니다 806 00:46:07,306 --> 00:46:10,559 ‎그런데 여기 화면이 있고 ‎그 화면의 반대편에 807 00:46:10,642 --> 00:46:13,562 ‎수천 명의 엔지니어와 ‎슈퍼컴퓨터들이 808 00:46:13,645 --> 00:46:16,106 ‎당신의 목표와 ‎다른 목표를 갖고 있어요 809 00:46:16,190 --> 00:46:19,693 ‎그 게임에서 누가 이길까요? ‎누가 이기겠어요? 810 00:46:25,699 --> 00:46:26,784 ‎어떻게 우리가 지고 있지? 811 00:46:27,159 --> 00:46:29,828 ‎- 모르겠어 ‎- 어디 있지? 이건 정상이 아냐 812 00:46:29,912 --> 00:46:32,080 ‎친구, 가족 소식을 ‎너무 과하게 보여 줬나? 813 00:46:32,164 --> 00:46:34,082 ‎- 아마도 ‎- 광고 때문일지도 몰라 814 00:46:34,166 --> 00:46:37,795 ‎아니, 뭔가 크게 잘못됐어 ‎부활 모드로 변경하자 815 00:46:39,713 --> 00:46:44,051 ‎인공 지능이라고 하면 ‎세상을 망칠 것 같고 816 00:46:44,134 --> 00:46:47,221 ‎터미네이터나 ‎아널드 슈워제네거를 떠올리죠 817 00:46:47,638 --> 00:46:48,680 ‎난 돌아올 것이다 818 00:46:48,764 --> 00:46:52,059 ‎드론을 봐도 인공 지능이 ‎사람을 죽일 거란 생각이 들고요 819 00:46:53,644 --> 00:46:57,606 ‎그런데 사람들은 모르고 있어요 ‎인공 지능이 이미 820 00:46:58,065 --> 00:46:59,483 ‎세계를 지배하고 있다는 걸요 821 00:46:59,900 --> 00:47:03,237 ‎인공 지능이란 말은 ‎비유일 뿐입니다 822 00:47:03,320 --> 00:47:09,451 ‎구글 같은 회사에는 ‎엄청나게 큰 공간이 있어요 823 00:47:10,327 --> 00:47:13,121 ‎일부는 지하에 있고 ‎일부는 수중에 있습니다 824 00:47:13,205 --> 00:47:14,498 ‎컴퓨터들만 말이죠 825 00:47:14,581 --> 00:47:17,835 ‎엄청나게 많은 수의 컴퓨터들이 ‎끝없이 늘어서 있습니다 826 00:47:18,460 --> 00:47:20,504 ‎서로 아주 긴밀하게 연결되어 있고 827 00:47:20,587 --> 00:47:22,923 ‎굉장히 복잡한 프로그램을 돌리며 828 00:47:23,006 --> 00:47:26,009 ‎서로 언제나 ‎정보를 교환하고 있습니다 829 00:47:26,802 --> 00:47:28,595 ‎그리고 같은 컴퓨터에서 ‎수많은 프로그램과 830 00:47:28,679 --> 00:47:30,806 ‎수많은 제품들을 돌리고 있어요 831 00:47:31,473 --> 00:47:33,684 ‎일부는 단순한 알고리즘이고 832 00:47:33,767 --> 00:47:35,227 ‎일부의 알고리즘은 너무 복잡해서 833 00:47:35,310 --> 00:47:37,521 ‎인공 지능이라고도 할 수 있죠 834 00:47:40,148 --> 00:47:43,777 ‎저는 알고리즘이 ‎코드에 내재한 의견이라고 봅니다 835 00:47:45,070 --> 00:47:47,656 ‎그리고 알고리즘은 ‎객관적이지 않아요 836 00:47:48,365 --> 00:47:51,577 ‎알고리즘은 성공의 정의에 ‎최적화되어 있어요 837 00:47:52,244 --> 00:47:53,370 ‎생각해 보세요 838 00:47:53,453 --> 00:47:57,124 ‎한 기업이 그들의 성공을 위해 839 00:47:57,207 --> 00:47:59,293 ‎알고리즘을 만든다는 것은 840 00:47:59,835 --> 00:48:01,211 ‎상업적인 이익이 목표인 겁니다 841 00:48:01,587 --> 00:48:02,671 ‎이윤을 위해서라고요 842 00:48:03,130 --> 00:48:07,384 ‎컴퓨터에 어떤 결과를 ‎원한다고 입력을 하면 843 00:48:07,467 --> 00:48:10,262 ‎컴퓨터는 ‎그 방법을 스스로 학습합니다 844 00:48:10,345 --> 00:48:12,598 ‎'기계 학습'이란 말이 ‎거기서 나온 거예요 845 00:48:12,681 --> 00:48:14,850 ‎그래서 매일 조금씩 발전해서 846 00:48:14,933 --> 00:48:16,977 ‎적절한 포스트를 ‎적절하게 배치하여 847 00:48:17,060 --> 00:48:19,438 ‎당신이 더 많은 시간을 ‎쓰게 만드는 겁니다 848 00:48:19,521 --> 00:48:22,232 ‎그리고 그들이 ‎목표를 달성하기 위해 849 00:48:22,316 --> 00:48:23,901 ‎뭘 하는지는 아무도 모릅니다 850 00:48:23,984 --> 00:48:28,238 ‎알고리즘엔 자아가 있어요 ‎비록 사람이 만드는 것이지만 851 00:48:28,906 --> 00:48:30,657 ‎코드를 작성할 때 852 00:48:30,741 --> 00:48:34,745 ‎기계 스스로 변화하도록 만듭니다 853 00:48:35,120 --> 00:48:37,873 ‎오직 소수의 사람들만이... 854 00:48:37,956 --> 00:48:40,000 ‎페이스북, 트위터 같은 ‎회사들에서 말이죠 855 00:48:40,083 --> 00:48:43,795 ‎오직 소수의 사람들만이 ‎그 시스템을 이해합니다 856 00:48:43,879 --> 00:48:46,715 ‎심지어 그들도 특정 콘텐츠에서 857 00:48:46,798 --> 00:48:49,551 ‎어떤 일이 일어날지 ‎다 알지 못합니다 858 00:48:49,968 --> 00:48:55,474 ‎인간들은 시스템에 대한 통제력을 ‎거의 잃어버린 거예요 859 00:48:55,891 --> 00:48:59,603 ‎우리가 보는 정보를 ‎시스템이 통제하니까요 860 00:48:59,686 --> 00:49:01,939 ‎그들의 통제력이 ‎우리보다 더 큽니다 861 00:49:03,815 --> 00:49:07,319 ‎벤과 비슷한 사용자들을 ‎저 지역에서 비교해 보자 862 00:49:07,402 --> 00:49:09,571 ‎벤의 정신적인 도플갱어들이지 863 00:49:09,655 --> 00:49:13,700 ‎벤처럼 행동하는 사람이 ‎저 지역에 13,694명이나 있어 864 00:49:13,784 --> 00:49:16,370 ‎- 왜들 저러는 거지? ‎- 제대로 된 부활을 위해 865 00:49:16,453 --> 00:49:17,704 ‎새끈한 게 필요하겠어 866 00:49:17,788 --> 00:49:19,957 ‎일반적인 건 안 통하니까 867 00:49:20,040 --> 00:49:21,875 ‎학교의 귀여운 여자애도 안 먹혀 868 00:49:22,334 --> 00:49:25,253 ‎내 분석에 따르면 ‎극 중도파 콘텐츠를 이용하면 869 00:49:25,337 --> 00:49:28,256 ‎장기 사용량이 62.3% 상승해 870 00:49:28,340 --> 00:49:29,299 ‎나쁘지 않네 871 00:49:30,342 --> 00:49:32,302 ‎선봉으로 쓰기엔 부족해 872 00:49:32,386 --> 00:49:35,305 ‎우린 사진 태그로 알림도 보냈고 873 00:49:35,389 --> 00:49:39,017 ‎초대장, 시사도 썼고 ‎리베카의 메시지도 이용했어 874 00:49:39,101 --> 00:49:42,813 ‎하지만 사용자 01265923010은? 875 00:49:42,896 --> 00:49:44,648 ‎맞아, 벤은 걔의 포스트를 ‎엄청 좋아했잖아 876 00:49:44,731 --> 00:49:47,776 ‎몇 달간 좋아요를 다 누르다가 ‎갑자기 관뒀지 877 00:49:47,859 --> 00:49:50,445 ‎애나에 대한 알림으로 ‎부활할 가능성이 878 00:49:50,529 --> 00:49:52,030 ‎92.3%라고 계산됐어 879 00:49:53,907 --> 00:49:55,993 ‎"새로운 관계" 880 00:49:56,535 --> 00:49:57,494 ‎애나의 새 친구와 말이야 881 00:49:58,495 --> 00:50:04,001 ‎"벤이 스마트폰을 포기하고 ‎경과한 시간" 882 00:50:24,354 --> 00:50:26,023 ‎"네 전 여친에게 ‎새 남자 친구가 생겼어!" 883 00:50:26,106 --> 00:50:27,315 ‎말도 안 돼 884 00:50:35,657 --> 00:50:36,616 ‎좋아 885 00:50:37,576 --> 00:50:38,785 ‎"애나와 루이즈" 886 00:50:38,869 --> 00:50:39,703 ‎뭐라고? 887 00:50:41,621 --> 00:50:42,789 ‎짠, 부활했어! 888 00:50:42,873 --> 00:50:44,374 ‎이제 다시 돈 벌어 보자 889 00:50:44,458 --> 00:50:46,334 ‎그리고 전 세계와 연결하는 거야 890 00:50:46,418 --> 00:50:48,920 ‎벤이 좋아할 만한 정보를 ‎다 주겠어 891 00:50:49,755 --> 00:50:53,717 ‎피드가 벤한테 좋을까 하는 ‎생각도 해 봤어? 892 00:50:57,220 --> 00:50:58,221 ‎- 아니 ‎- 아니 893 00:51:17,657 --> 00:51:19,076 ‎네게 주문을 걸어 894 00:51:25,040 --> 00:51:26,374 ‎넌 내 거니까 895 00:51:34,674 --> 00:51:36,593 ‎지금 하는 일을 멈춰 896 00:51:41,181 --> 00:51:42,265 ‎난 거짓말 안 해 897 00:51:42,349 --> 00:51:44,893 ‎"A/B 테스트, 극 중도파" 898 00:51:44,976 --> 00:51:46,686 ‎아니, 거짓말 아니야 899 00:51:49,981 --> 00:51:51,817 ‎난 도저히 못 참겠어 900 00:51:53,026 --> 00:51:54,611 ‎네가 돌아다니는걸 901 00:51:55,612 --> 00:51:57,239 ‎네가 더 잘 알잖아 902 00:51:58,782 --> 00:52:02,077 ‎네가 실망시키는 걸 못 견디겠어 903 00:52:06,456 --> 00:52:08,375 ‎네게 주문을 걸어 904 00:52:12,379 --> 00:52:14,840 ‎넌 내 거니까 905 00:52:18,718 --> 00:52:19,845 ‎넌 내 거야 906 00:52:20,929 --> 00:52:24,015 ‎당신이 페이스북에 있다고 ‎생각해 봐요 907 00:52:24,766 --> 00:52:29,312 ‎당신은 당신에 대해 ‎모든 것을 아는 인공 지능과 908 00:52:29,396 --> 00:52:31,314 ‎맞서고 있는 겁니다 909 00:52:31,398 --> 00:52:34,568 ‎당신의 행동도 예측할 수 있는데 ‎당신은 전혀 모르고 있어요 910 00:52:34,651 --> 00:52:37,404 ‎거기 고양이 비디오와 ‎생일 정보가 있다는 것만 빼고요 911 00:52:37,821 --> 00:52:39,656 ‎그건 공정한 싸움이 아니에요 912 00:52:41,575 --> 00:52:43,869 ‎잠꾸러기 벤, 학교 가야지 913 00:52:51,126 --> 00:52:51,960 ‎벤? 914 00:53:02,679 --> 00:53:03,513 ‎벤 915 00:53:05,182 --> 00:53:06,057 ‎일어나 916 00:53:07,225 --> 00:53:08,894 ‎학교 가야지, 얼른 917 00:53:13,231 --> 00:53:16,735 ‎"인간적 기술 센터" 918 00:53:31,374 --> 00:53:33,543 ‎- 오늘 좀 어때요? ‎- 긴장돼요 919 00:53:33,627 --> 00:53:34,628 ‎- 그래요? ‎- 네 920 00:53:37,380 --> 00:53:39,049 ‎우리는 기술이 921 00:53:39,132 --> 00:53:42,969 ‎인간의 힘과 지성을 ‎압도할 때를 기다리고 있었습니다 922 00:53:43,053 --> 00:53:45,096 ‎기술적 특이점을 넘어 ‎우리의 일을 대신하고 923 00:53:45,180 --> 00:53:47,015 ‎인간보다 똑똑해질 때를 말이죠 924 00:53:48,141 --> 00:53:50,101 ‎하지만 그 전에 앞서... 925 00:53:50,977 --> 00:53:55,565 ‎기술은 인간의 약점을 ‎압도하기 시작했습니다 926 00:53:57,484 --> 00:54:02,030 ‎바로 중독, 분극화, 급진화 927 00:54:02,113 --> 00:54:04,741 ‎분노와 허영의 만연함을 928 00:54:04,824 --> 00:54:06,368 ‎기초로 하고서 말이죠 929 00:54:07,702 --> 00:54:09,913 ‎이건 인간의 본능을 압도하며 930 00:54:10,538 --> 00:54:13,500 ‎인간성에 대한 체크메이트입니다 931 00:54:30,558 --> 00:54:31,434 ‎미안해 932 00:54:41,736 --> 00:54:44,656 ‎저는 페이스북의 피드가 933 00:54:45,198 --> 00:54:49,828 ‎얼마나 잘못됐는지 ‎사람들을 이해시키기 위해서 934 00:54:49,911 --> 00:54:51,454 ‎위키피디아를 예로 듭니다 935 00:54:51,538 --> 00:54:52,872 ‎"새 탭" 936 00:54:52,956 --> 00:54:55,709 ‎위키피디아에 가면 ‎다른 사람과 똑같은 페이지가 뜨죠 937 00:54:55,792 --> 00:54:56,960 ‎"위키피디아, 공짜 백과사전" 938 00:54:57,043 --> 00:55:00,297 ‎온라인에서 공통점을 갖는 ‎몇 안 되는 것이에요 939 00:55:00,380 --> 00:55:03,425 ‎그런데 생각해 보세요 ‎위키피디아가 이러는 거예요 940 00:55:03,508 --> 00:55:07,178 ‎'각각의 사람들에게 맞춰진 ‎정의를 보여 줄 것이고' 941 00:55:07,262 --> 00:55:09,472 ‎'그렇게 함으로써 돈을 벌 거야' 942 00:55:09,556 --> 00:55:13,435 ‎그래서 당신을 위키피디아가 ‎감시하고 계산하기 시작합니다 943 00:55:13,518 --> 00:55:17,188 ‎'어떻게 해야 이 사용자를' 944 00:55:17,272 --> 00:55:19,899 ‎'저 상품을 위해 바꿀 수 있을까?' 945 00:55:19,983 --> 00:55:21,818 ‎그리고 항목이 바뀌는 거예요 946 00:55:22,444 --> 00:55:23,570 ‎상상이 돼요? 947 00:55:23,653 --> 00:55:24,738 ‎상상할 수 있어야죠 948 00:55:24,821 --> 00:55:26,823 ‎왜냐하면 페이스북이 ‎지금 그러고 있으니까요 949 00:55:26,906 --> 00:55:28,992 ‎유튜브 피드도 마찬가지고요 950 00:55:29,075 --> 00:55:31,786 ‎구글에서 '기후 변화'라는 ‎단어를 입력하면 951 00:55:31,870 --> 00:55:34,998 ‎거주지에 따라서 ‎다른 결과를 보게 될 겁니다 952 00:55:35,081 --> 00:55:36,082 ‎"기후 변화는..." 953 00:55:36,166 --> 00:55:38,460 ‎어떤 도시에서는 ‎이런 자동 완성이 뜰 거예요 954 00:55:38,543 --> 00:55:40,462 ‎'기후 변화는 거짓말'이라고요 955 00:55:40,545 --> 00:55:42,047 ‎다른 경우엔 이렇게 뜰 겁니다 956 00:55:42,130 --> 00:55:44,841 ‎'기후 변화는 ‎자연의 파괴를 야기한다' 957 00:55:44,924 --> 00:55:48,428 ‎그건 기후 변화에 대한 ‎진실이 아니라 958 00:55:48,511 --> 00:55:51,097 ‎구글링을 하는 장소와 959 00:55:51,181 --> 00:55:53,600 ‎구글이 당신에 대해 ‎아는 것에 달린 거예요 960 00:55:55,185 --> 00:55:58,021 ‎서로 아주 가까운 ‎두 친구가 있어요 961 00:55:58,104 --> 00:56:00,190 ‎그 둘은 친구 목록도 ‎거의 똑같아서 962 00:56:00,273 --> 00:56:02,817 ‎이렇게 생각합니다 ‎'페이스북 피드를 보면' 963 00:56:02,901 --> 00:56:06,738 ‎'똑같은 것들이 뜰 거야' ‎근데 그렇지가 않아요 964 00:56:06,821 --> 00:56:08,448 ‎둘은 완전히 다른 세상을 봅니다 965 00:56:08,531 --> 00:56:10,575 ‎왜냐하면 그건 컴퓨터에 의해 ‎각자에게 완벽하게 966 00:56:10,658 --> 00:56:12,035 ‎계산된 세상이거든요 967 00:56:12,118 --> 00:56:14,245 ‎"방송 중" 968 00:56:14,329 --> 00:56:18,416 ‎어떻게 생각해 보면 ‎27억 개의 '트루먼 쇼'입니다 969 00:56:18,500 --> 00:56:21,294 ‎각자에게 각각의 현실이 있고 970 00:56:22,670 --> 00:56:23,671 ‎사실이 있는 거죠 971 00:56:23,755 --> 00:56:27,008 ‎왜 트루먼이 지금까지 ‎그의 세계의 진실을 972 00:56:27,092 --> 00:56:30,095 ‎알아내지 못했다고 생각하시나요? 973 00:56:31,054 --> 00:56:34,140 ‎우리는 눈앞에 주어진 현실을 ‎받아들이니까요 974 00:56:34,224 --> 00:56:35,141 ‎그게 전부예요 975 00:56:35,225 --> 00:56:36,393 ‎"방송 중" 976 00:56:36,476 --> 00:56:41,064 ‎시간이 지나면 다들 자신과 ‎동의한다는 착각에 빠집니다 977 00:56:41,147 --> 00:56:44,067 ‎뉴스 피드에서 ‎자꾸 비슷한 말만 들리니까요 978 00:56:44,567 --> 00:56:49,072 ‎그리고 그렇게 되면 ‎정말 쉽게 조종당하게 됩니다 979 00:56:49,155 --> 00:56:51,741 ‎마술사에게 현혹되는 것과 ‎똑같이 말이죠 980 00:56:51,825 --> 00:56:54,953 ‎마술사는 카드를 보여 주며 ‎아무 카드나 고르라고 하지만 981 00:56:55,453 --> 00:56:57,914 ‎당신은 이미 ‎다 조작된 것이라는 걸 모르고 982 00:56:58,456 --> 00:57:00,583 ‎그들이 고르게 만든 카드를 ‎고르는 겁니다 983 00:57:00,667 --> 00:57:03,169 ‎페이스북도 똑같아요 ‎페이스북은 이러죠 984 00:57:03,253 --> 00:57:06,172 ‎'직접 친구를 선택하고 ‎팔로우를 할 링크를 고르세요' 985 00:57:06,256 --> 00:57:08,716 ‎하지만 다 난센스예요 ‎마술사와 똑같죠 986 00:57:08,800 --> 00:57:11,302 ‎당신의 뉴스 피드는 ‎페이스북이 통제하니까요 987 00:57:11,386 --> 00:57:14,514 ‎우리 모두는 일련의 사실들에 따라 ‎움직이고 있을 뿐입니다 988 00:57:14,597 --> 00:57:16,474 ‎그 규모가 커지면 989 00:57:16,558 --> 00:57:20,770 ‎당신이 만든 세계관과 ‎모순되는 정보를 990 00:57:20,854 --> 00:57:23,690 ‎인지하거나 받아들일 수 없어요 991 00:57:23,773 --> 00:57:28,027 ‎즉, 우리는 객관적이고 ‎건설적인 개인이 아니란 말이에요 992 00:57:28,778 --> 00:57:32,449 ‎눈을 떠, 거짓말을 믿지 마 ‎눈을 떠 993 00:57:32,532 --> 00:57:34,451 ‎그리고 반대쪽을 봅니다 994 00:57:35,243 --> 00:57:38,746 ‎그리고 생각하는 거죠 ‎'어떻게 다들 이렇게 멍청하지?' 995 00:57:38,830 --> 00:57:42,125 ‎'내가 계속 보고 있는 ‎이 정보들을 보라고' 996 00:57:42,208 --> 00:57:44,627 ‎'어떻게 그들은 못 보는 거지?' 997 00:57:44,711 --> 00:57:47,297 ‎다들 똑같은 정보를 ‎못 보는 게 그 이유입니다 998 00:57:47,380 --> 00:57:50,800 ‎눈을 뜨고 거짓말을 믿지 마! 999 00:57:52,093 --> 00:57:53,678 ‎공화당원들은 어떤 사람이죠? 1000 00:57:53,761 --> 00:57:55,472 ‎무식한 사람들요 1001 00:57:55,555 --> 00:57:58,933 ‎민주당은 정당이 아니라 ‎범죄 조직입니다 1002 00:57:59,017 --> 00:58:03,188 ‎퓨 리서치 센터에서 ‎1만 명의 미국인을 연구했는데 1003 00:58:03,271 --> 00:58:05,315 ‎지난 20년을 통틀어 1004 00:58:05,398 --> 00:58:09,152 ‎개인적, 정치적으로 ‎가장 분극화되었다고 합니다 1005 00:58:11,821 --> 00:58:14,199 ‎공화당원의 3분의 1 이상이 1006 00:58:14,282 --> 00:58:16,826 ‎민주당이 국가에 ‎위협적인 존재라고 하며 1007 00:58:16,910 --> 00:58:20,580 ‎민주당원의 25% 이상이 ‎공화당에 대해 같은 말을 합니다 1008 00:58:20,663 --> 00:58:22,499 ‎우리가 논의하는 ‎정치적 분극화와 같은 1009 00:58:22,582 --> 00:58:24,417 ‎심각한 문제들이 1010 00:58:24,501 --> 00:58:28,046 ‎케이블 TV에도 산재해 있습니다 1011 00:58:28,129 --> 00:58:31,007 ‎미디어에도 우리의 관심을 1012 00:58:31,090 --> 00:58:33,343 ‎광고주에게 팔아서 수익을 올리는 1013 00:58:33,426 --> 00:58:35,762 ‎사업 모델이 있는데 1014 00:58:35,845 --> 00:58:38,890 ‎인터넷은 새롭고 ‎더 효율적인 도구인 것이죠 1015 00:58:40,391 --> 00:58:44,145 ‎유튜브에서는 ‎유튜브 추천에서 일했어요 1016 00:58:44,229 --> 00:58:47,148 ‎제가 작업한 알고리즘이 ‎사회의 분극화를 1017 00:58:47,232 --> 00:58:50,401 ‎더 심하게 만들어서 걱정이 됩니다 1018 00:58:50,485 --> 00:58:53,112 ‎하지만 사용 시간의 관점에서 보면 1019 00:58:53,196 --> 00:58:57,617 ‎이런 분극화는 사람들을 ‎잡아두는 데 매우 효과적입니다 1020 00:58:58,785 --> 00:59:00,870 ‎선생들이 이런 걸 가르치는 이유는 1021 00:59:00,954 --> 00:59:02,288 ‎돈을 받기 때문이야 1022 00:59:02,372 --> 00:59:04,207 ‎- 말도 안 되는 거지 ‎- 안녕, 벤지 1023 00:59:04,916 --> 00:59:06,292 ‎오늘 축구 연습 안 해? 1024 00:59:06,376 --> 00:59:08,878 ‎하는데 밀린 뉴스를 보느라고 1025 00:59:08,962 --> 00:59:11,506 ‎직접 조사해 봐 ‎극 중도파에서 말하는 건 1026 00:59:11,589 --> 00:59:14,008 ‎언제부터 네가 보는 게 ‎뉴스가 됐지? 1027 00:59:15,552 --> 00:59:18,721 ‎누나처럼 얘들도 ‎얼마나 엉망인지 말하는 거야 1028 00:59:19,305 --> 00:59:21,140 ‎하지만 이건 프로파간다일 뿐이야 1029 00:59:21,224 --> 00:59:24,060 ‎둘 다 사실이 아니야 ‎말이 되는 게 중요한 거지 1030 00:59:24,769 --> 00:59:26,938 ‎벤, 진심이야 ‎이런 건 너한테 안 좋아 1031 00:59:27,021 --> 00:59:28,690 ‎축구 연습하러 가야지 1032 00:59:35,154 --> 00:59:37,490 ‎그냥 넘길 수가 없어서 ‎이런 걸 공유하는 거야 1033 00:59:37,574 --> 00:59:41,077 ‎속으면 안 돼 ‎옳은 일이 아니라고, 알겠어? 1034 00:59:41,160 --> 00:59:43,121 ‎사람들은 알고리즘이 1035 00:59:43,204 --> 00:59:46,833 ‎자신에게 필요한 걸 주기 위해 ‎만들어졌다고 생각하는데 아니에요 1036 00:59:46,916 --> 00:59:52,589 ‎알고리즘은 사람들의 ‎눈을 끌 만한 것을 찾는 거고 1037 00:59:52,672 --> 00:59:56,217 ‎당신의 취향에 맞는 것을 ‎찾으려고 하는 겁니다 1038 00:59:56,301 --> 00:59:59,262 ‎그리고 이런 비디오 중 ‎하나를 보게 되면 1039 00:59:59,846 --> 01:00:02,223 ‎계속 반복해서 추천할 거예요 1040 01:00:02,682 --> 01:00:04,601 ‎이런 일이 일어나길 ‎바라는 사람은 없어요 1041 01:00:05,018 --> 01:00:07,812 ‎다만 이게 추천 시스템이 ‎하는 일이라는 겁니다 1042 01:00:07,895 --> 01:00:10,815 ‎유명한 농구 선수인 ‎카이리 어빙은 1043 01:00:11,482 --> 01:00:14,235 ‎지구가 평평하다고 믿었다가 ‎나중에 사과를 했어요 1044 01:00:14,319 --> 01:00:16,112 ‎그리고 유튜브를 비난했죠 1045 01:00:16,487 --> 01:00:18,656 ‎유튜브를 클릭하면 1046 01:00:18,740 --> 01:00:21,534 ‎헤어나올 수 없게 되잖아요 1047 01:00:21,618 --> 01:00:23,369 ‎나중에 라디오 방송에 나와서 1048 01:00:23,453 --> 01:00:25,955 ‎사람들을 호도할 작정이 ‎아니었다고 사과했을 때 1049 01:00:26,039 --> 01:00:29,667 ‎이런 말을 한 학생도 있습니다 ‎'둥근 지구를 믿는 사람들 짓이야' 1050 01:00:31,044 --> 01:00:33,963 ‎평평한 지구 음모론은 ‎알고리즘에 의해 1051 01:00:34,047 --> 01:00:37,634 ‎수억 번이나 추천되었습니다 1052 01:00:37,717 --> 01:00:43,890 ‎속는 사람들이 ‎멍청하다고 생각하기 쉽지만 1053 01:00:43,973 --> 01:00:46,893 ‎알고리즘은 하루가 다르게 ‎똑똑해집니다 1054 01:00:46,976 --> 01:00:50,063 ‎오늘은 지구가 평평하다고 ‎사람들을 속이고 1055 01:00:50,146 --> 01:00:53,566 ‎내일은 당신을 거짓으로 ‎속이려 할지도 모른다는 거죠 1056 01:00:54,317 --> 01:00:57,820 ‎11월 7일에 ‎'#피자게이트'가 탄생했습니다 1057 01:00:57,904 --> 01:00:59,197 ‎피자게이트는... 1058 01:01:00,782 --> 01:01:01,658 ‎아이고 1059 01:01:03,159 --> 01:01:06,913 ‎어떻게 해서 생긴 건지 ‎아직도 잘 모르겠는데 1060 01:01:06,996 --> 01:01:12,377 ‎피자를 주문하는 게 인신매매를 ‎뜻한다는 거였어요 1061 01:01:12,460 --> 01:01:15,046 ‎페이스북에서 그룹이 커지자 1062 01:01:15,129 --> 01:01:19,967 ‎페이스북 추천 엔진이 ‎일반적인 사용자들에게 1063 01:01:20,051 --> 01:01:21,761 ‎피자게이트 그룹 가입을 ‎권유하기 시작했어요 1064 01:01:21,844 --> 01:01:27,392 ‎예를 들어 백신 반대론자나 ‎비행운 음모론자처럼 1065 01:01:27,475 --> 01:01:30,645 ‎페이스북 알고리즘이 파악한 1066 01:01:30,728 --> 01:01:33,106 ‎음모론을 쉽게 믿는 사람들에게 1067 01:01:33,481 --> 01:01:36,859 ‎페이스북 추천 엔진이 ‎피자게이트 그룹을 띄운 거예요 1068 01:01:36,943 --> 01:01:41,072 ‎결국 한 남자가 총을 가지고 1069 01:01:41,155 --> 01:01:44,617 ‎지하실에 갇힌 아이들을 ‎구하겠다며 1070 01:01:44,701 --> 01:01:47,036 ‎지하실도 없는 피자 가게로 ‎가는 것으로 끝이 났죠 1071 01:01:47,120 --> 01:01:49,997 ‎- 여기서 뭘 했습니까? ‎- 아무것도 없는지 확인하려고요 1072 01:01:50,581 --> 01:01:52,333 ‎- 뭘 확인하려고요? ‎- 소아성애자들요 1073 01:01:52,417 --> 01:01:53,793 ‎- 뭐라고요? ‎- 소아성애자들요 1074 01:01:53,876 --> 01:01:55,878 ‎피자게이트 얘기야 1075 01:01:55,962 --> 01:02:00,216 ‎이건 모든 소셜 네트워크에 전파된 1076 01:02:00,299 --> 01:02:03,678 ‎음모론의 한 예입니다 1077 01:02:03,761 --> 01:02:06,097 ‎소셜 네트워크의 추천 엔진이 1078 01:02:06,180 --> 01:02:07,974 ‎한 번도 피자게이트를 1079 01:02:08,057 --> 01:02:10,643 ‎검색 안 해 본 사람들에게 ‎자발적으로 띄운 거예요 1080 01:02:10,727 --> 01:02:12,687 ‎"피자게이트, 민주당과 ‎소아성애자들의 딥 디쉬" 1081 01:02:12,770 --> 01:02:14,439 ‎MIT의 한 연구에 따르면 1082 01:02:14,522 --> 01:02:19,444 ‎트위터에서 가짜 뉴스가 ‎진짜 뉴스보다 6배 빨리 퍼집니다 1083 01:02:19,902 --> 01:02:21,863 ‎세상이 어떻게 될까요? 1084 01:02:21,946 --> 01:02:24,741 ‎한쪽이 다른 쪽보다 ‎6배나 유리한데 말이죠 1085 01:02:25,283 --> 01:02:27,660 ‎이렇게 생각하시면 돼요 1086 01:02:27,744 --> 01:02:31,706 ‎인간의 행동이란 바닥을 ‎이렇게 기울인 거라고요 1087 01:02:31,789 --> 01:02:34,709 ‎어떤 행동은 어렵게 만들고 ‎어떤 건 쉽게 만든 거죠 1088 01:02:34,792 --> 01:02:37,420 ‎언제나 언덕을 올라갈 순 있지만 1089 01:02:37,503 --> 01:02:38,796 ‎그러는 사람은 적죠 1090 01:02:38,880 --> 01:02:43,092 ‎그리고 그걸 사회 전체에 적용하면 ‎수십억 명의 사람들의 1091 01:02:43,176 --> 01:02:45,970 ‎생각과 행동을 ‎바꿀 수 있는 거예요 1092 01:02:46,053 --> 01:02:52,018 ‎우린 거짓 정보에 ‎편향된 시스템을 만들었어요 1093 01:02:52,643 --> 01:02:54,437 ‎우리가 원해서가 아니라 1094 01:02:54,520 --> 01:02:58,816 ‎거짓 정보가 ‎회사에 더 이익이라서입니다 1095 01:02:59,400 --> 01:03:01,319 ‎진실보다도요, 진실은 지루하죠 1096 01:03:01,986 --> 01:03:04,489 ‎허위 정보로 이윤을 남기는 ‎사업 모델입니다 1097 01:03:04,906 --> 01:03:08,159 ‎제재받지 않은 메시지가 ‎최고의 가격으로 1098 01:03:08,701 --> 01:03:11,287 ‎누구에게나 전달되도록 해서 ‎돈을 버는 거죠 1099 01:03:11,662 --> 01:03:13,956 ‎기후 변화 때문에? 그래 1100 01:03:14,040 --> 01:03:16,751 ‎그건 거짓말이야, 진짜라고 ‎그게 포인트야 1101 01:03:16,834 --> 01:03:20,046 ‎더 많이 언급할수록 ‎우리를 더 갈라놓을 수 있고 1102 01:03:20,129 --> 01:03:22,423 ‎힘을 더 가질수록 ‎통제력도 더 가지는 거야 1103 01:03:22,507 --> 01:03:25,468 ‎페이스북에는 이런 뉴스 피드 ‎포스트가 수없이 많습니다 1104 01:03:26,552 --> 01:03:29,180 ‎뭐가 진짜고 진실인지 ‎그들은 알 수가 없어요 1105 01:03:29,972 --> 01:03:33,726 ‎그래서 이 대화가 ‎지금 굉장히 중요한 겁니다 1106 01:03:33,810 --> 01:03:37,021 ‎코로나바이러스만 ‎빨리 퍼지는 게 아니라 1107 01:03:37,104 --> 01:03:40,191 ‎바이러스에 대한 잘못된 정보도 ‎온라인에 널리 퍼지고 있습니다 1108 01:03:40,274 --> 01:03:43,694 ‎물을 많이 마시면 ‎코로나바이러스가 배출된다는 건 1109 01:03:43,778 --> 01:03:47,490 ‎소셜 미디어에서 퍼지는 ‎거짓말 중 하나입니다 1110 01:03:47,573 --> 01:03:50,451 ‎정부가 다 계획하고 ‎바이러스를 만든 거예요 1111 01:03:50,535 --> 01:03:53,496 ‎다른 나라의 반응에 대해 ‎시뮬레이션도 했다고요 1112 01:03:53,955 --> 01:03:55,581 ‎코로나바이러스는 거짓말이야 1113 01:03:56,165 --> 01:03:57,959 ‎사스, 코로나바이러스 1114 01:03:58,376 --> 01:04:01,045 ‎이게 언제 만들어졌는지 봐 ‎2018년도야 1115 01:04:01,128 --> 01:04:03,798 ‎내 생각에는 미국 정부가 ‎시작한 것 같아 1116 01:04:04,215 --> 01:04:07,343 ‎아픈 사람은 없어, 아무도 없다고 1117 01:04:07,426 --> 01:04:09,095 ‎아픈 사람을 아는 사람도 없고 1118 01:04:09,512 --> 01:04:13,015 ‎어쩌면 정부가 코로나바이러스를 ‎핑계로 쓰는 걸지도 몰라 1119 01:04:13,099 --> 01:04:15,643 ‎다들 집에 있을 때 ‎무언가를 하려고 말이야 1120 01:04:15,726 --> 01:04:18,020 ‎코로나바이러스가 ‎사람을 죽이는 게 아니라 1121 01:04:18,104 --> 01:04:20,940 ‎그들이 내뿜는 5G 방사능이 ‎사람들을 죽이는 거야 1122 01:04:21,023 --> 01:04:22,525 ‎"무너지고 불태워지는 5G 기지국" 1123 01:04:22,608 --> 01:04:24,569 ‎우린 소문에 시달리고 있어요 1124 01:04:25,403 --> 01:04:28,823 ‎사람들이 실제로 ‎휴대폰 기지국을 불태우고 1125 01:04:28,906 --> 01:04:32,201 ‎러시아와 중국이 음모론을 ‎퍼트리는 것도 봤어요 1126 01:04:32,285 --> 01:04:35,246 ‎오늘 오전, 우크라이나에서 ‎공포와 시위가... 1127 01:04:35,329 --> 01:04:38,916 ‎사람들을 진실을 분간할 수 없고 ‎이젠 목숨마저 위협받습니다 1128 01:04:40,001 --> 01:04:42,628 ‎코로나바이러스에 대한 ‎가짜 정보의 출처들이 1129 01:04:42,712 --> 01:04:45,798 ‎약 5,200만 건이나 열람됐습니다 1130 01:04:45,882 --> 01:04:50,094 ‎그러니까 '실버 솔루션'이 ‎효과가 있다는 말이죠? 1131 01:04:50,177 --> 01:04:54,140 ‎코로나바이러스 변종에 대한 ‎검사는 하지 않았지만... 1132 01:04:54,223 --> 01:04:57,226 ‎코로나바이러스에 대해 ‎우리가 보고 있는 건 1133 01:04:57,310 --> 01:05:00,104 ‎정보 생태계에서 일어나는 일의 ‎극단적인 예입니다 1134 01:05:00,187 --> 01:05:01,022 ‎"하일 휘트머" 1135 01:05:01,105 --> 01:05:05,026 ‎소셜 미디어는 ‎가십과 풍문을 증폭시켜서 1136 01:05:05,109 --> 01:05:07,111 ‎진실을 알 수 없게 만듭니다 1137 01:05:07,194 --> 01:05:08,946 ‎우리가 무엇에 신경을 쓰건 말이죠 1138 01:05:26,130 --> 01:05:27,465 ‎아직 축구팀 소속이지? 1139 01:05:30,468 --> 01:05:34,430 ‎난 연습 전에 간식 먹을 건데 ‎같이 갈래? 1140 01:05:37,642 --> 01:05:38,684 ‎됐어 1141 01:05:45,066 --> 01:05:47,526 ‎지금 10명 중에 9명이 ‎불만을 갖고 있어 1142 01:05:47,610 --> 01:05:50,613 ‎극 중도파는 여느 정치 운동과 ‎다를 바가 없다고 1143 01:05:50,696 --> 01:05:54,492 ‎우리는 맞서는 거야 ‎이 소음에 맞서는 거라고 1144 01:05:54,575 --> 01:05:57,036 ‎너희는 내 동료야, 난 너희를 믿어 1145 01:05:59,246 --> 01:06:02,583 ‎- 극 중도파 콘텐츠 너무 좋네 ‎- 완전히 푹 빠졌어 1146 01:06:02,667 --> 01:06:03,626 ‎경매 진행 중 1147 01:06:04,627 --> 01:06:08,547 ‎입찰자 843명, 군수 회사에 ‎4.35센트에 팔았어 1148 01:06:08,631 --> 01:06:10,800 ‎이벤트 홍보 좀 해 보자 1149 01:06:10,883 --> 01:06:13,511 ‎이번 주 후반에 ‎벤의 지역에서 있을 집회들이야 1150 01:06:13,594 --> 01:06:15,179 ‎나도 새 블로거를 준비했어 1151 01:06:17,890 --> 01:06:22,979 ‎솔직히 말해서 ‎난 뭐든지 할 각오가 되어 있어 1152 01:06:23,062 --> 01:06:24,939 ‎뭐든지 말이야 1153 01:06:32,154 --> 01:06:33,114 ‎- 구독하고 ‎- 벤? 1154 01:06:33,197 --> 01:06:35,908 ‎그리고 꼭 돌아와, 왜냐하면... 1155 01:06:36,659 --> 01:06:38,869 ‎정말 큰일이 생길 테니까 1156 01:06:38,953 --> 01:06:40,162 ‎진짜 큰일이야 1157 01:06:40,788 --> 01:06:45,292 ‎페이스북의 문제 중 하나는 ‎역사상 최고의 1158 01:06:45,793 --> 01:06:47,920 ‎설득 도구라는 겁니다 1159 01:06:48,004 --> 01:06:52,508 ‎그게 독재자나 권위주의자의 ‎손에 들어간다고 생각해 보세요 1160 01:06:53,718 --> 01:06:57,638 ‎국민들을 통제하는 것에 ‎페이스북만큼 1161 01:06:57,722 --> 01:07:01,308 ‎효과적인 도구가 없습니다 1162 01:07:04,937 --> 01:07:07,398 ‎정부나 악당들이 소셜 미디어를 1163 01:07:07,481 --> 01:07:10,985 ‎무기화하는 것의 ‎가장 골치 아픈 문제 중 하나는 1164 01:07:11,610 --> 01:07:13,612 ‎실제 오프라인 피해를 ‎초래한다는 것이에요 1165 01:07:13,696 --> 01:07:15,072 ‎가장 많은 주목을 받은 예는 1166 01:07:15,156 --> 01:07:17,658 ‎미얀마에서 ‎일어난 일이라고 생각합니다 1167 01:07:17,742 --> 01:07:19,160 ‎"미얀마 대통령실" 1168 01:07:19,243 --> 01:07:21,203 ‎미얀마 사람들은 ‎인터넷이라고 하면 1169 01:07:21,287 --> 01:07:22,913 ‎페이스북을 생각해요 1170 01:07:22,997 --> 01:07:25,916 ‎그리고 사람들이 휴대폰을 살 때 ‎휴대폰 가게 주인이 1171 01:07:26,000 --> 01:07:29,920 ‎페이스북을 미리 설치하고 ‎계정을 열어 주는 일이 1172 01:07:30,004 --> 01:07:31,505 ‎빈번하게 일어납니다 1173 01:07:31,589 --> 01:07:34,884 ‎그래서 사람들이 휴대폰을 사면 ‎제일 먼저 열어 보는 앱이며 1174 01:07:34,967 --> 01:07:37,303 ‎사용법을 아는 앱이 ‎페이스북이란 거죠 1175 01:07:38,179 --> 01:07:41,891 ‎페이스북이 미얀마의 증오 발언을 ‎통제하는 것이 힘들어지고 있다는 1176 01:07:41,974 --> 01:07:43,809 ‎충격적인 ‎조사 결과가 발표됐습니다 1177 01:07:43,893 --> 01:07:46,020 ‎"모슬렘을 그만 죽여" 1178 01:07:46,103 --> 01:07:49,190 ‎페이스북이 군벌과 악당들에게 ‎대중의 의견을 조작하는 1179 01:07:49,273 --> 01:07:51,776 ‎새로운 방법을 제시한 거예요 1180 01:07:51,859 --> 01:07:55,529 ‎그리고 로힝야 모슬렘에 대한 ‎폭력과 대량 학살을 1181 01:07:55,613 --> 01:07:57,406 ‎조장했으며 1182 01:07:58,115 --> 01:07:59,867 ‎마을을 불태우고 1183 01:07:59,950 --> 01:08:03,704 ‎대량 강간과 비인간적인 ‎심각한 범죄로 1184 01:08:03,788 --> 01:08:08,209 ‎70만 명이 넘는 로힝야 모슬렘이 ‎국외로 도피했습니다 1185 01:08:11,170 --> 01:08:16,550 ‎열성적인 선동가들이 ‎예전에는 없었던 게 아니에요 1186 01:08:16,634 --> 01:08:19,762 ‎문제는 조작성을 띈 내러티브를 1187 01:08:19,845 --> 01:08:23,724 ‎너무도 쉽게 퍼트릴 수 있는 ‎플랫폼이 있다는 거예요 1188 01:08:23,808 --> 01:08:25,434 ‎돈도 별로 들이지 않고요 1189 01:08:25,518 --> 01:08:27,520 ‎제가 선거를 조작하고 싶으면 1190 01:08:27,895 --> 01:08:30,564 ‎페이스북의 ‎음모론 그룹에 들어가서 1191 01:08:30,648 --> 01:08:32,233 ‎지구 평면설을 믿는 사람들과 1192 01:08:32,316 --> 01:08:34,443 ‎달 착륙을 믿지 않는 1193 01:08:34,860 --> 01:08:37,780 ‎수백 명의 사람들을 찾은 다음에 1194 01:08:37,863 --> 01:08:41,450 ‎페이스북에 이런 사용자들을 ‎수천 명 찾아달라고 해요 1195 01:08:42,118 --> 01:08:46,080 ‎그런 수천 명의 사용자들 목록을 ‎페이스북은 기꺼이 보내 줄 것이고 1196 01:08:46,163 --> 01:08:49,250 ‎저는 더 많은 음모론을 ‎그들에게 제공할 수 있습니다 1197 01:08:51,168 --> 01:08:52,837 ‎3.4센트에 낙찰 1198 01:08:53,379 --> 01:08:54,922 ‎새로운 극 중도파 영상 홍보 1199 01:08:55,005 --> 01:08:56,048 ‎또 다른 광고 준비 완료 1200 01:08:58,509 --> 01:09:02,138 ‎알고리즘과 조작적인 정치인들은 ‎우리를 자극하는 법의 1201 01:09:02,221 --> 01:09:04,056 ‎전문가가 되고 있습니다 1202 01:09:04,140 --> 01:09:08,352 ‎가짜 뉴스를 능숙하게 만들고 ‎진짜처럼 받아들여지게 해서 1203 01:09:08,435 --> 01:09:10,813 ‎우리가 그런 거짓말들을 ‎믿게 만듭니다 1204 01:09:10,896 --> 01:09:12,606 ‎우리의 자아와 신념에 ‎대한 통제력을 1205 01:09:12,690 --> 01:09:14,150 ‎점점 상실하는 것 같아요 1206 01:09:31,458 --> 01:09:32,668 ‎편을 고를 수 있게 말이야 1207 01:09:32,751 --> 01:09:34,879 ‎사방에 거짓말이 널려 있어 1208 01:09:34,962 --> 01:09:39,967 ‎그들이 권력을 유지하고 ‎모든 걸 통제하기 위해서지 1209 01:09:40,050 --> 01:09:44,555 ‎우리의 마음을 통제해서 ‎비밀을 지키기 위해서라고 1210 01:09:44,638 --> 01:09:46,390 ‎"진실을 의심해" 1211 01:09:46,473 --> 01:09:48,517 ‎"질병 대책 본부가 백신과 ‎자폐증 은폐를 인정하다" 1212 01:09:48,601 --> 01:09:50,895 ‎아무도 진실을 믿지 않는 ‎세상을 상상해 보세요 1213 01:09:50,978 --> 01:09:53,314 ‎"모두에게 통하는 백신은 없다 ‎우리의 유전자가 증거임" 1214 01:09:53,397 --> 01:09:55,649 ‎다들 정부가 ‎거짓말을 한다고 믿어요 1215 01:09:56,317 --> 01:09:58,444 ‎모든 게 음모론이고요 1216 01:09:58,527 --> 01:10:01,197 ‎'누구도 믿어선 안 돼 ‎난 반대편이 증오스러워' 1217 01:10:01,280 --> 01:10:02,698 ‎다 그쪽으로 가고 있어요 1218 01:10:02,781 --> 01:10:06,160 ‎유럽의 정치적 지각 변동이 ‎계속 이어지고 있습니다 1219 01:10:06,243 --> 01:10:08,412 ‎이번에는 이탈리아와 스페인입니다 1220 01:10:08,495 --> 01:10:11,999 ‎전체적으로 유럽의 ‎전통적 중도주의 연합이 패배하고 1221 01:10:12,082 --> 01:10:15,002 ‎극우와 극좌파가 부상했습니다 1222 01:10:17,588 --> 01:10:19,048 ‎"중도파" 1223 01:10:19,757 --> 01:10:20,591 ‎물러나 1224 01:10:21,675 --> 01:10:22,509 ‎좋아, 가자 1225 01:10:28,390 --> 01:10:31,268 ‎이 계정들은 의도적으로 1226 01:10:31,352 --> 01:10:33,896 ‎홍콩의 정치적 분열을 ‎일으켰습니다 1227 01:10:38,609 --> 01:10:39,610 ‎좋아, 벤 1228 01:10:42,863 --> 01:10:45,032 ‎정보의 원천이 오직 1229 01:10:45,115 --> 01:10:48,410 ‎페이스북과 소셜 미디어인 ‎나라는 어떻나요? 1230 01:10:48,953 --> 01:10:50,871 ‎민주주의가 금세 무너집니다 1231 01:10:50,955 --> 01:10:51,830 ‎6개월 만에요 1232 01:10:51,914 --> 01:10:53,791 ‎시카고에서의 혼란 이후로 1233 01:10:53,874 --> 01:10:57,044 ‎시위자들과 지지자들 사이의 ‎격렬한 충돌이... 1234 01:10:58,003 --> 01:11:01,632 ‎민주주의가 위기를 맞고 있습니다 1235 01:11:01,715 --> 01:11:04,343 ‎우리는 민주주의에 대한 ‎전 세계적인 공격을 보고 있어요 1236 01:11:04,426 --> 01:11:05,427 ‎"극 중도파" 1237 01:11:05,511 --> 01:11:07,930 ‎대부분의 ‎민주주의 선거를 하는 나라들이 1238 01:11:08,013 --> 01:11:09,723 ‎공격을 받았어요 1239 01:11:10,641 --> 01:11:12,518 ‎대규모로 일어나고 있어요 1240 01:11:12,601 --> 01:11:15,562 ‎정치적 세력이나 ‎수백만 달러를 가진 사람들이 1241 01:11:15,646 --> 01:11:18,524 ‎케냐나 카메룬을 불안정하게 ‎만들고 싶다는 말을 해요 1242 01:11:18,607 --> 01:11:20,651 ‎'앙골라? 이 정도면 되겠네' 1243 01:11:20,734 --> 01:11:23,362 ‎지난 일요일 브라질에선 ‎독특한 선거가 열렸습니다 1244 01:11:23,445 --> 01:11:25,823 ‎소셜 미디어에 의지해 ‎캠페인을 벌였습니다 1245 01:11:31,036 --> 01:11:33,956 ‎우리 IT 업계 사람들이 ‎만든 도구가 1246 01:11:34,039 --> 01:11:37,418 ‎사회의 구조를 불안정하게 하고 ‎침식시키고 있습니다 1247 01:11:37,501 --> 01:11:40,254 ‎모든 나라에서 동시다발적으로요 1248 01:11:40,337 --> 01:11:44,258 ‎독일, 스페인, 프랑스 ‎브라질, 호주 등 1249 01:11:44,591 --> 01:11:46,927 ‎세계에서 손꼽히는 선진국들이 1250 01:11:47,428 --> 01:11:49,221 ‎서로 자멸하고 있는데 1251 01:11:49,305 --> 01:11:50,931 ‎공통점이 뭘까요? 1252 01:11:51,974 --> 01:11:52,975 ‎지금 아는 거로 봤을 때 1253 01:11:53,058 --> 01:11:56,312 ‎페이스북이 2016년 대선의 결과에 ‎영향을 끼쳤다고 보시나요? 1254 01:11:56,854 --> 01:11:58,188 ‎어려운 질문이군요 1255 01:11:58,897 --> 01:11:59,773 ‎그런데... 1256 01:12:01,275 --> 01:12:04,653 ‎실제로는 변수가 너무 많았습니다 1257 01:12:04,737 --> 01:12:07,865 ‎페이스북, 트위터, 구글 대표가 ‎2016년 선거의 1258 01:12:07,948 --> 01:12:09,450 ‎러시아의 개입에 대해 1259 01:12:09,533 --> 01:12:12,578 ‎증언하기 위해서 ‎이틀째 국회에 소환되었습니다 1260 01:12:12,661 --> 01:12:17,291 ‎제삼자에 의한 조작은 ‎해킹이 아닙니다 1261 01:12:18,500 --> 01:12:21,003 ‎그렇죠? 러시아는 ‎페이스북을 해킹 안 했어요 1262 01:12:21,545 --> 01:12:24,965 ‎그들은 페이스북이 ‎합법적인 광고주와 1263 01:12:25,049 --> 01:12:27,593 ‎합법적인 이용자들을 위해 ‎만든 도구를 1264 01:12:27,926 --> 01:12:30,346 ‎비도덕적인 목적에 ‎사용한 것입니다 1265 01:12:32,014 --> 01:12:33,891 ‎리모컨으로 하는 전쟁 같아요 1266 01:12:34,475 --> 01:12:36,602 ‎국경을 침범하지 않고도 1267 01:12:36,685 --> 01:12:39,229 ‎다른 나라를 조종하는 거죠 1268 01:12:39,605 --> 01:12:40,981 ‎폭력적인 이미지가 보이는데 1269 01:12:41,065 --> 01:12:43,317 ‎쓰레기통이 ‎밀고 밀리는 것 같습니다 1270 01:12:43,400 --> 01:12:45,736 ‎누구를 뽑으려고 하는지는 ‎중요한 게 아니었어요 1271 01:12:46,362 --> 01:12:50,574 ‎사회에 분열과 혼란을 ‎일으키는 게 목적이었죠 1272 01:12:50,657 --> 01:12:53,035 ‎여긴 헌팅턴 비치인데... 1273 01:12:53,118 --> 01:12:54,870 ‎양쪽 진영이 ‎서로 목소리를 못 듣게 하고 1274 01:12:54,953 --> 01:12:56,413 ‎들으려고도 하지 않고 1275 01:12:56,497 --> 01:12:58,123 ‎서로 믿지도 않게 만드는 게 1276 01:12:58,207 --> 01:12:59,875 ‎목적이었습니다 1277 01:12:59,958 --> 01:13:02,711 ‎이곳은 증오심이 드러나서 1278 01:13:02,795 --> 01:13:05,464 ‎인종 간 폭력으로 변질된 곳입니다 1279 01:13:05,547 --> 01:13:07,925 ‎"버지니아 사태 ‎하루에 폭력으로 3명이 사망" 1280 01:13:20,145 --> 01:13:20,979 ‎벤! 1281 01:13:21,605 --> 01:13:22,439 ‎카산드라! 1282 01:13:22,981 --> 01:13:23,816 ‎- 캐시! ‎- 벤! 1283 01:13:23,899 --> 01:13:25,484 ‎이리 와! 이리 와! 1284 01:13:27,486 --> 01:13:31,156 ‎팔 올리고 무릎 꿇어, 당장 1285 01:13:36,120 --> 01:13:37,204 ‎- 진정... ‎- 벤! 1286 01:13:37,287 --> 01:13:38,414 ‎야, 손들어! 1287 01:13:39,623 --> 01:13:41,291 ‎돌아서 바닥에 엎드려! 1288 01:13:56,807 --> 01:13:59,643 ‎최고 입찰자들을 위한 시스템이 ‎우리가 원하는 걸까요? 1289 01:14:01,437 --> 01:14:05,399 ‎민주주의를 완전히 팔아서 ‎그 누구에게나 접근해서 1290 01:14:05,482 --> 01:14:08,694 ‎특정 계층에 거짓을 심고 ‎문화 전쟁을 일으킬까요? 1291 01:14:09,236 --> 01:14:10,237 ‎그런 걸 원하나요? 1292 01:14:14,783 --> 01:14:16,201 ‎이 나라의 국민들은 1293 01:14:17,244 --> 01:14:18,620 ‎이제 서로 대화하지 않습니다 1294 01:14:19,913 --> 01:14:23,000 ‎이 나라 국민들은 ‎지난 선거에서 뽑은 사람 때문에 1295 01:14:23,083 --> 01:14:25,127 ‎친구와 절교한 사람들입니다 1296 01:14:25,878 --> 01:14:28,422 ‎이 나라 국민들은 ‎고립되어 있습니다 1297 01:14:28,505 --> 01:14:30,632 ‎우리가 옳다고 말하는 ‎채널만 보면서 말이죠 1298 01:14:32,259 --> 01:14:36,847 ‎저는 부족주의가 우리를 ‎망치고 있다고 말하고 싶습니다 1299 01:14:37,389 --> 01:14:39,183 ‎미국을 분열시키고 있고 1300 01:14:40,267 --> 01:14:42,853 ‎제정신인 성인이 할 짓이 아닙니다 1301 01:14:43,187 --> 01:14:45,314 ‎모두에게 각자의 진실을 ‎가질 권리가 있다면 1302 01:14:45,397 --> 01:14:49,401 ‎타협할 필요도 없고 ‎화합할 필요도 없습니다 1303 01:14:49,485 --> 01:14:51,695 ‎사람들끼리 ‎서로 소통할 필요도 없죠 1304 01:14:52,321 --> 01:14:56,617 ‎우리에겐 같이 이해할 수 있는 ‎현실이 필요합니다 1305 01:14:57,451 --> 01:14:58,410 ‎아니면 나라도 아니에요 1306 01:14:58,494 --> 01:14:59,495 ‎"주커버그" 1307 01:14:59,578 --> 01:15:02,998 ‎장기적인 해결책으로는 ‎실제 사람들과는 다른 패턴을 1308 01:15:03,081 --> 01:15:08,128 ‎파악하는 인공 지능 도구를 ‎더 만드는 겁니다 1309 01:15:08,212 --> 01:15:11,840 ‎우린 기술자들이 ‎이 문제를 해결할 능력이 있다고 1310 01:15:11,924 --> 01:15:13,884 ‎포장하는 것을 내버려 두고 있어요 1311 01:15:15,135 --> 01:15:16,470 ‎그건 거짓말이에요 1312 01:15:17,679 --> 01:15:20,724 ‎사람들은 인공 지능이 ‎진실을 알 거라고 말하는데 1313 01:15:21,683 --> 01:15:23,685 ‎인공 지능은 ‎이런 문제를 해결 못 해요 1314 01:15:24,269 --> 01:15:27,189 ‎인공 지능은 ‎가짜 뉴스 문제를 해결 못 해요 1315 01:15:28,649 --> 01:15:31,026 ‎구글은 이런 말을 할 ‎자격이 없어요 1316 01:15:31,109 --> 01:15:34,154 ‎'이게 음모론인가? ‎이건 진실인가?' 1317 01:15:34,696 --> 01:15:36,240 ‎뭐가 진실인지 그들도 모르니까요 1318 01:15:36,823 --> 01:15:40,410 ‎그들의 진실은 클릭이 전부입니다 1319 01:15:41,870 --> 01:15:45,123 ‎우리가 뭐가 진실인지 ‎동의하지 않거나 1320 01:15:45,207 --> 01:15:47,584 ‎진실이 있다는 것에 ‎동의하지 않으면 1321 01:15:48,293 --> 01:15:49,294 ‎우린 끝난 거예요 1322 01:15:49,753 --> 01:15:52,089 ‎이건 다른 문제 밑의 문제입니다 1323 01:15:52,172 --> 01:15:54,424 ‎왜냐하면 뭐가 사실인지 ‎동의할 수 없다면 1324 01:15:55,092 --> 01:15:57,803 ‎그 어떤 문제도 ‎해결할 수 없게 되니까요 1325 01:16:05,435 --> 01:16:07,729 ‎벤에게 평평한 지구 축구 클럽을 ‎추천하자 1326 01:16:07,813 --> 01:16:10,107 ‎스포츠 소식은 띄우지 마 ‎이제 안 보잖아 1327 01:16:39,970 --> 01:16:42,764 ‎실리콘 밸리의 많은 사람들은 ‎우리가 사용자들을 1328 01:16:42,848 --> 01:16:45,225 ‎교환이 가능하며 ‎그중 누구도 중요하지 않은 1329 01:16:45,309 --> 01:16:48,020 ‎작은 뉴런들로 삼는 ‎슈퍼 브레인을 만들고 있다는 1330 01:16:48,103 --> 01:16:49,563 ‎이론에 동의합니다 1331 01:16:50,230 --> 01:16:53,150 ‎그리고 사람들에게 ‎이상한 역할을 부여합니다 1332 01:16:53,233 --> 01:16:56,069 ‎당신은 컴퓨터의 ‎작은 부품일 뿐이며 1333 01:16:56,153 --> 01:16:58,905 ‎우리는 이 거대한 뇌의 ‎기능에 의해 1334 01:16:58,989 --> 01:17:02,367 ‎행동이 조작되고 있으며 ‎중요하지도 않은 거예요 1335 01:17:02,451 --> 01:17:04,911 ‎돈도 못 받고, 인정도 못 받고 1336 01:17:04,995 --> 01:17:06,455 ‎자결권도 없어요 1337 01:17:06,538 --> 01:17:07,873 ‎그저 은밀하게 조종될 뿐이죠 1338 01:17:07,956 --> 01:17:10,417 ‎프로그래밍을 해야 하는 ‎컴퓨팅 노드일 뿐이니까요 1339 01:17:10,500 --> 01:17:12,336 ‎원래 컴퓨팅 노드는 ‎그렇게 다루거든요 1340 01:17:20,093 --> 01:17:21,094 ‎이런 1341 01:17:21,928 --> 01:17:25,390 ‎기술을 실질적인 위협으로 보는 건 1342 01:17:25,474 --> 01:17:28,060 ‎조금 지나친 비약인데... 1343 01:17:29,603 --> 01:17:33,982 ‎이렇게 생각하긴 쉽죠 ‎'내 손안의 스마트폰을' 1344 01:17:35,609 --> 01:17:37,235 ‎'스크롤하고 클릭을 하는 것이' 1345 01:17:37,319 --> 01:17:39,196 ‎'뭐가 위험하다는 거지?' 1346 01:17:40,280 --> 01:17:41,615 ‎'화면 반대편에' 1347 01:17:41,698 --> 01:17:43,950 ‎'슈퍼컴퓨터가 있긴 한데' 1348 01:17:44,409 --> 01:17:47,537 ‎'내가 영상을 더 보게 하는 게 ‎뭐가 위험하다는 거지?' 1349 01:17:54,252 --> 01:17:59,341 ‎기술 그 자체가 ‎실제로 위험하다는 게 아니라 1350 01:18:02,636 --> 01:18:04,346 ‎"설득 기술에 대한 ‎미국 상원 청문회" 1351 01:18:04,429 --> 01:18:08,850 ‎사회의 어두운 면을 끌어내는 ‎기술의 능력과 1352 01:18:09,559 --> 01:18:13,522 ‎사회의 어두운 면이 ‎실질적인 위협인 거예요 1353 01:18:13,605 --> 01:18:15,899 ‎"미국 상원" 1354 01:18:18,819 --> 01:18:23,115 ‎기술이 대량 혼돈을 야기하고 1355 01:18:23,198 --> 01:18:24,533 ‎분노, 무례 1356 01:18:24,616 --> 01:18:26,326 ‎서로 간의 불신과 1357 01:18:27,452 --> 01:18:30,622 ‎외로움, 소외, 분극화 1358 01:18:30,706 --> 01:18:33,333 ‎선거 해킹, 포퓰리즘 등으로 1359 01:18:33,917 --> 01:18:36,962 ‎진짜 문제에 집중할 수 없게 ‎더 한눈을 팔게 만든다면 1360 01:18:37,963 --> 01:18:39,214 ‎그건 그냥 사회인 거예요 1361 01:18:40,340 --> 01:18:46,388 ‎그런데 이젠 사회에 ‎스스로 회복할 능력이 없고 1362 01:18:46,471 --> 01:18:48,515 ‎혼란 속으로 빠져들고 있죠 1363 01:18:51,977 --> 01:18:54,938 ‎이런 상품을 쓰지 않는 사람도 ‎영향을 받습니다 1364 01:18:55,522 --> 01:18:57,524 ‎이것들은 ‎디지털 프랑켄슈타인이 되었고 1365 01:18:57,607 --> 01:19:00,068 ‎자신들의 이미지로 ‎세상을 바꾸고 있습니다 1366 01:19:00,152 --> 01:19:01,862 ‎아이들의 정신 건강이나 1367 01:19:01,945 --> 01:19:04,489 ‎우리의 정치나 정치적 담론도 1368 01:19:04,573 --> 01:19:07,492 ‎대중과의 논의 없이 멋대로 말이죠 1369 01:19:07,576 --> 01:19:10,579 ‎- 그래서 결국에는... ‎- 누구 책임이라고 봅니까? 1370 01:19:10,662 --> 01:19:13,582 ‎저는 플랫폼이 책임을 ‎져야 한다고 생각합니다 1371 01:19:13,665 --> 01:19:15,584 ‎그들이 선거 광고를 장악할 때 1372 01:19:15,667 --> 01:19:17,794 ‎선거를 보호할 책임을 져야 합니다 1373 01:19:17,878 --> 01:19:20,380 ‎그들이 토요일 오전에 ‎아이들의 정신 건강을 장악할 때도 1374 01:19:20,464 --> 01:19:22,424 ‎토요일 오전을 지킬 책임이 ‎그들에게 있고요 1375 01:19:23,717 --> 01:19:27,929 ‎사람들의 관심을 끌기 위한 경쟁은 ‎끝나지 않을 것입니다 1376 01:19:28,388 --> 01:19:31,850 ‎기술은 우리의 삶에 ‎더 깊게 침투할 거예요 1377 01:19:31,933 --> 01:19:34,895 ‎인공 지능은 퇴보하기는커녕 ‎더 발전해서 1378 01:19:34,978 --> 01:19:37,105 ‎우리의 시선을 잡아 둘 것입니다 1379 01:19:38,940 --> 01:19:42,027 ‎저는 62세이고 1380 01:19:42,110 --> 01:19:45,155 ‎이 대화를 하는 도중에도 ‎더 늙고 있습니다 1381 01:19:45,238 --> 01:19:47,365 ‎하지만 이건 분명합니다 1382 01:19:48,700 --> 01:19:52,370 ‎전 아마 죽은 걸 ‎다행으로 여기게 될 겁니다 1383 01:19:52,454 --> 01:19:54,331 ‎이런 문제가 터지면 말이죠 1384 01:19:54,790 --> 01:19:59,586 ‎왜냐하면 저는 정말 무섭거든요 1385 01:20:01,171 --> 01:20:03,048 ‎당신도 그렇나요? 1386 01:20:03,548 --> 01:20:06,885 ‎아니면 제가 잘 모르는 것에 ‎과민하게 반응하는 건가요? 1387 01:20:09,930 --> 01:20:11,598 ‎뭐가 가장 걱정되죠? 1388 01:20:15,519 --> 01:20:18,480 ‎짧게 놓고 보면은... 1389 01:20:19,523 --> 01:20:20,524 ‎내전요 1390 01:20:24,444 --> 01:20:29,908 ‎지금 상태로 어디 보자... ‎20년쯤 더 지나게 되면 1391 01:20:31,117 --> 01:20:34,579 ‎우리의 방관으로 ‎문명을 망가뜨릴 겁니다 1392 01:20:34,663 --> 01:20:37,958 ‎지구 온난화 문제도 ‎해결하지 못할 것이고요 1393 01:20:38,041 --> 01:20:42,087 ‎세계의 민주화도 퇴보할 것이며 1394 01:20:42,170 --> 01:20:46,132 ‎이상한 독재에 빠지게 될 것입니다 1395 01:20:46,216 --> 01:20:48,426 ‎세계 경제도 망치겠죠 1396 01:20:49,177 --> 01:20:52,264 ‎우린 아마 못 살아남을 거예요 1397 01:20:52,347 --> 01:20:54,808 ‎저는 정말 그럴 것 같아요 1398 01:21:02,524 --> 01:21:04,985 ‎우리의 상상이 ‎실현되기 전이 어땠는지를 1399 01:21:05,068 --> 01:21:08,488 ‎이들이 마지막으로 ‎기억하는 세대가 될까요? 1400 01:21:11,074 --> 01:21:14,077 ‎매트릭스를 자각하지 못하는데 ‎어떻게 매트릭스에서 깨어나죠? 1401 01:21:17,747 --> 01:21:21,209 ‎"유토피아가 될지 ‎모두 사라지게 될지는" 1402 01:21:21,293 --> 01:21:25,255 ‎"최후의 순간까지 ‎알 수 없을 것이다" 1403 01:21:25,338 --> 01:21:27,299 ‎"버크민스터 풀러" 1404 01:21:27,382 --> 01:21:30,635 ‎우리가 말하는 것의 대부분이 1405 01:21:31,511 --> 01:21:33,680 ‎편향적으로 암울하게 들리죠 1406 01:21:33,763 --> 01:21:36,808 ‎'기술이 우리 세상을 망치고' 1407 01:21:36,892 --> 01:21:38,059 ‎'애들도 망치고 있어' 1408 01:21:38,143 --> 01:21:39,269 ‎그런데 아니에요 1409 01:21:40,228 --> 01:21:45,567 ‎유토피아이면서 디스토피아라서 ‎헷갈리는 거예요 1410 01:21:45,942 --> 01:21:50,447 ‎스마트폰의 버튼만 누르면 ‎차가 30초 만에 오고 1411 01:21:50,530 --> 01:21:52,699 ‎제가 원하는 곳으로 갈 수 있죠 1412 01:21:52,782 --> 01:21:55,660 ‎이건 마법처럼 대단한 거예요 1413 01:21:56,161 --> 01:21:57,662 ‎우리가 '좋아요' 버튼을 만들 땐 1414 01:21:57,746 --> 01:22:01,249 ‎세상에 긍정성과 사랑을 ‎퍼트리는 게 목표였습니다 1415 01:22:01,499 --> 01:22:05,003 ‎오늘날의 10대가 ‎좋아요를 덜 받아서 1416 01:22:05,086 --> 01:22:06,379 ‎우울해 하거나 1417 01:22:06,463 --> 01:22:08,632 ‎정치적 분극화를 야기하는 건 1418 01:22:08,715 --> 01:22:09,883 ‎우리 의도가 아니었어요 1419 01:22:09,966 --> 01:22:12,135 ‎그들이 처음부터 사악하진 ‎않았다고 생각해요 1420 01:22:13,511 --> 01:22:15,555 ‎사업 모델에 문제가 있는 거죠 1421 01:22:15,847 --> 01:22:20,226 ‎서비스를 멈추게 하고 ‎다 파괴할 수도 있겠죠 1422 01:22:20,310 --> 01:22:24,522 ‎200억 달러의 주식을 날리고 ‎소송도 당하고요 1423 01:22:24,606 --> 01:22:27,108 ‎하지만 흘린 물은 ‎다시 담을 수 없습니다 1424 01:22:27,484 --> 01:22:30,403 ‎조금은 손볼 수 있겠지만 결국에는 1425 01:22:30,487 --> 01:22:34,032 ‎분기마다 매출과 사용량을 ‎늘려야만 합니다 1426 01:22:34,658 --> 01:22:37,535 ‎더 커질수록 ‎변화하기 어렵게 되고요 1427 01:22:38,495 --> 01:22:43,458 ‎저는 사람들이 사업 모델과 ‎경제적 인센티브와 1428 01:22:43,541 --> 01:22:46,169 ‎주주의 압박에 갇혀서 1429 01:22:46,252 --> 01:22:48,922 ‎다른 걸 할 수 없게 됐다고 봐요 1430 01:22:49,005 --> 01:22:50,924 ‎회사가 이윤을 남기는 것에 ‎집중하는 것을 1431 01:22:51,007 --> 01:22:53,176 ‎받아들여야 한다고 생각합니다 1432 01:22:53,259 --> 01:22:56,888 ‎하지만 규정, 규칙, 경쟁이 ‎없는 건 안 되죠 1433 01:22:56,972 --> 01:23:00,433 ‎회사들이 일종의 ‎정부 노릇을 하는 것도요 1434 01:23:00,934 --> 01:23:03,353 ‎그들은 자신들을 ‎통제할 수 있다고 말하는데 1435 01:23:03,436 --> 01:23:05,480 ‎그건 정말 말도 안 되는 ‎거짓말이에요 1436 01:23:06,064 --> 01:23:09,150 ‎재정적 인센티브가 ‎세상을 움직이고 있어요 1437 01:23:09,234 --> 01:23:15,573 ‎그러니 문제를 해결하려면 ‎재정적 인센티브를 재구성해야죠 1438 01:23:16,074 --> 01:23:18,785 ‎이 회사들이 변해야 할 ‎재정적인 이유는 없어요 1439 01:23:19,160 --> 01:23:21,329 ‎그래서 규제가 ‎필요하다고 생각합니다 1440 01:23:21,413 --> 01:23:24,290 ‎전화 회사는 여러분에 대한 ‎민감한 정보를 많이 갖고 있지만 1441 01:23:24,374 --> 01:23:27,544 ‎그걸 악용하지 못하게 하는 ‎법이 많이 있죠 1442 01:23:27,627 --> 01:23:31,506 ‎그런데 디지털 프라이버시와 ‎관련된 법은 거의 없어요 1443 01:23:31,589 --> 01:23:34,426 ‎데이터 수집과 처리에 ‎세금을 먹일 수도 있어요 1444 01:23:34,509 --> 01:23:37,554 ‎예를 들어 수도세가 ‎사용한 물의 양에 따라 1445 01:23:37,637 --> 01:23:39,723 ‎책정되는 것과 같은 원리로요 1446 01:23:39,806 --> 01:23:43,226 ‎기업이 가진 데이터의 양에 따라 ‎세금을 부과하는 거죠 1447 01:23:43,309 --> 01:23:44,769 ‎그러면 지구 상의 모든 데이터를 1448 01:23:44,853 --> 01:23:47,856 ‎수집하지 말아야 할 ‎재정적인 이유가 생기는 거예요 1449 01:23:47,939 --> 01:23:50,567 ‎법은 이런 것들에 ‎너무 뒤처져 있습니다 1450 01:23:50,650 --> 01:23:55,864 ‎하지만 현재 상황은 ‎사용자를 보호하지 않고 1451 01:23:55,947 --> 01:23:58,700 ‎엄청난 부를 갖춘 회사들의 1452 01:23:58,783 --> 01:24:01,453 ‎권리와 특권을 보호하고 있습니다 1453 01:24:02,245 --> 01:24:05,832 ‎우리는 언제까지 부자와 ‎권력자에게 복종할 건가요? 1454 01:24:05,915 --> 01:24:07,417 ‎아니면 이런 말을 할까요? 1455 01:24:07,959 --> 01:24:12,047 ‎국익이나 사람들, 사용자의 이익이 1456 01:24:12,130 --> 01:24:17,260 ‎이미 억만장자인 이들의 이익보다 1457 01:24:18,011 --> 01:24:21,473 ‎더 중요할 때도 있다고 말이죠 1458 01:24:21,890 --> 01:24:26,603 ‎이 시장은 민주주의와 ‎자유를 위태롭게 하고 1459 01:24:26,686 --> 01:24:28,521 ‎불법으로 제정되어야 합니다 1460 01:24:29,147 --> 01:24:31,816 ‎이건 급진적인 제안이 아니에요 1461 01:24:31,900 --> 01:24:34,194 ‎우리가 불법화한 ‎다른 시장도 있어요 1462 01:24:34,277 --> 01:24:36,988 ‎인간 장기 시장을 불법화했고 1463 01:24:37,072 --> 01:24:39,491 ‎인간 노예 시장도 불법화했어요 1464 01:24:39,949 --> 01:24:44,037 ‎피할 수 없는 ‎파괴적인 결과가 있기 때문이죠 1465 01:24:44,537 --> 01:24:45,830 ‎우리가 사는 세상은 1466 01:24:45,914 --> 01:24:50,001 ‎죽은 나무가 살아 있는 나무보다 ‎더 가치 있는 세상입니다 1467 01:24:50,085 --> 01:24:53,838 ‎죽은 고래도 살아 있는 고래보다 ‎더 가치 있고요 1468 01:24:53,922 --> 01:24:56,341 ‎우리 경제는 그런 식으로 ‎오랫동안 움직였고 1469 01:24:56,424 --> 01:24:58,134 ‎기업은 규제를 받지 않았기에 1470 01:24:58,218 --> 01:25:00,678 ‎계속 숲을 파괴하고 1471 01:25:00,762 --> 01:25:01,763 ‎고래를 죽이고 1472 01:25:01,846 --> 01:25:06,101 ‎땅을 파서 석유를 시추할 겁니다 1473 01:25:06,184 --> 01:25:08,394 ‎그게 지구를 ‎파괴한다는 걸 알면서도 1474 01:25:08,478 --> 01:25:12,148 ‎후손들이 살 지구를 ‎망친다는 걸 알면서도요 1475 01:25:12,232 --> 01:25:13,858 ‎이건 무슨 수를 써서라도 1476 01:25:13,942 --> 01:25:16,694 ‎이윤만 남기려는 ‎근시안적 사고가 원인입니다 1477 01:25:16,778 --> 01:25:20,156 ‎이윤만을 좇는 기업이 ‎마법처럼 최선의 결과를 1478 01:25:20,240 --> 01:25:21,950 ‎만들어낼 것이라 믿는 것 같죠 1479 01:25:22,033 --> 01:25:24,494 ‎이건 환경에도 ‎오랫동안 영향을 끼쳤어요 1480 01:25:24,577 --> 01:25:27,288 ‎정말 무섭지만 이제 우리가 ‎문명으로 깨어나서 1481 01:25:27,372 --> 01:25:29,207 ‎애초부터 이런 사고방식이 1482 01:25:29,290 --> 01:25:31,709 ‎잘못됐음을 깨달을 마지막 수단은 1483 01:25:31,793 --> 01:25:35,004 ‎이제는 우리가 나무고 ‎고래라는 걸 깨닫는 겁니다 1484 01:25:35,088 --> 01:25:37,048 ‎우리의 관심은 채굴될 수 있어요 1485 01:25:37,132 --> 01:25:39,134 ‎우리가 값진 인생을 사는 것보다 1486 01:25:39,217 --> 01:25:41,594 ‎더 많은 시간을 ‎화면을 보는 데 쓰고 1487 01:25:41,678 --> 01:25:42,971 ‎광고를 본다면 1488 01:25:43,054 --> 01:25:45,890 ‎기업에게 더 이익이 되는 거예요 1489 01:25:45,974 --> 01:25:47,559 ‎그리고 그 결과를 지금 보고 있죠 1490 01:25:47,642 --> 01:25:50,687 ‎기업들이 ‎강력한 인공 지능을 이용해서 1491 01:25:50,770 --> 01:25:53,648 ‎우리의 관심을 ‎끄는 법을 알아내고 1492 01:25:53,731 --> 01:25:55,358 ‎그들의 입맛에 맞는 걸 ‎보게 만듭니다 1493 01:25:55,441 --> 01:25:57,277 ‎우리의 목표와 가치와 삶에 1494 01:25:57,360 --> 01:25:59,237 ‎가장 부합하는 게 아니라 말이죠 1495 01:26:02,991 --> 01:26:04,450 ‎"스티브 잡스 ‎오늘의 키노트" 1496 01:26:05,535 --> 01:26:06,911 ‎컴퓨터는 제게... 1497 01:26:06,995 --> 01:26:10,290 ‎우리가 만들어 낸 ‎가장 놀라운 도구입니다 1498 01:26:11,124 --> 01:26:13,877 ‎우리 심리의 자전거라고도 ‎할 수 있는 것이죠 1499 01:26:15,628 --> 01:26:20,091 ‎인간적 기술의 개념은 ‎실리콘 밸리의 시발점과 같습니다 1500 01:26:21,050 --> 01:26:25,722 ‎그런데 우린 길을 잃었어요 ‎멋진 일로 변해 버렸으니까요 1501 01:26:25,805 --> 01:26:27,265 ‎옳은 일이 아니라요 1502 01:26:27,348 --> 01:26:29,726 ‎인터넷은 엉뚱한 곳이었어요 1503 01:26:29,809 --> 01:26:31,394 ‎그리고 실험적이었고 1504 01:26:31,477 --> 01:26:34,731 ‎창조적인 것들이 일어났어요 ‎물론 지금도 그렇지만 1505 01:26:34,814 --> 01:26:38,610 ‎거대한 쇼핑몰 같은 느낌이에요 ‎요즘에는요 1506 01:26:38,693 --> 01:26:44,157 ‎그런데 그것보다 ‎더 큰 무언가가 있을 거란 말이죠 1507 01:26:46,743 --> 01:26:48,411 ‎아마 전 낙관론자인가 봐요 1508 01:26:48,494 --> 01:26:52,040 ‎소셜 미디어의 모습과 용도를 ‎바꿀 수 있다고 믿거든요 1509 01:26:54,083 --> 01:26:56,586 ‎기술이 작동하는 법은 ‎물리 법칙이 아니에요 1510 01:26:56,669 --> 01:26:57,921 ‎딱 정해진 게 없어요 1511 01:26:58,004 --> 01:27:02,175 ‎저 같은 인간의 선택입니다 1512 01:27:02,759 --> 01:27:05,345 ‎그리고 인간은 그 기술을 ‎바꿀 수 있어요 1513 01:27:06,971 --> 01:27:09,974 ‎문제는 우리가 인정을 ‎하든 안 하든 1514 01:27:10,475 --> 01:27:15,438 ‎우리 일의 나쁜 결과가 ‎직접적으로 나타난다는 겁니다 1515 01:27:21,027 --> 01:27:24,864 ‎우리가 만들었으니 ‎우리가 바꿀 책임이 있습니다 1516 01:27:37,210 --> 01:27:42,298 ‎관심만 끄는 모델은 우리가 원하는 ‎인간을 대하는 방식이 아닙니다 1517 01:27:46,094 --> 01:27:48,137 ‎이거 나만 이러는 거... 1518 01:27:49,847 --> 01:27:50,848 ‎딱한 자식 1519 01:27:51,516 --> 01:27:53,226 ‎이런 썩은 사업 모델을 ‎없애는 것에 1520 01:27:53,309 --> 01:27:56,145 ‎건강한 사회의 구조가 ‎달려 있습니다 1521 01:28:04,696 --> 01:28:07,782 ‎우린 인간적으로 상품들을 ‎디자인하라고 요구할 수 있습니다 1522 01:28:09,409 --> 01:28:13,121 ‎우리를 채취 가능한 자원으로 ‎취급하지 말 것도 말이죠 1523 01:28:15,164 --> 01:28:18,334 ‎'세상을 어떻게 더 좋게 만들까'가 ‎목적이 되어야 합니다 1524 01:28:20,461 --> 01:28:23,798 ‎역사적으로 봤을 때도 ‎무언가가 발전한 이유는 1525 01:28:23,881 --> 01:28:26,342 ‎누군가가 ‎이렇게 말했기 때문입니다 1526 01:28:26,426 --> 01:28:28,428 ‎'이건 말도 안 돼 ‎우린 더 잘할 수 있어' 1527 01:28:29,178 --> 01:28:32,557 ‎비평가들이 발전을 이끄는 것이고 1528 01:28:33,141 --> 01:28:35,393 ‎비평가들이 ‎진정한 낙관주의자예요 1529 01:28:38,313 --> 01:28:39,147 ‎안녕 1530 01:28:46,195 --> 01:28:47,697 ‎좀 무모한 것 같죠? 1531 01:28:47,780 --> 01:28:51,534 ‎마치 이것들을 ‎디자인하는 근본적인 방법이 1532 01:28:52,994 --> 01:28:54,704 ‎좋은 방향으로 ‎가지 않는 것 같아요 1533 01:28:55,246 --> 01:28:56,873 ‎전부가 말이죠 1534 01:28:56,956 --> 01:29:00,626 ‎그러니 모든 걸 바꿔야 한다는 게 ‎무모하게만 들립니다 1535 01:29:01,169 --> 01:29:02,670 ‎하지만 그렇게 해야 해요 1536 01:29:04,339 --> 01:29:05,923 ‎우리가 할 수 있을까요? 1537 01:29:07,383 --> 01:29:08,301 ‎그래야만 합니다 1538 01:29:21,314 --> 01:29:24,942 ‎아주 낙관적이신 것 같군요 1539 01:29:26,194 --> 01:29:27,195 ‎그렇게 들렸나요? 1540 01:29:27,653 --> 01:29:30,114 ‎계속 그러시는 게 믿기지가 않네요 1541 01:29:30,198 --> 01:29:33,409 ‎전 이런 말을 했는데도요 ‎'우린 디스토피아를 맞을 겁니다' 1542 01:29:33,493 --> 01:29:35,328 ‎'아주 이른 시일 내로 말이죠' 1543 01:29:35,411 --> 01:29:37,830 ‎'그렇게 안 되려면 ‎기적이 필요할 거예요' 1544 01:29:37,914 --> 01:29:40,291 ‎물론 그 기적은 집단적 의지입니다 1545 01:29:41,000 --> 01:29:44,587 ‎저는 우리가 해결할 거라고 ‎낙관하고 있지만 1546 01:29:44,670 --> 01:29:47,048 ‎시간이 오래 걸릴 거예요 1547 01:29:47,131 --> 01:29:50,385 ‎이게 문제라는 걸 ‎모두가 알지 못하니까 말이죠 1548 01:29:50,468 --> 01:29:55,890 ‎오늘날의 기술에서 ‎가장 큰 실패 중 하나는 1549 01:29:55,973 --> 01:29:58,643 ‎리더십의 실패라고 생각합니다 1550 01:29:58,726 --> 01:30:01,979 ‎사람들이 나와서 ‎잘된 것만 말하지 않고 1551 01:30:02,063 --> 01:30:05,900 ‎완벽하지 않은 것에 대해서도 ‎자유롭게 얘기해야 해요 1552 01:30:05,983 --> 01:30:08,194 ‎누군가 새로운 것을 ‎만들 수 있게 말이죠 1553 01:30:08,277 --> 01:30:10,321 ‎근본적으로 말이죠 1554 01:30:10,405 --> 01:30:14,617 ‎대중의 압력이 커질 때까지 ‎기계는 변하지 않을 겁니다 1555 01:30:14,700 --> 01:30:18,329 ‎이런 대화를 하고 ‎목소리를 높임으로써 1556 01:30:18,413 --> 01:30:21,082 ‎어떤 경우에는 이런 기술을 통해서 1557 01:30:21,165 --> 01:30:24,252 ‎흐름을 바꾸고 ‎대화를 바꿀 수가 있어요 1558 01:30:24,335 --> 01:30:27,004 ‎이상하게 들릴지 몰라도 ‎이건 제 세계예요 1559 01:30:27,088 --> 01:30:29,632 ‎전 그들을 싫어하지도 않고 ‎구글, 페북에 폐 끼치기도 싫어요 1560 01:30:29,715 --> 01:30:32,468 ‎그저 개혁하길 바라는 거죠 ‎세상이 파괴되면 안 되니까요 1561 01:30:32,969 --> 01:30:35,513 ‎저는 제 시간을 ‎낭비하는 것 같은 앱을 1562 01:30:35,596 --> 01:30:37,723 ‎제 스마트폰에서 ‎엄청나게 많이 제거했습니다 1563 01:30:37,807 --> 01:30:40,685 ‎모든 소셜 미디어 앱과 ‎뉴스 앱들요 1564 01:30:40,768 --> 01:30:42,520 ‎그리고 저에게 1565 01:30:42,603 --> 01:30:45,815 ‎꼭 필요하지도 않은 정보로 ‎제 다리를 진동시키는 1566 01:30:45,898 --> 01:30:48,943 ‎알림 설정도 껐습니다 1567 01:30:49,026 --> 01:30:51,279 ‎쿠키를 제 주머니에 ‎넣지 않는 것과 같은 이유로요 1568 01:30:51,362 --> 01:30:53,197 ‎알림의 수를 줄이세요 1569 01:30:53,281 --> 01:30:54,449 ‎알림 설정을 끄세요 1570 01:30:54,532 --> 01:30:55,950 ‎알림 설정 다 끄세요 1571 01:30:56,033 --> 01:30:58,536 ‎더는 구글을 쓰지 않고 ‎콴트를 씁니다 1572 01:30:58,619 --> 01:31:01,497 ‎사용자의 검색 기록을 ‎저장하지 않거든요 1573 01:31:01,581 --> 01:31:04,459 ‎유튜브의 영상 추천을 ‎절대 받지 마세요 1574 01:31:04,542 --> 01:31:07,003 ‎항상 선택해서 보세요 ‎싸울 방법은 있습니다 1575 01:31:07,086 --> 01:31:12,133 ‎추천 목록을 제거하는 ‎크롬 확장 프로그램이 많아요 1576 01:31:12,216 --> 01:31:15,636 ‎자신이 만든 걸 되돌리는 걸 ‎추천하는 게 마음에 드네요 1577 01:31:15,720 --> 01:31:16,554 ‎네 1578 01:31:16,929 --> 01:31:21,642 ‎뭘 공유하기 전에 팩트를 확인하고 ‎소스를 검토하고 검색을 더 하세요 1579 01:31:21,726 --> 01:31:25,104 ‎너무 감정에 호소하게 ‎만들어졌다는 생각이 들면 1580 01:31:25,188 --> 01:31:26,314 ‎그 생각이 맞을 거예요 1581 01:31:26,397 --> 01:31:29,025 ‎기본적으로 클릭이 투표인 거예요 1582 01:31:29,108 --> 01:31:30,359 ‎낚시성 게시물을 클릭하면 1583 01:31:30,443 --> 01:31:33,779 ‎기존의 시스템을 유지할 수 있게 ‎재정적인 도움을 주는 거예요 1584 01:31:33,863 --> 01:31:36,949 ‎다양한 종류의 정보를 ‎얻도록 하세요 1585 01:31:37,033 --> 01:31:37,909 ‎여러분의 삶에서요 1586 01:31:37,992 --> 01:31:40,995 ‎전 저랑 의견이 다른 사람들도 ‎트위터에서 팔로우를 합니다 1587 01:31:41,078 --> 01:31:44,207 ‎다른 관점에 ‎저를 노출시키고 싶거든요 1588 01:31:44,665 --> 01:31:46,584 ‎대부분의 IT 업계 사람들은 1589 01:31:46,667 --> 01:31:49,045 ‎자식들에게 이런 전자 기기를 ‎주지 않습니다 1590 01:31:49,128 --> 01:31:51,047 ‎우리 애들은 소셜 미디어를 ‎전혀 쓰지 않습니다 1591 01:31:51,964 --> 01:31:53,549 ‎규칙인 건가요? 아니면... 1592 01:31:53,633 --> 01:31:54,509 ‎규칙이에요 1593 01:31:55,092 --> 01:31:57,845 ‎우린 아주 열성적이에요 1594 01:31:57,929 --> 01:31:59,222 ‎거의 미쳤죠 1595 01:31:59,305 --> 01:32:05,603 ‎그런데 아이들은 ‎이런 걸 거의 못 쓰게 합니다 1596 01:32:05,686 --> 01:32:08,564 ‎저는 가족의 삶을 더 편하게 하고 1597 01:32:08,648 --> 01:32:12,610 ‎확실한 근거도 있는 ‎세 가지 규칙을 만들었습니다 1598 01:32:12,693 --> 01:32:15,571 ‎첫 번째 규칙은 모든 전자 기기를 ‎침실에서 제거하는 거예요 1599 01:32:15,655 --> 01:32:17,281 ‎매일 밤마다 정해진 시각이 되면요 1600 01:32:17,365 --> 01:32:20,535 ‎그 시각이 언제건 잠들기 30분 전 ‎모든 전자 기기를 제거하는 겁니다 1601 01:32:20,618 --> 01:32:21,661 ‎두 번째 규칙은 1602 01:32:21,744 --> 01:32:24,038 ‎고등학생이 될 때까지 ‎소셜 미디어를 금지하는 거예요 1603 01:32:24,121 --> 01:32:26,374 ‎저는 솔직히 16살은 ‎되어야 한다고 생각해요 1604 01:32:26,457 --> 01:32:28,960 ‎중학교는 안 그래도 힘드니까 ‎고등학교 때까진 금지하세요 1605 01:32:29,043 --> 01:32:32,964 ‎세 번째 규칙은 ‎자녀와 시간 예산을 짜는 거예요 1606 01:32:33,047 --> 01:32:34,757 ‎이렇게 얘기해 보세요 1607 01:32:34,840 --> 01:32:37,927 ‎'하루에 몇 시간이나 ‎소셜 미디어에 쓰고 싶니?' 1608 01:32:38,010 --> 01:32:39,637 ‎'얼마나 쓰는 게 좋겠니?" 1609 01:32:39,720 --> 01:32:41,597 ‎애들은 꽤 합리적인 대답을 ‎할 거예요 1610 01:32:42,056 --> 01:32:44,642 ‎저도 잘 알아요 1611 01:32:44,725 --> 01:32:48,563 ‎제가 모든 사람들이 소셜 미디어를 ‎지우게 할 순 없다는 거요 1612 01:32:48,646 --> 01:32:50,439 ‎하지만 몇 명은 그럴 거예요 1613 01:32:50,523 --> 01:32:54,402 ‎그런데 소수가 계정을 ‎삭제하는 것도 의미가 큽니다 1614 01:32:54,485 --> 01:32:58,406 ‎대화를 할 수 있는 ‎공간이 생기는 것이니까요 1615 01:32:58,489 --> 01:33:00,908 ‎저는 조작 엔진에 1616 01:33:00,992 --> 01:33:05,204 ‎얽매이지 않고 ‎사회적인 대화를 하는 사람들이 1617 01:33:05,288 --> 01:33:07,540 ‎세상에 더 많았으면 좋겠거든요 1618 01:33:07,623 --> 01:33:10,126 ‎그러니까 지워요 ‎시스템에서 탈출하라고요 1619 01:33:10,209 --> 01:33:12,503 ‎네, 삭제해요 ‎멍청한 것에서 벗어나요 1620 01:33:13,546 --> 01:33:16,507 ‎세상은 아름다우니까요 ‎오늘 날씨도 좋네요 1621 01:33:18,426 --> 01:33:19,969 ‎"우리를 팔로우하세요!" 1622 01:33:20,052 --> 01:33:21,887 ‎"농담입니다" 1623 01:33:21,971 --> 01:33:27,476 ‎"TheSocialDilemma.com에서 ‎논의해 보자고요" 1624 01:33:32,064 --> 01:33:34,609 ‎자막: 박해준