1 00:00:07,924 --> 00:00:13,013 ‎"NETFLIX 오리지널 다큐멘터리" 2 00:00:18,059 --> 00:00:23,565 ‎"네바다주 어딘가" 3 00:00:52,260 --> 00:00:57,515 ‎"브리트니 카이저" 4 00:00:58,558 --> 00:01:01,311 ‎카이저 씨, 버락 오바마 ‎선거 캠프의 이상주의적 인턴에서 5 00:01:01,394 --> 00:01:02,896 ‎아주 고약한 사람들과 6 00:01:02,979 --> 00:01:06,733 ‎한패인 회사에서 일하기까지 ‎아주 먼 길을 오셨군요 7 00:01:08,526 --> 00:01:09,652 ‎"케임브리지 애널리티카" 8 00:01:09,736 --> 00:01:11,863 ‎그런 게 불편하진 않으셨나요? 9 00:01:17,911 --> 00:01:20,497 ‎명함을 두 세트 가지고 ‎다니셨다고 했는데 10 00:01:21,998 --> 00:01:23,249 ‎어느 쪽에서 일하셨나요? 11 00:01:40,225 --> 00:01:41,643 ‎기분 나쁘게 받아들이진 마세요 12 00:01:42,936 --> 00:01:44,646 ‎이제까지 살면서 어떤 나라의 13 00:01:45,814 --> 00:01:49,567 ‎정보 기관을 위해 일하거나 ‎정보를 제공한 적이 있습니까? 14 00:02:02,205 --> 00:02:03,832 ‎"뉴욕시" 15 00:02:03,915 --> 00:02:05,458 ‎- 안녕하세요 ‎- 커피 작은 걸로요 16 00:02:05,959 --> 00:02:07,544 ‎2.25달러입니다 17 00:02:13,716 --> 00:02:14,717 ‎됐네요 18 00:02:18,555 --> 00:02:21,099 ‎휴대전화 마이크가 19 00:02:21,850 --> 00:02:23,393 ‎대화를 도청한다는 20 00:02:23,560 --> 00:02:27,480 ‎광고를 본 적 있는 사람? 21 00:02:32,068 --> 00:02:34,571 ‎그런 게 어떻게 가능한지 ‎떠올리는 건 어렵지만 22 00:02:35,071 --> 00:02:38,950 ‎사람의 행동을 정확하게 23 00:02:39,033 --> 00:02:40,869 ‎에측할 수는 있습니다 24 00:02:40,952 --> 00:02:44,622 ‎그래서 기분 나쁠 정도로 정확하고 25 00:02:44,706 --> 00:02:46,332 ‎"데이비드 캐럴 ‎파슨스 디자인 스쿨 부교수" 26 00:02:46,416 --> 00:02:48,626 ‎우리를 도청하는 것 같은 27 00:02:49,377 --> 00:02:51,796 ‎광고는 더 그럴 듯한 증거죠 28 00:02:52,046 --> 00:02:53,756 ‎타깃을 설정하는 것이 ‎효과를 발휘하고 29 00:02:53,840 --> 00:02:56,217 ‎그것이 우리의 행동을 ‎예측한다는 면에서요 30 00:02:56,843 --> 00:03:00,930 ‎어쩌면 제가 인터넷이 현실인 ‎시대에 자랐기 때문일 수도 있죠 31 00:03:01,014 --> 00:03:04,267 ‎광고는 거의 신경을 안 쓰거든요 32 00:03:04,726 --> 00:03:07,187 ‎언제 그것이 문제가 되나요? 33 00:03:23,453 --> 00:03:27,165 ‎이 열차는 브루클린행 Q라인 ‎급행 열차입니다 34 00:03:27,248 --> 00:03:30,043 ‎다음 정차할 역은 ‎커낼 스트리트입니다 35 00:03:33,713 --> 00:03:36,216 ‎하나로 연결된 세상을 ‎꿈꿨던 것에서 시작됐죠 36 00:03:38,718 --> 00:03:41,930 ‎누구나 서로의 경험을 공유하고 37 00:03:42,472 --> 00:03:43,973 ‎덜 외로울 수 있는 공간요 38 00:03:46,267 --> 00:03:49,604 ‎이 세계가 우리의 중매쟁이가 되고 39 00:03:51,481 --> 00:03:55,068 ‎즉시 사실을 확인해 주며 ‎여가를 책임지고 기억을 보조하며 40 00:03:55,318 --> 00:03:58,863 ‎심지어 치료해 주기까지 ‎오랜 시간이 걸리지 않았죠 41 00:04:01,783 --> 00:04:04,827 ‎저는 디지털 미디어와 ‎앱 개발을 가르쳤죠 42 00:04:05,370 --> 00:04:08,831 ‎그래서 우리의 온라인 활동에서 ‎나오는 데이터가 그냥 사라지진 43 00:04:08,915 --> 00:04:10,333 ‎않는다는 걸 알고 있었어요 44 00:04:12,710 --> 00:04:15,755 ‎제가 깊이 파면 팔수록 ‎깨닫게 된 것은 45 00:04:18,466 --> 00:04:20,843 ‎이런 우리의 디지털 흔적들을 ‎파헤치고 모으면 46 00:04:21,219 --> 00:04:25,556 ‎매년 1조 달러 규모의 ‎산업이 됩니다 47 00:04:29,477 --> 00:04:31,646 ‎우린 이제 원자재가 된 거죠 48 00:04:33,564 --> 00:04:35,316 ‎하지만 우리는 이런 49 00:04:35,400 --> 00:04:38,403 ‎자유로운 연결성이란 선물을 ‎너무나 사랑했습니다 50 00:04:39,153 --> 00:04:42,740 ‎그래서 누구도 이용 조건을 ‎읽고 싶어 하지 않았죠 51 00:04:57,463 --> 00:04:59,215 ‎저의 모든 교류 내역과 52 00:04:59,924 --> 00:05:03,052 ‎신용 카드 결제, 웹 겁색 53 00:05:03,386 --> 00:05:06,055 ‎위치 정보, 좋아요까지 54 00:05:08,266 --> 00:05:12,979 ‎제 신원과 결부되어 ‎실시간으로 수집됩니다 55 00:05:13,187 --> 00:05:17,984 ‎어떤 구매자든 제 감정의 고동에 ‎곧바로 접속할 수 있죠 56 00:05:21,779 --> 00:05:26,284 ‎그들은 이런 지식으로 무장하고 ‎제 관심을 끌기 위해 경쟁합니다 57 00:05:27,243 --> 00:05:33,916 ‎개인 맞춤형으로 저 혼자만 보는 ‎콘텐츠를 지속적으로 제공하면서요 58 00:05:37,879 --> 00:05:41,132 ‎이것은 우리 모두에게 ‎해당되는 진실입니다 59 00:05:43,718 --> 00:05:44,927 ‎무엇을 좋아하고 60 00:05:46,554 --> 00:05:47,680 ‎무엇을 무서워하는지 61 00:05:48,639 --> 00:05:50,141 ‎어떤 것에 관심을 보이는지 62 00:05:51,434 --> 00:05:56,147 ‎경계는 무엇이고 ‎그것을 넘으려면 뭐가 필요한지 63 00:05:59,942 --> 00:06:01,402 ‎워싱턴으로 돌아가라 64 00:06:01,778 --> 00:06:03,946 ‎부정직한 힐러리는 ‎거짓말을 엄청 하고 있어요 65 00:06:04,030 --> 00:06:06,616 ‎주식 시장이 곤두박질칠 겁니다 66 00:06:08,284 --> 00:06:11,204 ‎우리는 필터링된 현실로 인한 ‎좋지 못한 결과를 보았습니다 67 00:06:11,287 --> 00:06:12,705 ‎바로 2016년 대선에서요 68 00:06:19,754 --> 00:06:21,381 ‎빌어먹을 여기서 나가! 69 00:06:22,256 --> 00:06:26,386 ‎실제 세계는 심각하게 분리된 ‎잔해와도 같았습니다 70 00:06:30,723 --> 00:06:33,518 ‎더러운 멕시코 놈들은 엿 먹어라! ‎장벽을 세웁시다! 71 00:06:38,648 --> 00:06:42,610 ‎연결된 세계라는 꿈이 어떻게 ‎우리를 갈라놓은 걸까요? 72 00:07:03,673 --> 00:07:06,801 ‎제 딸은 8살이고 ‎아들은 4살입니다 73 00:07:08,719 --> 00:07:13,683 ‎모든 앱을 깔기 전에 ‎면밀히 조사합니다 74 00:07:14,225 --> 00:07:17,895 ‎저는 개인 정보 보호 정책을 읽고 ‎이렇게 이야기하는 아빠예요 75 00:07:19,355 --> 00:07:22,275 ‎'아니, 이거 보여? ‎휴대폰 메시지를 읽는대' 76 00:07:22,817 --> 00:07:24,235 ‎'그래도 괜찮겠어?' 77 00:07:27,488 --> 00:07:31,242 ‎성가신 부모가 되는 ‎새로운 방법이죠 78 00:07:34,162 --> 00:07:35,163 ‎왔니? 79 00:07:36,456 --> 00:07:38,332 ‎저는 오랫동안 ‎우리의 데이터와 정보가 80 00:07:38,416 --> 00:07:42,378 ‎잘못 사용되어 ‎제 아이들의 장래에 81 00:07:42,670 --> 00:07:44,589 ‎어떤 영향을 미치지 않을지 ‎걱정해 왔어요 82 00:07:46,716 --> 00:07:50,219 ‎하지만 2016년 대선을 ‎치른 다음에서야 83 00:07:50,678 --> 00:07:52,597 ‎우리 눈앞에서 그런 일이 ‎벌어졌다는 걸 깨달았죠 84 00:07:55,808 --> 00:07:57,435 ‎정말로 뭐랄까... 85 00:07:58,728 --> 00:08:01,314 ‎기술로 인한 최악의 시나리오가 ‎벌어진 거였다고 할까요 86 00:08:05,359 --> 00:08:07,528 ‎저는 답을 찾는 데 ‎강박적으로 매달렸습니다 87 00:08:09,655 --> 00:08:11,782 ‎그리고 계속해서 ‎이런 질문을 자문했죠 88 00:08:13,034 --> 00:08:16,162 ‎누가 우리에게 공포를 주입했나? ‎그리고 어떻게? 89 00:08:21,334 --> 00:08:25,671 ‎여기가 프로젝트 알라모였어요 ‎트럼프 선거 운동 작전의 90 00:08:25,755 --> 00:08:28,591 ‎디지털 무기가 있었던 곳이죠 91 00:08:29,550 --> 00:08:32,011 ‎프로젝트 알라모가 절정일 때는 92 00:08:33,179 --> 00:08:35,681 ‎하루에 1백만 달러씩 썼어요 93 00:08:36,516 --> 00:08:38,309 ‎페이스북 광고에요 94 00:08:39,519 --> 00:08:42,188 ‎페이스북, 유튜브 ‎구글 사람들이 있었죠 95 00:08:42,271 --> 00:08:44,065 ‎그 사람들이 여기에 모인 거죠 96 00:08:44,398 --> 00:08:47,235 ‎기본적으로 우리의 ‎실행 파트너였죠 97 00:08:47,318 --> 00:08:50,279 ‎플랫폼을 가능한 효과적으로 98 00:08:50,363 --> 00:08:52,073 ‎이용할 수 있는 한에서는요 99 00:08:52,573 --> 00:08:53,783 ‎하지만 우리는 또 100 00:08:53,866 --> 00:08:56,244 ‎케임브리지 애널리티카라는 회사도 101 00:08:59,413 --> 00:09:02,708 ‎프로젝트 알라모에 ‎관여했다는 것을 알게 됐죠 102 00:09:04,126 --> 00:09:05,795 ‎케임브리지 애널리티카는 ‎여기 있었어요 103 00:09:06,504 --> 00:09:10,424 ‎여기는 데이터가 있는 ‎일종의 두뇌였죠 104 00:09:10,508 --> 00:09:12,343 ‎이곳은 데이터 센터였어요 105 00:09:13,219 --> 00:09:15,346 ‎'여기선 이 주를 타깃으로 ‎저기선 저 주를 타깃으로' 106 00:09:15,805 --> 00:09:18,266 ‎- 그런 걸 어떻게 알았죠? ‎- 그 안에는... 107 00:09:18,349 --> 00:09:20,768 ‎그게 그들의 비결이었죠 108 00:09:29,110 --> 00:09:31,445 ‎- 폴 올리비에? ‎- 저예요 109 00:09:31,904 --> 00:09:34,740 ‎제 화면을 설정하고요 110 00:09:36,367 --> 00:09:39,787 ‎스위스 출신의 수학자 ‎폴 올리비에 드헤이와 111 00:09:39,870 --> 00:09:41,539 ‎연결됐습니다 112 00:09:42,248 --> 00:09:45,334 ‎저는 케임브리지 애널리티카를 ‎1년도 넘게 관찰했어요 113 00:09:45,793 --> 00:09:48,087 ‎찾아낼 게 더 있다고 생각합니다 114 00:09:49,755 --> 00:09:51,716 ‎폴과 저는 사람들에게 115 00:09:51,799 --> 00:09:54,677 ‎개인화된 메시지를 보내려면 ‎사람들의 데이터가 116 00:09:54,760 --> 00:09:55,886 ‎필요하다는 걸 알았죠 117 00:09:55,970 --> 00:09:57,847 ‎"세상을 뒤집은 데이터" 118 00:09:57,930 --> 00:10:01,976 ‎케임브리지 애널리티카는 ‎미국의 모든 유권자에 대해 119 00:10:02,059 --> 00:10:04,186 ‎5천 개의 데이터 포인트를 ‎보유하고 있다고 합니다 120 00:10:04,270 --> 00:10:07,815 ‎"모든 미국인에 대한 ‎5천 개의 데이터 포인트" 121 00:10:07,898 --> 00:10:08,983 ‎하지만 이것은 안 보였죠 122 00:10:10,985 --> 00:10:15,823 ‎문제는 이거예요, 어떻게 ‎안 보이는 것을 보이게 할까? 123 00:10:20,077 --> 00:10:21,621 ‎그게 가장 어려운 부분이죠 124 00:10:26,000 --> 00:10:28,753 ‎폴 올리비에 드헤이는 ‎한 가지 가설을 세웠죠 125 00:10:29,170 --> 00:10:32,882 ‎그 가설은 미국 유권자 데이터가 ‎영국에 있는 126 00:10:33,341 --> 00:10:36,385 ‎케임브리지 애널리티카의 ‎모기업에 의해 127 00:10:36,469 --> 00:10:37,553 ‎가공됐다는 거죠 128 00:10:38,429 --> 00:10:42,808 ‎"SCL/케임브리지 애널리티카 ‎본사" 129 00:10:43,809 --> 00:10:45,394 ‎그게 사실이라면 130 00:10:45,519 --> 00:10:49,148 ‎영국 변호사를 이용해 ‎케임브리지 애널리티카로부터 131 00:10:49,357 --> 00:10:50,650 ‎제 데이터를 얻어낼 수 있겠죠 132 00:10:54,403 --> 00:10:57,657 ‎데이비드의 소송이 지닌 가치는 ‎데이터권이 왜 기본권이고 133 00:10:58,032 --> 00:11:01,702 ‎간단한 권리인지 ‎보여주는 데 있다고 생각해요 134 00:11:01,786 --> 00:11:03,287 ‎"라비 나이크 ‎데이터권 사무 변호사" 135 00:11:03,371 --> 00:11:04,705 ‎데이비드가 알고 싶은 건 136 00:11:05,122 --> 00:11:06,540 ‎뭘 했느냐는 거니까요 137 00:11:08,167 --> 00:11:12,213 ‎만약 데이비드가 그의 프로필과 ‎관련된 데이터를 찾는다면 138 00:11:12,296 --> 00:11:13,464 ‎"개인 정보 요청 양식" 139 00:11:13,589 --> 00:11:15,883 ‎여러 가지 방법으로 ‎점을 이어 볼 수 있겠죠 140 00:11:16,717 --> 00:11:20,054 ‎페이스북, 케임브리지 애널리티카 ‎트럼프, 브렉시트 141 00:11:20,137 --> 00:11:23,891 ‎그리고 느슨하게 연결된 ‎다른 모든 곳들까지요 142 00:11:24,517 --> 00:11:26,519 ‎그 괴물의 내부를 ‎들여다보게 되면 143 00:11:26,936 --> 00:11:28,604 ‎시스템 내부를 볼 수 있게 되죠 144 00:11:31,816 --> 00:11:34,819 ‎"나는 봇이 아닙니다" 145 00:11:39,740 --> 00:11:42,576 ‎케임브리지 애널리티카/SCL의 146 00:11:42,660 --> 00:11:45,496 ‎최고 운영 책임자이자 ‎자금 담당 최고 책임자였죠 147 00:11:46,706 --> 00:11:49,083 ‎케임브리지 애널리티카에서 ‎일했던 사람들은 대부분 148 00:11:49,166 --> 00:11:51,001 ‎"줄리언 휘틀랜드, 전 COO/CFO ‎케임브리지 애널리티카/SCL" 149 00:11:51,085 --> 00:11:52,128 ‎똑같이 얘기할 겁니다 150 00:11:52,211 --> 00:11:55,715 ‎대단히 혁신적인 ‎업무 환경이었다고요 151 00:11:57,633 --> 00:12:00,094 ‎안녕하세요? ‎제 이름은 알렉산더 닉스입니다 152 00:12:00,177 --> 00:12:01,804 ‎케임브리지 애널리티카의 CEO죠 153 00:12:02,012 --> 00:12:05,182 ‎저희는 세계 최고의 데이터 기반 ‎커뮤니케이션 회사입니다 154 00:12:05,683 --> 00:12:08,394 ‎과거의 미친 사람부터 ‎오늘날의 수학 도사까지 155 00:12:08,477 --> 00:12:10,479 ‎통찰력을 지닌 ‎숙련된 데이터 과학자들이 156 00:12:10,563 --> 00:12:13,399 ‎당신이 도달하고자 하는 타깃층에 ‎관한 훨씬 더 많은 정보와 157 00:12:13,482 --> 00:12:14,900 ‎도달 방법을 알려드립니다 158 00:12:18,654 --> 00:12:19,864 ‎알렉산더 닉스는 159 00:12:19,947 --> 00:12:23,033 ‎강력한 선거 사업을 구축하는 데 ‎아주 신경을 많이 썼어요 160 00:12:23,868 --> 00:12:28,247 ‎그 후 오바마의 선거 운동이 ‎아주 성공적으로 161 00:12:28,789 --> 00:12:31,000 ‎데이터와 디지털 커뮤니케이션을 ‎활용한 것이 162 00:12:31,459 --> 00:12:34,587 ‎미국의 공화당 정치인들에게 ‎이런 서비스를 제공하는 163 00:12:34,670 --> 00:12:36,756 ‎시장 기회를 창출했습니다 164 00:12:39,550 --> 00:12:42,261 ‎위대한 아이오와주에 ‎주님의 축복이 함께 하시길 165 00:12:44,597 --> 00:12:48,893 ‎테드 크루즈는 예비 선거에서 ‎가장 낮게 평가받은 후보로 166 00:12:49,226 --> 00:12:51,729 ‎시작해서 결국 승자가 되었습니다 167 00:12:51,812 --> 00:12:54,064 ‎트럼프가 출마하기 전까지는요 168 00:12:55,357 --> 00:12:56,776 ‎제일 먼저 드릴 말씀은... 169 00:12:56,859 --> 00:12:59,069 ‎"크루즈가 아이오와에서 이긴 건 ‎우리 방법론이 통한다는 증거죠" 170 00:12:59,153 --> 00:13:00,237 ‎하나님께 영광 있으라 171 00:13:01,947 --> 00:13:05,993 ‎"크루즈 선거 운동의 대성공은 ‎심리학적 데이터와 분석 때문" 172 00:13:06,243 --> 00:13:08,329 ‎테드 크루즈가 밑바닥 선거 운동을 ‎잘했다고 하죠 173 00:13:08,412 --> 00:13:09,997 ‎이게 다 누구 제안이었냐 하면 174 00:13:10,080 --> 00:13:11,832 ‎"테드 크루즈의 비밀 병기 ‎당신의 페이스북 좋아요" 175 00:13:11,916 --> 00:13:14,126 ‎케임브리지 애널리티카의 CEO ‎알렉산더 닉스입니다 176 00:13:14,210 --> 00:13:15,419 ‎모든 것의 배후에 이 회사가 있죠 177 00:13:15,503 --> 00:13:18,464 ‎멋져요, 알렉산더 ‎밑바닥 선거 운동에 필요한 178 00:13:18,547 --> 00:13:20,007 ‎모든 일들을 보니까요 179 00:13:20,090 --> 00:13:22,051 ‎다른 후보자들이 ‎당신에게 연락했나요? 180 00:13:22,593 --> 00:13:23,969 ‎글쎄요... 181 00:13:26,472 --> 00:13:29,308 ‎"발신: ***@케임브리지 애널리티카 ‎수신: 알렉산더 닉스" 182 00:13:29,391 --> 00:13:32,228 ‎"제목: 트럼프 계약 ‎내일부터 계약을 이행할까요?" 183 00:13:35,898 --> 00:13:38,651 ‎오늘 여러분들께 빅 데이터와 ‎사이코그래픽스의 힘에 대해 184 00:13:38,776 --> 00:13:41,111 ‎말씀드리게 되어 정말 영광입니다 185 00:13:42,613 --> 00:13:46,116 ‎케임브리지 애널리티카가 ‎트럼프 선거 캠프에 합류했을 때 186 00:13:46,200 --> 00:13:48,118 ‎저희의 상품 가치는 상당했습니다 187 00:13:48,869 --> 00:13:52,331 ‎저희는 테드 크루즈 선거 캠프에서 ‎14개월간 일하면서 188 00:13:52,414 --> 00:13:56,669 ‎엄청난 양의 유권자 데이터와 ‎연구 자료를 189 00:13:56,752 --> 00:13:59,338 ‎트럼프 팀에 넘길 수 있었죠 190 00:14:01,382 --> 00:14:04,510 ‎수천만 명의 미국인이 191 00:14:04,593 --> 00:14:06,053 ‎이 설문 조사를 하도록 해서 192 00:14:07,304 --> 00:14:09,515 ‎저희는 4, 5천 개의 ‎데이터 포인트를 갖춘 193 00:14:09,598 --> 00:14:12,977 ‎모형을 만들 수 있었고 194 00:14:13,060 --> 00:14:16,981 ‎미국의 모든 성인의 성격을 ‎예측하는 데 사용할 수 있었죠 195 00:14:17,565 --> 00:14:20,359 ‎성격은 행동 양식을 이끌어내고 196 00:14:20,442 --> 00:14:23,362 ‎행동 양식은 분명히 투표를 ‎어떻게 할지에 영향을 미치죠 197 00:14:24,822 --> 00:14:26,615 ‎그래서 저희는 ‎타깃에 꼭 맞게 만든 198 00:14:26,699 --> 00:14:29,451 ‎디지털 비디오 콘텐츠에 ‎타깃 집단을 노출시켰죠 199 00:14:30,244 --> 00:14:33,539 ‎클린턴 장관은 개인 이메일에 ‎기밀 사항은 없으며 200 00:14:33,622 --> 00:14:34,832 ‎보내거나 받은 적도 없다고 했죠 201 00:14:34,915 --> 00:14:36,667 ‎- 그게 사실인가요? ‎- 사실이 아닙니다 202 00:14:36,959 --> 00:14:39,962 ‎우리의 운동은 바로 203 00:14:40,045 --> 00:14:44,049 ‎실패하고 부패한 정치 기득권층을 ‎교체하는 겁니다 204 00:14:44,133 --> 00:14:47,052 ‎왜 제가 50퍼센트 ‎앞서지 않을까요, 물어보실래요? 205 00:14:47,136 --> 00:14:49,513 ‎정말 물어볼 필요가 있나요? 206 00:14:53,225 --> 00:14:55,394 ‎"힐러리 클린턴 ‎엄청나게 부주의하고" 207 00:14:55,477 --> 00:14:57,646 ‎"위험한 사이코패스 거짓말쟁이" 208 00:15:00,024 --> 00:15:02,818 ‎"미국의 결정" 209 00:15:02,902 --> 00:15:04,445 ‎역사에 남을 밤입니다 210 00:15:04,528 --> 00:15:07,698 ‎도널드 트럼프가 힐러리 클린턴에 ‎놀라운 역전승을 거뒀습니다 211 00:15:07,781 --> 00:15:11,535 ‎여론 조사, 전문가, 정치인들의 ‎예상을 다시 한번 뒤엎었죠 212 00:15:11,619 --> 00:15:14,163 ‎이번 대선의 ‎미국 대통령 당선자입니다 213 00:15:14,246 --> 00:15:16,540 ‎"도널드 트럼프 ‎대통령 당선자" 214 00:15:17,333 --> 00:15:20,878 ‎"친애하는 알렉산더와 팀에게: ‎선거 승리를 축하합니다" 215 00:15:20,961 --> 00:15:24,506 ‎"당신들과 함께 축배를 들겠습니다 ‎안녕히, SCL/CA 멕시코" 216 00:15:31,388 --> 00:15:34,850 ‎미국, 미국! 217 00:15:34,934 --> 00:15:35,809 ‎감사합니다 218 00:15:36,685 --> 00:15:38,354 ‎정말 감사합니다, 여러분 219 00:15:40,397 --> 00:15:45,027 ‎"와, 대단한 밤이에요! ‎고맙습니다, 여러분 - A" 220 00:15:46,654 --> 00:15:50,032 ‎미국 대선이 ‎한 가지 시사하는 바는 221 00:15:50,366 --> 00:15:52,952 ‎이런 종류의 기술이 222 00:15:53,035 --> 00:15:54,662 ‎대단한 차이를 ‎만들 수 있다는 겁니다 223 00:15:54,745 --> 00:15:58,248 ‎그리고 앞으로 여러 해 동안 ‎계속 그렇게 할 수 있죠 224 00:15:59,166 --> 00:16:00,084 ‎감사합니다 225 00:16:07,633 --> 00:16:10,511 ‎선거 후에는 정말 흥미진진했죠 226 00:16:12,888 --> 00:16:15,474 ‎10억 달러 회사가 되는 ‎길이 보였죠 227 00:16:16,517 --> 00:16:18,018 ‎우리는 세계 최고였어요 228 00:16:19,019 --> 00:16:20,396 ‎적어도 우리는 그렇게 생각했죠 229 00:16:24,984 --> 00:16:27,903 ‎"런던" 230 00:16:31,031 --> 00:16:35,452 ‎"캐럴 캐드월러드 ‎'가디언'지 탐사 전문 기자" 231 00:16:37,830 --> 00:16:39,665 ‎이건 흥미로운 상자예요 232 00:16:45,212 --> 00:16:47,548 ‎케임브리지 애널리티카를 ‎조사했었죠 233 00:16:48,841 --> 00:16:54,888 ‎그 회사가 유럽 연합 탈퇴를 위한 ‎브렉시트와 관련이 있나 해서요 234 00:16:57,558 --> 00:17:01,270 ‎그때 이후로 강박에 가깝게 ‎1주일에 7일간 235 00:17:01,353 --> 00:17:05,649 ‎하루에 12시간씩 매달렸죠 236 00:17:06,775 --> 00:17:08,485 ‎온통 마음을 다 빼앗겼었죠 237 00:17:12,197 --> 00:17:15,576 ‎제가 맨 처음에 브렉시트와 ‎케임브리지 애널리티카의 238 00:17:15,743 --> 00:17:18,954 ‎전체 연결망을 ‎들여다보기 시작했을 때 239 00:17:20,247 --> 00:17:22,416 ‎앤디 위그모어에게 ‎이메일을 보냈어요 240 00:17:22,875 --> 00:17:26,754 ‎나이절 패라지의 동료죠 241 00:17:27,254 --> 00:17:32,634 ‎나이절 패라지는 ‎브렉시트 운동의 중심 인물이죠 242 00:17:32,718 --> 00:17:34,595 ‎"20년 동안 ‎브렉시트 운동을 해 온 사람" 243 00:17:34,678 --> 00:17:36,930 ‎전 이랬죠 ‎'커피 한 잔 하실래요?' 244 00:17:37,473 --> 00:17:40,851 ‎'제가 첨단 기술과 ‎선거 운동에 관심이 많거든요' 245 00:17:42,478 --> 00:17:45,272 ‎그랬더니 그 사람이 ‎거의 다 털어 놓더군요 246 00:17:45,355 --> 00:17:47,816 ‎"차기 미국 대통령을 축하하는" 247 00:17:47,900 --> 00:17:50,360 ‎"브렉시트 악동들" 248 00:17:51,403 --> 00:17:53,280 ‎대통령 취임식 직후여서 249 00:17:53,989 --> 00:17:57,284 ‎앤디는 제게 자기 휴대폰 속 ‎사진들을 보여줬어요 250 00:17:57,367 --> 00:17:58,869 ‎'대통령 취임식이에요' 251 00:18:01,080 --> 00:18:02,414 ‎'오, 이거 참 웃기죠' 252 00:18:02,873 --> 00:18:04,583 ‎'참 유익한 시간이었죠 ‎도널드랑도...' 253 00:18:06,752 --> 00:18:09,588 ‎전 '케임브리지 애널리티카는 ‎어떻게 소개받으신 거죠?' 했죠 254 00:18:11,090 --> 00:18:14,885 ‎이러더군요, '나이절 덕분이죠 ‎나이절이 스티브 배넌과 친해요' 255 00:18:14,968 --> 00:18:17,596 ‎여러분, 스티브 배넌입니다! 256 00:18:18,514 --> 00:18:22,101 ‎스티브 배넌은 트럼프의 ‎선거 운동을 지휘했죠 257 00:18:23,227 --> 00:18:26,772 ‎또한 케임브리지 애널리티카의 ‎부사장이기도 했고요 258 00:18:28,440 --> 00:18:31,068 ‎앤디가 이러더군요 ‎'네, 미국엔 백만장자들이 많죠' 259 00:18:31,527 --> 00:18:33,445 ‎우린 다 목적이 같아요 260 00:18:33,946 --> 00:18:38,283 ‎'그리고 브렉시트는 ‎트럼프를 살찌우게 했죠' 261 00:18:38,367 --> 00:18:41,161 ‎제 평생 미국은 리더였습니다 262 00:18:41,245 --> 00:18:42,538 ‎"나이절 패라지 ‎브렉시트 찬성 정치인" 263 00:18:42,621 --> 00:18:44,998 ‎저 나름대로는 이렇게 ‎생각하고 싶네요 264 00:18:45,666 --> 00:18:47,292 ‎우리가 브렉시트에서 해낸 일들이 265 00:18:47,876 --> 00:18:51,380 ‎세계 혁명의 시작이었다는 것이 266 00:18:51,463 --> 00:18:53,841 ‎밝혀지겠죠 267 00:18:53,924 --> 00:18:56,176 ‎트럼프의 승리 역시 그 일부고요 268 00:18:57,427 --> 00:19:02,057 ‎"브렉시트 악동들 ‎트럼프의 취임식 파티" 269 00:19:03,350 --> 00:19:05,644 ‎어쨌든 그러고 나서 앤디가 ‎저한테 모든 걸 다 얘기했죠 270 00:19:05,727 --> 00:19:08,605 ‎인공지능을 활용하는 방법이나 271 00:19:08,689 --> 00:19:12,860 ‎페이스북에서 신상 정보를 ‎수집하는 방법 272 00:19:12,943 --> 00:19:14,194 ‎그리고 273 00:19:14,528 --> 00:19:18,115 ‎이렇게 말했죠 ‎'진짜 이상한 거예요, 캐럴!' 274 00:19:18,198 --> 00:19:20,450 ‎'우리가 얻을 수 있는 정보는요' 275 00:19:20,534 --> 00:19:22,369 ‎'사람들이 그냥 ‎우리한테 주는 거예요' 276 00:19:22,452 --> 00:19:24,663 ‎그리고 이렇게 덧붙였어요 ‎'참 이상하죠!' 277 00:19:26,248 --> 00:19:28,333 ‎그래서 계속 취재했죠 278 00:19:29,877 --> 00:19:31,253 ‎브렉시트 일 279 00:19:32,629 --> 00:19:37,134 ‎케임브리지 애널리티카에 근무했던 ‎모든 이들을 추적하기 시작했죠 280 00:19:40,470 --> 00:19:45,267 ‎결국 기꺼이 얘기해 줄 남자를 ‎찾아냈죠 281 00:19:46,602 --> 00:19:47,644 ‎크리스 와일리요 282 00:19:51,356 --> 00:19:54,735 ‎첫 통화를 했는데 ‎제정신이 아니었죠 283 00:19:54,818 --> 00:19:57,654 ‎거의 8시간이나 이야기했으니까요 284 00:20:05,871 --> 00:20:08,373 ‎제 이름은 크리스토퍼 와일리예요 ‎데이터 과학자죠 285 00:20:08,457 --> 00:20:10,500 ‎케임브리지 애널리티카 설립을 ‎도왔습니다 286 00:20:12,044 --> 00:20:15,297 ‎케임브리지 애널리티카는 287 00:20:15,380 --> 00:20:19,593 ‎순수한 종류의 데이터 과학 회사나 ‎알고리즘 회사가 아니에요 288 00:20:19,676 --> 00:20:22,930 ‎풀 서비스를 해 주는 ‎프로파간다 기계죠 289 00:20:25,140 --> 00:20:26,558 ‎"케임브리지 애널리티카 ‎상품과 서비스" 290 00:20:26,683 --> 00:20:29,645 ‎당신은 케임브리지 애널리티카에 ‎투자하셨잖아요 291 00:20:29,728 --> 00:20:31,855 ‎- 회사 설립을 도왔죠 ‎- 네, 그러셨죠 292 00:20:31,939 --> 00:20:33,273 ‎"스티브 배넌 ‎전직 트럼프 선거 운동 책임자" 293 00:20:33,357 --> 00:20:34,733 ‎그 회사 이름도 제가 지었습니다 294 00:20:35,400 --> 00:20:38,111 ‎스티브 배넌은 '브라이트바트'의 ‎편집자였죠 295 00:20:39,780 --> 00:20:42,449 ‎그는 브라이트바트의 신조인 ‎다음과 같은 발상을 따랐죠 296 00:20:42,532 --> 00:20:46,578 ‎'사회를 근본적으로 ‎바꾸고 싶다면' 297 00:20:46,662 --> 00:20:48,121 ‎'먼저 부숴야 한다' 298 00:20:48,622 --> 00:20:50,123 ‎'그렇게 부숴야만' 299 00:20:50,207 --> 00:20:54,711 ‎'새로운 사회에 대한 비전에 ‎맞게 개조할 수 있다' 300 00:20:54,795 --> 00:20:58,382 ‎"#블랙라이브스매터는 ‎혼란을 부추긴다" 301 00:20:58,465 --> 00:20:59,925 ‎이것이 바로 스티브 배넌이 302 00:21:00,008 --> 00:21:03,178 ‎문화 전쟁을 치르기 위해 ‎만들고 싶어 했던 무기였어요 303 00:21:04,137 --> 00:21:05,681 ‎우리가 배넌에게 만들어준 거죠 304 00:21:06,723 --> 00:21:09,518 ‎하지만 데이터를 모을 ‎방법을 찾아야 했어요 305 00:21:09,601 --> 00:21:13,146 ‎그래서 저는 케임브리지 대학 ‎교수들을 찾아가서 물었죠 306 00:21:13,230 --> 00:21:14,773 ‎'어떻게 할까요?' 307 00:21:14,856 --> 00:21:17,109 ‎"케임브리지 대학교 ‎알렉산드르 코간 교수" 308 00:21:17,234 --> 00:21:21,238 ‎"원 클릭 성격 테스트" 309 00:21:22,197 --> 00:21:24,700 ‎"'당신의 디지털 라이프는 이렇다' ‎이 앱은 공개 정보를 받게 됩니다" 310 00:21:25,951 --> 00:21:28,036 ‎"모든 질문에 답해 주세요"' 311 00:21:28,370 --> 00:21:33,625 ‎코간은 저희에게 페이스북 앱을 ‎만들어 줬는데 312 00:21:33,917 --> 00:21:39,506 ‎그 앱을 쓰거나 ‎가입한 사람뿐 아니라 313 00:21:41,049 --> 00:21:45,053 ‎그 사람의 친구들 모두의 ‎개인 정보를 수집하는 314 00:21:45,637 --> 00:21:48,724 ‎특별한 권한을 갖는 앱이었죠 315 00:21:50,475 --> 00:21:53,061 ‎여러분 친구 중에 ‎그 앱을 쓰는 사람이 있으면 316 00:21:53,145 --> 00:21:56,148 ‎제가 여러분의 모든 데이터를 ‎수집해 놨을지도 몰라요 317 00:21:56,231 --> 00:22:00,694 ‎"오늘 오랜 투병 끝에 ‎백혈병으로 아버지가 돌아가셨다" 318 00:22:00,777 --> 00:22:03,780 ‎상태 업데이트, 좋아요는 물론 319 00:22:04,072 --> 00:22:06,116 ‎어떤 경우에는 개인 메시지도 ‎수집했어요 320 00:22:07,284 --> 00:22:08,702 ‎"오늘은 내 평생 ‎제일 힘든 날이었다" 321 00:22:08,785 --> 00:22:10,746 ‎단순히 유권자가 아닌 322 00:22:10,829 --> 00:22:14,333 ‎하나의 인격으로 보고 ‎접근하게 됩니다 323 00:22:16,668 --> 00:22:20,839 ‎미국 전역에 있는 유권자들의 324 00:22:20,922 --> 00:22:23,550 ‎심리학적 프로필을 만들기 위해 325 00:22:23,633 --> 00:22:28,221 ‎수십만 명을 ‎접촉할 필요가 없는 거죠 326 00:22:32,059 --> 00:22:35,354 ‎사람들은 자기 데이터가 ‎이런 식으로 수집되는 걸 모르죠? 327 00:22:36,438 --> 00:22:37,314 ‎모르죠 328 00:22:42,652 --> 00:22:48,116 ‎이런 생각은 안 해봤군요 ‎'이건 국민의 개인 정보인데' 329 00:22:48,200 --> 00:22:52,579 ‎'국민이 알지도 못하는 사이에 ‎우린 그걸 수집하고 이용하는구나' 330 00:22:53,455 --> 00:22:54,331 ‎안 했죠 331 00:22:56,333 --> 00:23:00,462 ‎역사적으로도 극히 비윤리적인 ‎실험을 한 경우가 있었죠 332 00:23:01,088 --> 00:23:02,422 ‎이게 그런 경우인가요? 333 00:23:03,548 --> 00:23:07,636 ‎그렇다고 생각해요 ‎극히 비윤리적인 실험이었죠 334 00:23:08,970 --> 00:23:11,973 ‎어떤 동의나 인식도 없이 335 00:23:12,057 --> 00:23:14,226 ‎나라 전체의 심리를 ‎이용하는 겁니다 336 00:23:15,727 --> 00:23:17,229 ‎그냥 나라 전체의 심리를 337 00:23:17,312 --> 00:23:20,315 ‎이용하는 게 아니라 338 00:23:20,399 --> 00:23:22,317 ‎민주적인 절차라는 맥락 안에서 339 00:23:22,401 --> 00:23:24,694 ‎나라 전체의 심리를 이용하는 거죠 340 00:23:31,243 --> 00:23:33,578 ‎폭로는 시작됐습니다 341 00:23:34,871 --> 00:23:40,460 ‎협박만 하는 게 아니에요 ‎실제로 그럴 겁니다 342 00:23:42,838 --> 00:23:45,590 ‎- 네, 준비됐어요 ‎- 하나, 둘, 셋... 343 00:23:46,133 --> 00:23:48,093 ‎유권자 정보 수집 회사 344 00:23:48,176 --> 00:23:51,555 ‎케임브리지 애널리티카를 ‎둘러싼 스캔들이 커지고 있는데요 345 00:23:51,638 --> 00:23:54,724 ‎데이비드 캐럴 씨는 ‎영국 법원에 소송을 제기했습니다 346 00:23:54,808 --> 00:23:57,477 ‎케임브리지 애널리티카가 수집한 347 00:23:57,561 --> 00:24:00,564 ‎자신에 대한 데이터를 ‎돌려 받게 해달라는 겁니다 348 00:24:01,064 --> 00:24:02,816 ‎요구 사항을 설명해 주세요 349 00:24:03,442 --> 00:24:05,986 ‎완전히 공개해달라는 건데요 350 00:24:06,945 --> 00:24:08,780 ‎어디서 데이터를 수집했고 351 00:24:08,905 --> 00:24:12,159 ‎어떻게 가공했으며 ‎누구와 공유했는지 352 00:24:12,576 --> 00:24:15,036 ‎또 그런 것을 거부할 수 ‎있는지에 대해서죠 353 00:24:17,289 --> 00:24:18,331 ‎케임브리지 애널리티카는 354 00:24:18,415 --> 00:24:21,793 ‎수백만 명에 대해 5천 개의 ‎데이터 포인트를 갖고 있다는데요 355 00:24:21,877 --> 00:24:22,836 ‎맞습니다 356 00:24:22,919 --> 00:24:26,298 ‎어느 정도까지 ‎감시당하는지 아시면 357 00:24:26,381 --> 00:24:28,633 ‎충격받으실 겁니다 358 00:24:30,427 --> 00:24:33,638 ‎저희는 페이스북 데이터를 ‎다루지 않고 보유하지도 않습니다 359 00:24:33,722 --> 00:24:37,350 ‎저희는 페이스북을 ‎광고 플랫폼으로 이용합니다 360 00:24:37,434 --> 00:24:38,935 ‎닉스 씨, 채널 4 뉴스입니다 361 00:24:39,019 --> 00:24:41,062 ‎페이스북 문제에 대해 ‎의회에서 거짓말하셨죠? 362 00:24:41,146 --> 00:24:42,189 ‎전혀 아닙니다 363 00:24:44,357 --> 00:24:47,736 ‎저의 유권자 프로필을 받기 위해 ‎1년이나 걸리는 364 00:24:47,819 --> 00:24:51,865 ‎엄청나게 위험한 소송을 ‎다른 나라에서 진행한 건 365 00:24:52,157 --> 00:24:54,159 ‎정신 나간 짓이었죠 366 00:24:54,618 --> 00:24:57,704 ‎데이비드, 취하하지 마 ‎합의하지도 말고 367 00:24:59,080 --> 00:25:00,957 ‎- 계속하라고 ‎- 그럴게, 걱정하지 마 368 00:25:01,041 --> 00:25:02,167 ‎졸면 안 돼! 369 00:25:05,795 --> 00:25:08,632 ‎페이스북 주가는 ‎6.35퍼센트 떨어졌죠 370 00:25:08,924 --> 00:25:12,385 ‎시가 총액이 1200억 달러예요 ‎어마어마하죠 371 00:25:14,387 --> 00:25:17,265 ‎영국 정보 위원회 소속 공무원들이 372 00:25:17,349 --> 00:25:20,727 ‎런던의 케임브리지 애널리티카를 ‎압수수색하고 있습니다 373 00:25:20,810 --> 00:25:22,812 ‎지금 안에서 컴퓨터를 보고 있네요 374 00:25:23,063 --> 00:25:24,523 ‎문서를 찾고 있습니다 375 00:25:25,690 --> 00:25:29,486 ‎페이스북은 최소 2년 전부터 ‎이런 데이터 수집을 인지했습니다 376 00:25:29,569 --> 00:25:32,864 ‎하지만 3일 전까지도 ‎공개하지 않았습니다 377 00:25:33,323 --> 00:25:34,407 ‎정말인가요, 페이스북? 378 00:25:34,491 --> 00:25:36,117 ‎5천만 명의 개인 정보가 ‎침해된 사실을 379 00:25:36,201 --> 00:25:37,452 ‎알려 주는 걸 잊었다는 거예요? 380 00:25:37,536 --> 00:25:40,288 ‎제 삼촌 친구의 여동생네 개가 ‎생일이란 것도 381 00:25:40,372 --> 00:25:41,873 ‎알려주면서요? 382 00:25:41,957 --> 00:25:44,167 ‎"렉스의 생일을 축하해 주세요!" 383 00:25:48,171 --> 00:25:50,298 ‎거인과 맞붙는 거예요 384 00:25:50,382 --> 00:25:52,425 ‎빅 데이터 마케팅의 골리앗과요 385 00:25:53,343 --> 00:25:55,262 ‎이길 가능성이 얼마나 있을까요? 386 00:26:02,018 --> 00:26:04,688 ‎사람들은 그런 프로파간다가 ‎통한다는 걸 인정하지 않으려 해요 387 00:26:05,438 --> 00:26:06,773 ‎그것을 인정하면 388 00:26:07,190 --> 00:26:09,818 ‎민주주의의 여러 취약한 부분을 ‎갉아먹는 첨단 기술 플랫폼에 389 00:26:10,151 --> 00:26:12,153 ‎우리가 영향을 많이 받고 있고 390 00:26:12,571 --> 00:26:15,782 ‎끔찍한 사생활 침해를 ‎당하고 있으며 391 00:26:15,949 --> 00:26:17,742 ‎절망적인 수준으로 ‎의존하고 있다는 392 00:26:17,826 --> 00:26:19,619 ‎사실과 마주해야 하니까요 393 00:26:20,370 --> 00:26:23,248 ‎우리의 데이터를 돌려받으려는 ‎노력에 동참해 주십시오 394 00:26:32,674 --> 00:26:37,429 ‎"2018년 3월 27일, 영국 의회 ‎DCMS 위원회 가짜 뉴스 조사" 395 00:26:37,512 --> 00:26:42,017 ‎허위 정보와 가짜 뉴스에 관한 ‎본 조사에 와 주셔서 감사합니다 396 00:26:42,100 --> 00:26:45,604 ‎크리스토퍼 와일리와 ‎폴 올리비에 드헤이 씨가 397 00:26:46,187 --> 00:26:48,440 ‎본 위원회에 증언하러 ‎와 주신 것에 감사드립니다 398 00:26:49,190 --> 00:26:51,234 ‎이런 것들이 얼마나 ‎브렉시트 국민 투표 결과에 399 00:26:51,359 --> 00:26:53,236 ‎유의미한 차이를 만들었는지 400 00:26:53,320 --> 00:26:56,364 ‎평가해 본 적 있습니까? 401 00:26:59,618 --> 00:27:03,371 ‎올림픽 도핑에 걸리면 402 00:27:03,747 --> 00:27:08,668 ‎금지 약물을 얼마나 먹었는지를 ‎두고 논쟁하지 않습니다, 그렇죠? 403 00:27:08,752 --> 00:27:11,796 ‎아니면 '뭐 처음 그런 거니까' 404 00:27:11,880 --> 00:27:14,716 ‎'절반만 먹었을 뿐이야' 405 00:27:14,924 --> 00:27:17,594 ‎상관없죠, 부정 행위를 하다가 ‎걸리면 메달이 박탈됩니다 406 00:27:17,761 --> 00:27:18,720 ‎왜냐하면... 407 00:27:20,055 --> 00:27:23,308 ‎민주적 절차에 부정 행위를 ‎인정하게 되면 408 00:27:23,683 --> 00:27:25,560 ‎그다음은 어떻겠어요? ‎또 그다음에는요? 409 00:27:26,144 --> 00:27:28,146 ‎아시겠어요? ‎부정 행위로 이기면 안 됩니다 410 00:27:29,731 --> 00:27:32,400 ‎많은 사람들뿐 아니라 ‎저도 그런데요 411 00:27:33,777 --> 00:27:36,279 ‎당신이 이런 사람들과 ‎일정 기간 아주 가까이서 412 00:27:36,488 --> 00:27:37,822 ‎함께 일했다면 413 00:27:37,906 --> 00:27:40,492 ‎왜 한때 동료였던 이들에게 ‎불리한 증언을 하고 414 00:27:40,575 --> 00:27:42,911 ‎공개적으로 반대 의사를 ‎표시하기로 결심한 건가요? 415 00:27:43,286 --> 00:27:46,706 ‎제가 만든 것이 무엇이며 ‎그것이 어떤 영향을 미쳤는지 416 00:27:46,790 --> 00:27:49,584 ‎알게 되었기 때문입니다 417 00:27:49,793 --> 00:27:53,755 ‎저는 그 회사 설립에 관여한 것을 ‎엄청나게 후회하고 있어요 418 00:27:54,130 --> 00:27:56,508 ‎왜냐하면 훨씬 더 ‎경계했어야 하거든요 419 00:27:57,467 --> 00:27:59,177 ‎그건 제가... 420 00:27:59,928 --> 00:28:02,347 ‎그 회사 사람이 되는 거니까요 ‎그리고 저는... 421 00:28:02,430 --> 00:28:04,557 ‎자발적으로 ‎그 회사에 지원했거든요 422 00:28:04,724 --> 00:28:07,894 ‎위원회에 꼭 불러야 할 사람은 ‎브리트니 카이저예요 423 00:28:08,395 --> 00:28:09,813 ‎브리트니 카이저가 누구죠? 424 00:28:14,651 --> 00:28:17,070 ‎"발신: 브리트니 카이저 ‎수신: 알렉산더 닉스" 425 00:28:17,153 --> 00:28:19,155 ‎"제목: 트럼프 계약" 426 00:28:19,239 --> 00:28:21,616 ‎"내일부터 계약을 이행할까요?" 427 00:28:22,200 --> 00:28:24,994 ‎"RE: 도널드 트럼프 대선 지원" 428 00:28:25,078 --> 00:28:27,622 ‎"잘했어, 브리트니 ‎정말 대단해 - A" 429 00:28:27,789 --> 00:28:32,419 ‎진심으로 모두를 이롭게 할 ‎생각이 전혀 없는 430 00:28:32,585 --> 00:28:35,839 ‎힘센 백인을 돕는 일이 ‎그렇게 흥미롭진 않았어요 431 00:28:35,922 --> 00:28:37,173 ‎"빵!" 432 00:28:39,384 --> 00:28:43,430 ‎케임브리지 애널리티카의 ‎핵심 인물 브리트니 카이저가 433 00:28:43,513 --> 00:28:45,765 ‎내부 고발자가 되었습니다 434 00:28:46,683 --> 00:28:49,394 ‎브리트티 카이저는 3주 전까지 ‎최고위 임원이었습니다 435 00:28:49,477 --> 00:28:52,981 ‎워싱턴에 있는 스티브 배넌의 ‎타운하우스 열쇠를 갖고 있었죠 436 00:28:53,064 --> 00:28:56,317 ‎켈리앤 콘웨이와 함께 ‎2016년 CPAC에서 연설을 했고 437 00:28:56,401 --> 00:28:58,653 ‎선거일 트럼프의 당선 축하 ‎파티에서 438 00:28:58,737 --> 00:29:01,364 ‎엄청난 후원자인 ‎레베카 머서와 함께 있었죠 439 00:29:02,699 --> 00:29:04,743 ‎또한 카이저 씨는 ‎브렉시트를 후원한 440 00:29:04,826 --> 00:29:07,537 ‎백만장자 에런 뱅크스 및 ‎그의 '리브닷EU' 운동에도 441 00:29:07,620 --> 00:29:09,914 ‎깊이 관여했습니다 442 00:29:10,373 --> 00:29:12,041 ‎"케임브리지 애널리티카 ‎내부 고발자" 443 00:29:12,125 --> 00:29:13,835 ‎"브리트니 카이저의 ‎거짓말은 이제 지겹다" 444 00:29:16,713 --> 00:29:18,089 ‎"크리스 와일리: 브리트니는 ‎내부 고발자가 아닙니다" 445 00:29:18,173 --> 00:29:19,799 ‎크리스토퍼가 ‎흥미로운 얘기를 했어요 446 00:29:19,883 --> 00:29:21,342 ‎왜 브리트니는 ‎지금 얘기하려는 거죠? 447 00:29:21,426 --> 00:29:23,470 ‎브리트니는 전체 그림의 ‎일부만 얘기했을 뿐이죠 448 00:29:23,553 --> 00:29:27,056 ‎브리트니가 수사관과 ‎이야기했으니까 나중에는 449 00:29:27,140 --> 00:29:28,475 ‎전체 그림을 알게 되겠죠 450 00:29:31,227 --> 00:29:35,857 ‎"브리트니 카이저가 이야기한다면 ‎폭발력이 클 겁니다" 451 00:29:46,493 --> 00:29:51,581 ‎"태국 어딘가" 452 00:29:51,664 --> 00:29:53,833 ‎제겐 증거가 있어요 453 00:29:53,917 --> 00:29:58,338 ‎브렉시트 운동과 ‎트럼프의 선거 운동은 454 00:29:58,421 --> 00:30:00,423 ‎불법적으로 이뤄졌다는 거죠 455 00:30:03,551 --> 00:30:07,514 ‎제 안전 때문에 이곳의 ‎지리 정보는 뺄게요 456 00:30:07,889 --> 00:30:09,682 ‎전 그냥 여기 있어요 457 00:30:09,766 --> 00:30:11,768 ‎"브리트니 카이저 ‎전직 케임브리지 애널리티카 임원" 458 00:30:11,851 --> 00:30:14,145 ‎두 나라의 행정부와 459 00:30:14,229 --> 00:30:16,856 ‎세계에서 가장 힘센 회사를 ‎타도해 보려는 사람이죠 460 00:30:16,940 --> 00:30:18,817 ‎전부 한꺼번에요 461 00:30:20,693 --> 00:30:21,861 ‎제 무기는 462 00:30:22,612 --> 00:30:25,490 ‎연결이 안 되지만 곧 매끄럽게 ‎연결되길 바라는 이야기예요 463 00:30:27,742 --> 00:30:31,204 ‎가장 부유한 기업들은 ‎첨단 기술 회사들이죠 464 00:30:32,080 --> 00:30:35,583 ‎구글, 페이스북, 아마존, 테슬라 465 00:30:35,667 --> 00:30:37,877 ‎왜 이 회사들이 세계 최고로 466 00:30:37,961 --> 00:30:40,713 ‎강력한 회사들이냐 하면 467 00:30:40,797 --> 00:30:45,677 ‎지난해 기준으로 데이터의 가치가 ‎석유를 넘어섰기 때문이죠 468 00:30:45,969 --> 00:30:48,388 ‎데이터는 지구상에서 ‎가장 가치 있는 자산이에요 469 00:30:49,389 --> 00:30:53,059 ‎그리고 이 회사들은 ‎사람들의 자산을 착취해서 470 00:30:53,268 --> 00:30:56,271 ‎자기들의 가치를 높였습니다 471 00:30:58,064 --> 00:31:00,817 ‎제 친구 중 하나가 연락해서 472 00:31:01,150 --> 00:31:04,070 ‎제 이야기가 이렇게 ‎역사에 남게 돼도 473 00:31:04,153 --> 00:31:07,991 ‎괜찮겠냐고 물었을 때에야 474 00:31:08,867 --> 00:31:09,993 ‎이렇게 생각했죠 475 00:31:10,702 --> 00:31:11,619 ‎'아니' 476 00:31:12,495 --> 00:31:14,372 ‎'사실, 난 안 괜찮아' 477 00:31:14,497 --> 00:31:17,876 ‎제가 말씀드릴 정보는 ‎아주 많을 거예요 478 00:31:17,959 --> 00:31:22,213 ‎상황을 바로잡는 데 ‎도움이 될 수도 있겠죠 479 00:31:30,722 --> 00:31:33,725 ‎"잘 지내죠?" 480 00:31:33,808 --> 00:31:36,477 ‎"오늘은 조언이 필요해요" 481 00:31:37,395 --> 00:31:40,732 ‎"2주 전 금요일에 ‎CA 퇴사했어요" 482 00:31:41,482 --> 00:31:42,942 ‎"폴 힐더 ‎작가/정치 공학자" 483 00:31:43,026 --> 00:31:44,611 ‎저는 정치 공학자로서 484 00:31:44,694 --> 00:31:47,989 ‎데이터를 어떻게 사용하고 ‎남용하는지를 485 00:31:48,072 --> 00:31:50,408 ‎규명하기 위해 ‎많은 노력을 하고 있죠 486 00:31:52,619 --> 00:31:56,539 ‎지금은 사람들이 ‎본능적으로 알아요, 그러니까... 487 00:31:57,290 --> 00:31:59,918 ‎뭔가가 잘못됐고 우리가 ‎바로잡아야 한다는 걸요 488 00:32:00,960 --> 00:32:05,673 ‎저는 제가 하던 ‎모든 것을 포기했어요 489 00:32:05,757 --> 00:32:08,217 ‎브리트니 카이저와 함께 ‎이 일을 하기 위해서요 490 00:32:10,303 --> 00:32:13,765 ‎저는 브리트니를 찾아서 만났고 491 00:32:14,140 --> 00:32:15,642 ‎그녀는 아주 적극적으로 얘기했죠 492 00:32:16,184 --> 00:32:20,063 ‎그녀의 얘기를 듣고 저는 생각했죠 ‎'여기 엄청난 게 있구나' 493 00:32:20,146 --> 00:32:24,025 ‎"보수정치행동회의(CPAC)" 494 00:32:26,861 --> 00:32:30,698 ‎우리가 정말 알아야 할 것은 ‎사람들을 설득하는 지렛대예요 495 00:32:30,782 --> 00:32:33,785 ‎우리가 유권자에게 어떻게 ‎메시지를 전하느냐에 따라서... 496 00:32:34,077 --> 00:32:37,372 ‎티나와 저는 브리트니 카이저를 ‎만났어요 497 00:32:37,538 --> 00:32:41,793 ‎저희는 다른 정치 커뮤니케이션 ‎회사와는 아주 달라요, 그래서... 498 00:32:42,085 --> 00:32:44,045 ‎양쪽 진영 모두와 일하나요? 499 00:32:44,128 --> 00:32:47,215 ‎아뇨, 미국 공화당 일만 해요 500 00:32:47,298 --> 00:32:48,424 ‎"아이오와에서 승리!" 501 00:32:48,508 --> 00:32:49,926 ‎영국에서도요? 502 00:32:50,009 --> 00:32:53,054 ‎사실, 지금 저희는 ‎브렉시트 운동 일을 하고 있죠 503 00:32:54,555 --> 00:32:58,518 ‎네, 리브닷EU에서는 전국 단위의 ‎대규모 조사를 할 겁니다 504 00:32:58,601 --> 00:33:03,481 ‎사람들이 EU에 남거나 떠나는 데 ‎왜 관심이 있는지 알기 위해서요 505 00:33:03,564 --> 00:33:05,692 ‎거기서 답이 나오면 506 00:33:05,775 --> 00:33:07,735 ‎우리의 정책과 ‎의사소통 방식에 507 00:33:07,902 --> 00:33:10,530 ‎어느 때보다 처음 선거하는 유권자 ‎등록되지 않은 유권자 508 00:33:10,905 --> 00:33:14,200 ‎무관심한 유권자가 많다는 사실을 ‎확실하게 반영할 수 있겠죠 509 00:33:14,701 --> 00:33:17,161 ‎"앉아서 자기 영혼을 들여다봐요" 510 00:33:17,245 --> 00:33:21,249 ‎"그런 다음 이 일의 진실을 ‎혼자서 적어내려가는 거죠" 511 00:33:22,125 --> 00:33:24,669 ‎"있었던 일을 있는 그대로" 512 00:33:25,294 --> 00:33:28,589 ‎"그럼 좋은 일을 할 수 있어요" 513 00:33:30,758 --> 00:33:34,012 ‎저희는 지금 재단을 ‎준비하고 있어요 514 00:33:34,679 --> 00:33:38,057 ‎우리가 찾아낸 상당히 ‎폭발력 있는 자료들을 515 00:33:38,182 --> 00:33:39,434 ‎브리트니와 공유하려고요 516 00:33:40,226 --> 00:33:46,065 ‎또한 브리트니의 ‎이메일과 하드 드라이브는 517 00:33:46,691 --> 00:33:50,945 ‎개략적인 정보를 얻을 수 있는 ‎보물과도 같아요 518 00:33:54,073 --> 00:33:56,242 ‎저희는 여전히 ‎수박 겉 핥기식이니까요 519 00:34:21,768 --> 00:34:24,520 ‎트럼프 타워에서 있었던 ‎첫 번째 회의 얘기를 해줘요 520 00:34:25,313 --> 00:34:27,065 ‎2015년 11월에 521 00:34:27,148 --> 00:34:32,278 ‎알렉산더 닉스와 함께 ‎코리 레반도프스키를 만나러 갔죠 522 00:34:32,361 --> 00:34:34,238 ‎그는 당시 선거 운동 책임자였어요 523 00:34:34,697 --> 00:34:38,951 ‎그때 코리한테 '왜 이렇게 여기가 ‎낯익죠?'라는 얘기를 했어요 524 00:34:39,285 --> 00:34:42,413 ‎그러자 이러더군요, '여긴 ‎TV쇼 '어프렌티스' 세트장이에요' 525 00:34:42,955 --> 00:34:45,041 ‎'그래서 그런지도 모르겠네요' 526 00:34:45,708 --> 00:34:47,585 ‎전 그때 좀 충격이었어요 527 00:34:48,294 --> 00:34:52,173 ‎트럼프의 선거 운동 본부가 ‎리얼리티 쇼 세트장인 거잖아요 528 00:34:52,256 --> 00:34:54,467 ‎네, 그렇네요 529 00:34:57,929 --> 00:35:00,765 ‎회사의 그 발상 말인데요 530 00:35:01,099 --> 00:35:04,393 ‎대규모 인구 조사를 통해 531 00:35:05,269 --> 00:35:08,564 ‎사람들이 무엇에 반응하여 ‎어떤 상태에서 다른 상태로 532 00:35:08,648 --> 00:35:11,901 ‎넘어가는지 알아내는 거요 533 00:35:12,110 --> 00:35:14,946 ‎그런 발상은 말이죠 534 00:35:15,071 --> 00:35:18,241 ‎개인의 자율성과 자유 535 00:35:19,617 --> 00:35:22,203 ‎그리고 민주주의 이념에 ‎크게 도전하는 거 같거든요 536 00:35:22,578 --> 00:35:23,496 ‎그렇지 않아요? 537 00:35:24,413 --> 00:35:28,000 ‎전 모르겠어요... ‎제가 반론을 하자면 538 00:35:28,668 --> 00:35:31,420 ‎이런 전략의 목표는 결국 539 00:35:31,504 --> 00:35:34,590 ‎다양한 선택을 고려하는 사람들이 540 00:35:34,674 --> 00:35:36,384 ‎- 누구인지 알아내서... ‎- 네 541 00:35:36,467 --> 00:35:41,264 ‎아직 결정하지 않았다면 ‎몇 가지 선택 사항이 있다는 걸 542 00:35:41,347 --> 00:35:42,598 ‎알려 주는 데 있거든요 543 00:35:42,765 --> 00:35:45,768 ‎그러면 어떤 방향으로든 ‎움직이도록 설득할 수 있죠 544 00:35:45,852 --> 00:35:47,019 ‎- 그렇군요 ‎- 다시 말하면 545 00:35:47,103 --> 00:35:49,313 ‎자기가 스스로 선택한 거지만... 546 00:35:49,397 --> 00:35:50,398 ‎그런가요? 547 00:35:50,481 --> 00:35:52,859 ‎- 이런 사람들은... ‎- 스스로 선택한 게 맞아요? 548 00:35:54,735 --> 00:35:58,990 ‎결국 투표장에 가서야 ‎마음을 결정하는 사람들이죠 549 00:35:59,532 --> 00:36:02,368 ‎이 질문은 브리트니 카이저로서 ‎들어 주세요 550 00:36:02,451 --> 00:36:03,536 ‎- 알겠어요 ‎- 괜찮죠? 551 00:36:03,619 --> 00:36:07,248 ‎케임브리지 애널리티카/SCL의 ‎입장이 아니라요 552 00:36:07,331 --> 00:36:10,710 ‎이제 거기 직원도 아니잖아요 553 00:36:10,793 --> 00:36:12,628 ‎알겠어요, 하지만... 554 00:36:12,712 --> 00:36:14,714 ‎그럼 케임브리지 애널리티카가 555 00:36:14,797 --> 00:36:18,050 ‎국민의 인권에 반하는 행위를 ‎했다고 생각하세요? 556 00:36:18,134 --> 00:36:19,010 ‎아뇨 557 00:36:20,553 --> 00:36:21,387 ‎하지만 558 00:36:22,138 --> 00:36:22,972 ‎또... 559 00:36:23,055 --> 00:36:25,266 ‎얘기하시는 걸 듣다 보니까 ‎의문이 생기기 시작하네요 560 00:36:25,349 --> 00:36:27,268 ‎- 네 ‎- 저는... 561 00:36:27,602 --> 00:36:31,939 ‎그 전까지는 평생 ‎인권을 위해 일했었죠 562 00:36:33,774 --> 00:36:34,692 ‎네 563 00:36:35,234 --> 00:36:37,195 ‎그때로 돌아가죠 564 00:36:38,070 --> 00:36:41,449 ‎그렇게 오래전도 아니에요 ‎고작 10년 전이죠 565 00:36:43,075 --> 00:36:44,827 ‎- 그리 오래전이 아니네요 ‎- 네 566 00:36:50,708 --> 00:36:54,170 ‎저는 14, 15살 때부터 ‎선거 일을 했어요 567 00:36:56,088 --> 00:36:59,842 ‎사촌에게 오바마 선거 팀에 ‎인턴으로 지원했다고 얘기했는데 568 00:37:00,259 --> 00:37:01,552 ‎이랬어요, '세상에' 569 00:37:01,636 --> 00:37:03,721 ‎'그 인턴 꼭 하는 게 좋을 거야' 570 00:37:05,056 --> 00:37:07,600 ‎저는 오바마의 페이스북을 ‎운영하는 팀의 일원이 됐죠 571 00:37:09,227 --> 00:37:11,938 ‎우린 소셜 미디어를 이용해서 572 00:37:12,021 --> 00:37:14,065 ‎유권자들과 의사소통하는 ‎방법을 개발했죠 573 00:37:14,148 --> 00:37:17,068 ‎"도와 주셔서 감사합니다" 574 00:37:19,820 --> 00:37:22,865 ‎그 후 몇 년간 ‎인권과 국제 관계에 관한 일을 575 00:37:22,949 --> 00:37:24,742 ‎하면서 지냈죠 576 00:37:25,368 --> 00:37:27,328 ‎처음엔 국제 사면 위원회에서 577 00:37:27,411 --> 00:37:30,831 ‎그다음엔 유럽 의회에서 ‎UN에 로비를 했고 578 00:37:31,207 --> 00:37:33,042 ‎"헤이그로부터의 인사" 579 00:37:34,669 --> 00:37:38,047 ‎인권 운동을 사랑한다고 ‎입버릇처럼 말했죠 580 00:37:39,090 --> 00:37:41,968 ‎하지만 계란으로 바위 치기라는 ‎생각이 들 때도 있었죠 581 00:37:42,051 --> 00:37:44,053 ‎제가 한 일의 결과물을 ‎볼 수가 없었거든요 582 00:37:44,262 --> 00:37:46,889 ‎말 그대로 그냥 시간 낭비 ‎하는 건지도 몰랐고요 583 00:37:49,433 --> 00:37:51,936 ‎알렉산더 닉스를 만난 건 ‎바로 그런 때였죠 584 00:37:56,482 --> 00:37:59,402 ‎우리 친구들은 그와 저를 소개해 ‎주는 게 괜찮은 장난이라 생각했죠 585 00:38:00,403 --> 00:38:04,240 ‎알렉산더는 제가 민주당에서 한 ‎경험을 더 알고 싶어했어요 586 00:38:04,615 --> 00:38:06,075 ‎명함을 주고는 이렇게 말했죠 587 00:38:06,492 --> 00:38:08,828 ‎'당신을 취하게 해서 ‎비밀을 좀 훔쳐갈게요' 588 00:38:12,206 --> 00:38:16,085 ‎그리고 2014년 12월에 저한테 ‎일자리를 제안했어요 589 00:38:19,547 --> 00:38:21,132 ‎"공화당 대선 후보 토론회" 590 00:38:21,215 --> 00:38:24,760 ‎제 영향력을 실제로 볼 수 있는 ‎회사를 만난 건 591 00:38:24,844 --> 00:38:27,346 ‎정말 흥미진진한 일이었죠 592 00:38:34,103 --> 00:38:36,564 ‎저는 좀 더 보수적이거나 ‎사치스러워졌죠 593 00:38:36,647 --> 00:38:41,110 ‎옷 입는 거나 말하는 방식에서요 594 00:38:41,861 --> 00:38:47,825 ‎주말에 사냥 같은 걸 하기도 했죠 595 00:38:48,117 --> 00:38:52,496 ‎평소에 제가 시간을 보내는 것과 ‎아주 달랐어요 596 00:39:00,129 --> 00:39:01,881 ‎모험의 연속이었겠네요 597 00:39:02,423 --> 00:39:03,549 ‎정말 재미있었어요 598 00:39:03,632 --> 00:39:05,509 ‎카우보이 장화를 신고 599 00:39:05,593 --> 00:39:08,554 ‎역할에 익숙해지고 ‎전미총기협회 회원도 되고요 600 00:39:08,846 --> 00:39:11,349 ‎- 전미총기협회도 가입했어요? ‎- 네 601 00:39:11,432 --> 00:39:13,976 ‎이 사람들이 어떻게 생각하나 ‎알아 보려고요 602 00:39:14,477 --> 00:39:18,356 ‎저는 총을 쓰고 싶진 않아요 ‎총에도 전혀 관심 없고요 603 00:39:18,439 --> 00:39:20,441 ‎제가 전혀 동의할 수 없었던 ‎사람들을 604 00:39:21,359 --> 00:39:24,445 ‎알아가고 있다고 생각했죠 605 00:39:24,528 --> 00:39:27,281 ‎제 조부모님이나 ‎고모, 삼촌, 사촌들 같은 사람들요 606 00:39:28,741 --> 00:39:32,620 ‎그냥 겉모습일 뿐이었던 게 아니라 ‎중요하다고 생각했어요? 607 00:39:33,079 --> 00:39:35,623 ‎중요했죠, 중요하고말고요 608 00:39:35,915 --> 00:39:39,210 ‎제가 느끼기에 ‎미국 정치의 가장 큰 문제는 609 00:39:39,293 --> 00:39:43,130 ‎사람들이 너무 양극화 돼서 ‎서로를 이해할 수 없다는 거예요 610 00:39:43,214 --> 00:39:46,050 ‎그러니 함께 일할 수 없고 ‎아무것도 이뤄지지 않죠 611 00:39:59,647 --> 00:40:03,651 ‎저는 화요일에 ‎상원 법사위 청문회에서 612 00:40:03,734 --> 00:40:07,029 ‎마크 저커버그에게 질의할 613 00:40:07,113 --> 00:40:10,950 ‎상원 의원의 질문지 초안을 ‎만들고 있어요 614 00:40:11,283 --> 00:40:14,912 ‎'페이스북 전체 수익 중' 615 00:40:16,080 --> 00:40:19,417 ‎'사용자의 개인 정보에서' 616 00:40:20,000 --> 00:40:23,170 ‎'직접 창출한 것은 얼마인가요?' 617 00:40:25,089 --> 00:40:26,590 ‎전부 다죠 618 00:40:27,967 --> 00:40:29,552 ‎정답입니다 619 00:40:30,386 --> 00:40:32,805 ‎이것에 대해서는 페이스북이 ‎세계 어느 누구보다 620 00:40:33,097 --> 00:40:34,890 ‎잘 알고 있어요 621 00:40:34,974 --> 00:40:39,979 ‎페이스북이 실험하기에 ‎가장 좋은 플랫폼이거든요 622 00:40:40,062 --> 00:40:41,313 ‎맞아요, 그렇죠 623 00:40:42,022 --> 00:40:44,400 ‎그리고 페이스북은 항상 ‎콘텐츠 참여율이 가장 높아요 624 00:40:44,483 --> 00:40:46,735 ‎항상 상업 광고든 정치 운동이든 625 00:40:46,819 --> 00:40:49,447 ‎페이스북에 제일 많은 돈을 쓰죠 626 00:40:50,114 --> 00:40:51,699 ‎항상 광고 예산의 ‎대부분을 차지해요 627 00:40:51,782 --> 00:40:53,451 ‎그렇죠 628 00:40:55,494 --> 00:40:58,831 ‎적어도 미국과 ‎다른 나라의 대중들은 629 00:40:58,914 --> 00:41:01,792 ‎실험 대상일 가능성이 높죠 630 00:41:07,423 --> 00:41:09,341 ‎미국의 모든 유권자에 대한 ‎성격 모형을 만들기 위해 631 00:41:09,425 --> 00:41:12,470 ‎우리 회사가 했던 ‎페이스북 퀴즈들을 생각해 보세요 632 00:41:15,473 --> 00:41:19,143 ‎모든 미국 유권자들을 똑같이 ‎타깃으로 삼은 게 아니었어요 633 00:41:20,478 --> 00:41:22,354 ‎재원의 대부분이 634 00:41:22,521 --> 00:41:26,108 ‎마음을 바꿔 놓을 수 있을 것 같은 ‎사람들을 타깃으로 삼는 데 쓰였죠 635 00:41:26,901 --> 00:41:28,861 ‎그런 사람들을 ‎'설득 가능자'라고 불렀죠 636 00:41:31,405 --> 00:41:32,907 ‎이들은 전국 모든 곳에 있지만 637 00:41:32,990 --> 00:41:36,619 ‎스윙 스테이트에 있는 ‎'설득 가능자'가 중요했죠 638 00:41:36,702 --> 00:41:41,207 ‎미시간주, 위스콘신주 ‎펜실베이니아주, 플로리다주 등등 639 00:41:43,959 --> 00:41:47,588 ‎이런 주들은 선거구로 세분합니다 640 00:41:49,131 --> 00:41:54,637 ‎이 선거구에 2만 2천 명의 ‎'설득 가능자'가 있고 641 00:41:56,013 --> 00:41:59,600 ‎우리가 충분한 숫자의 ‎설득 가능자를 타깃으로 삼으면 642 00:42:00,059 --> 00:42:03,479 ‎그 주는 파랑이 아니라 ‎빨강으로 바뀌는 거죠 643 00:42:05,147 --> 00:42:07,942 ‎우리 크리에이티브 팀은 ‎개인화된 콘텐츠를 설계해서 644 00:42:08,025 --> 00:42:09,693 ‎개개인이 반응하게 만들었죠 645 00:42:09,777 --> 00:42:12,029 ‎테러리스트는 구멍이 많은 ‎국경선을 좋아합니다 646 00:42:12,112 --> 00:42:15,324 ‎국경 경비 공백이 커져서 ‎테러리스트들이... 647 00:42:15,407 --> 00:42:19,745 ‎그런 사람들을 집중 공략 했죠 ‎블로그, 웹 사이트 글, 동영상 648 00:42:19,828 --> 00:42:21,664 ‎광고 등 상상할 수 있는 모든 ‎플랫폼을 동원했죠 649 00:42:22,122 --> 00:42:24,667 ‎우리가 원하는 방식대로 ‎세상을 볼 때까지 650 00:42:29,213 --> 00:42:31,131 ‎우리 후보에게 투표할 때까지요 651 00:42:33,384 --> 00:42:34,802 ‎부메랑 같았어요 652 00:42:35,469 --> 00:42:37,012 ‎자기 데이터를 보내면 653 00:42:38,347 --> 00:42:39,807 ‎분석이 돼서 654 00:42:40,474 --> 00:42:46,146 ‎행위를 바꾸려는 목적으로 ‎타깃에 맞춘 메시지를 다시 받아요 655 00:42:46,230 --> 00:42:48,566 ‎"부정직한 힐러리를 물리치자" 656 00:42:50,359 --> 00:42:51,360 ‎"좋아요" 657 00:43:02,371 --> 00:43:05,374 ‎영국 의회 DCMS 위원회가 ‎가짜 뉴스 조사 658 00:43:05,457 --> 00:43:07,209 ‎참석 예정 증인을 발표했네요 659 00:43:07,668 --> 00:43:09,712 ‎- 당신이네요 ‎- 저예요 660 00:43:09,795 --> 00:43:12,506 ‎- 알렉산더가 증언하기 전날이네요 ‎- 전 CEO죠 661 00:43:12,590 --> 00:43:13,882 ‎"참석 예정 증인" 662 00:43:13,966 --> 00:43:15,301 ‎제가 증언한 다음날이네요 663 00:43:15,384 --> 00:43:16,635 ‎"브리트니 카이저 ‎알렉산더 닉스" 664 00:43:16,719 --> 00:43:17,636 ‎그래요 665 00:43:18,137 --> 00:43:19,722 ‎이제 실감이 좀 나나요? 666 00:43:19,805 --> 00:43:21,265 ‎이건 진짜 센데요 667 00:43:22,266 --> 00:43:23,309 ‎실제 상황이에요 668 00:43:23,934 --> 00:43:24,977 ‎그리고 중요하죠 669 00:43:34,028 --> 00:43:35,988 ‎"케임브리지 애널리티카 스캔들 ‎민주주의에 중대한 질문 제기" 670 00:43:36,363 --> 00:43:38,449 ‎"데이터 따라잡기: 브렉시트 운동 ‎미국 백만장자와 법적으로 연계?" 671 00:43:38,699 --> 00:43:40,409 ‎"구글과 민주주의 ‎인터넷 검색에 대한 진실" 672 00:43:40,492 --> 00:43:42,411 ‎케임브리지 애널리티카에 대해 ‎처음으로 쓴 때가 673 00:43:43,078 --> 00:43:45,289 ‎2016년 12월이었죠 674 00:43:47,291 --> 00:43:49,293 ‎저는 그 회사가 ‎트럼프 선거 운동과 675 00:43:49,418 --> 00:43:51,420 ‎브렉시트 운동을 도왔다고 했죠 676 00:43:54,423 --> 00:43:56,300 ‎그리고 그 회사로부터 ‎이런 메일을 받기 시작했죠 677 00:43:56,383 --> 00:43:58,010 ‎'리브닷EU 운동과 ‎전혀 무관합니다' 678 00:43:58,302 --> 00:44:00,679 ‎"케임브리지 애널리티카는 ‎리브닷EU 쪽 일은 하지 않습니다" 679 00:44:02,014 --> 00:44:04,516 ‎말이 안 되는 게 리브닷EU ‎웹 사이트엔 이렇게 돼 있죠 680 00:44:04,600 --> 00:44:06,602 ‎'우리는 캠브리지 애널리티카를 ‎고용했습니다' 681 00:44:06,644 --> 00:44:08,395 ‎"케임브리지 애널리티카가 ‎영국 유권자 지도를 만듭니다" 682 00:44:08,896 --> 00:44:11,482 ‎알렉산더 닉스가 ‎자기네 작업을 어떻게 할지 683 00:44:11,565 --> 00:44:12,650 ‎설명까지 해 놨어요 684 00:44:13,651 --> 00:44:17,404 ‎네, 그 운동에 대해서는 ‎말씀을 못 드리겠네요 685 00:44:19,406 --> 00:44:20,866 ‎안 하셨어요? 하셨어요? 686 00:44:20,991 --> 00:44:22,451 ‎아뇨, 그 얘긴 하지 말죠 687 00:44:22,534 --> 00:44:23,827 ‎- 그러죠 ‎- 네 688 00:44:24,703 --> 00:44:27,831 ‎그때 리브닷EU 기자 회견 자료에서 689 00:44:27,998 --> 00:44:30,125 ‎이런 영상을 찾았어요 690 00:44:32,628 --> 00:44:35,798 ‎전 이랬죠 ‎'저거 봐, 브리트니 카이저야' 691 00:44:36,173 --> 00:44:38,425 ‎브리트니 카이저는 ‎케임브리지 애널리티카 소속이죠 692 00:44:38,509 --> 00:44:40,552 ‎그 여자가 기자 회견장에 ‎있는 거예요 693 00:44:40,636 --> 00:44:43,389 ‎리브닷EU 운동에 ‎데이터를 활용하는 694 00:44:43,472 --> 00:44:46,350 ‎온갖 영악한 방법을 설명하면서요 695 00:44:48,686 --> 00:44:51,146 ‎도대체 무슨 경우죠? 696 00:44:51,230 --> 00:44:54,817 ‎어떻게 계속 부인을 해요? ‎돌아이 짓이죠 697 00:44:55,442 --> 00:44:57,945 ‎"리브닷EU" 698 00:44:58,737 --> 00:45:02,491 ‎그와 동시에 리브닷EU에서는 ‎저에 관한 끔찍한 동영상을 699 00:45:02,574 --> 00:45:04,243 ‎올리기 시작했죠 700 00:45:04,993 --> 00:45:06,328 ‎난 여기서 내리고 싶어! 701 00:45:06,412 --> 00:45:08,747 ‎영화 '에어플레인'의 장면을 ‎패러디한 거였죠 702 00:45:08,831 --> 00:45:11,375 ‎- 정신 차리세요! ‎- 제가 처리할게요 703 00:45:11,458 --> 00:45:14,545 ‎시람들이 계속 이러는 거였죠 ‎'너무 히스테리 부리지 마!' 704 00:45:14,628 --> 00:45:15,587 ‎여자를 때리면서요 705 00:45:15,671 --> 00:45:17,589 ‎자리에 가서 앉으세요! ‎제가 처리하죠 706 00:45:17,673 --> 00:45:19,717 ‎이렇게요 ‎'진정해! 진정하라고!' 707 00:45:20,509 --> 00:45:24,638 ‎그리고는 사람들이 줄 서 있는데 ‎마지막 사람은 총을 들고 있죠 708 00:45:26,557 --> 00:45:27,975 ‎그런 동영상이었어요 709 00:45:28,058 --> 00:45:30,936 ‎러시아 국가가 나왔죠 710 00:45:38,277 --> 00:45:41,655 ‎리브닷EU 동영상이 나온 다음 날 711 00:45:41,739 --> 00:45:45,701 ‎제가 기사를 쓰기로 돼 있던 ‎다른 곳의 편집장이 712 00:45:46,368 --> 00:45:47,536 ‎점심을 사 주면서 이러더군요 713 00:45:47,619 --> 00:45:50,914 ‎'당신에게 기사 의뢰하는 게 ‎위험 부담이 너무 커요' 714 00:45:53,959 --> 00:45:58,046 ‎허위 정보랑 프로파간다와 함께 ‎하루하루를 살아가는 게 715 00:45:58,130 --> 00:46:00,924 ‎어떤 것인지를 ‎잘 보여 주는 예예요 716 00:46:01,383 --> 00:46:04,887 ‎그 영향력을 느낄 수 있고 ‎사람들에게 먹힌다는 걸 알게 되죠 717 00:46:04,970 --> 00:46:07,973 ‎실제로 삶에 영향을 미쳐요 ‎사람들이 믿든 말든요 718 00:46:13,645 --> 00:46:15,439 ‎저는 그냥 기사를 썼을 뿐이에요 719 00:46:15,522 --> 00:46:18,025 ‎기사를 쓰고 나면 ‎다음 주제로 넘어가게 되죠 720 00:46:18,108 --> 00:46:19,693 ‎전 특별 기사 전문 기자고 ‎그게 제 일이죠 721 00:46:19,777 --> 00:46:21,445 ‎하지만 그냥 이랬어요 ‎'거짓말이잖아' 722 00:46:21,528 --> 00:46:24,156 ‎그 사람들은 정말 심각한 일을 ‎두고 거짓말을 하고 있죠 723 00:46:24,239 --> 00:46:26,533 ‎바로... 724 00:46:27,034 --> 00:46:29,745 ‎우리 나라의 미래를 두고서요 725 00:46:30,662 --> 00:46:32,706 ‎- 한 말씀 해주세요, 나이절! ‎- 나이절? 726 00:46:32,790 --> 00:46:35,667 ‎"EU는 우리 모두를 망쳤다" 727 00:46:35,751 --> 00:46:39,755 ‎국민 투표에서는 사람들이 대부분 ‎견해가 확고했어요 728 00:46:40,839 --> 00:46:44,218 ‎아주 적은 사람들만이 ‎그렇지 않았죠 729 00:46:44,301 --> 00:46:46,345 ‎이 사람들이 ‎'설득 가능자'였어요 730 00:46:46,845 --> 00:46:50,057 ‎이 극소수의 사람들을 찾아내어 731 00:46:50,140 --> 00:46:52,810 ‎광고로 집중 공략한 게 다였어요 732 00:46:52,893 --> 00:46:54,728 ‎"범죄자와 테러리스트가 ‎이동하기 더 쉬워질 것이다" 733 00:46:55,187 --> 00:46:58,649 ‎이런 것은 모든 사람에게 ‎보이진 않아요 734 00:47:00,567 --> 00:47:06,990 ‎6월 23일을 우리의 독립 기념일로 ‎역사에 남깁시다 735 00:47:10,619 --> 00:47:13,705 ‎영국인의 대답은 ‎'나가겠다'였습니다 736 00:47:13,789 --> 00:47:15,082 ‎좋든 나쁘든 737 00:47:15,165 --> 00:47:18,043 ‎이 결정은 앞으로의 ‎우리 정치를 규정할 것입니다 738 00:47:18,126 --> 00:47:22,256 ‎이 위대한 나라가 끔찍한 ‎실수를 저질렀다는 걸 알아야죠 739 00:47:22,339 --> 00:47:24,174 ‎이건 지진이 일어난 거예요 740 00:47:24,258 --> 00:47:27,553 ‎지진이 난 후엔 어떻게 될까요? ‎기다려 봐야죠 741 00:47:27,886 --> 00:47:30,013 ‎떠난다는 것이 무엇을 의미하는지 ‎합의가 없었습니다 742 00:47:30,097 --> 00:47:32,933 ‎- 간단하죠, '떠난다'예요 ‎- 아무 성명도 없었잖아요 743 00:47:33,016 --> 00:47:34,643 ‎그냥 '떠난다'라는 건 없... 744 00:47:34,726 --> 00:47:37,604 ‎브렉시트! 745 00:47:39,356 --> 00:47:40,440 ‎"런던" 746 00:47:40,524 --> 00:47:41,984 ‎안전을 위해 747 00:47:42,067 --> 00:47:45,487 ‎수하물 카트에 어린이를 ‎태우지 말아 주십시오 748 00:47:47,489 --> 00:47:48,448 ‎여보세요, 엄마! 749 00:47:50,951 --> 00:47:52,744 ‎다 끝냈어요, 네 750 00:47:52,828 --> 00:47:56,748 ‎영국에 아무 문제 없이 ‎들어왔어요 751 00:47:56,832 --> 00:47:59,251 ‎정말 좋아요 752 00:48:00,168 --> 00:48:02,379 ‎이번 일이 정신적으로 ‎부담이 되진 않았으면 좋겠구나 753 00:48:02,462 --> 00:48:06,258 ‎기념비적인 일을 ‎하고 있으니까 말이야 754 00:48:06,341 --> 00:48:07,175 ‎네 755 00:48:07,259 --> 00:48:08,886 ‎네가 죽지나 않을까 해서 두렵단다 756 00:48:08,969 --> 00:48:09,803 ‎네 757 00:48:09,887 --> 00:48:12,097 ‎힘센 사람들이 ‎개입돼 있으니까 말이다 758 00:48:12,639 --> 00:48:13,807 ‎네, 알아요 759 00:48:13,891 --> 00:48:15,976 ‎늘 조심해야 한다 760 00:48:16,059 --> 00:48:20,439 ‎힘센 사람들이 열불을 낸다 해도 ‎조용히 있을 수는 없어요 761 00:48:20,522 --> 00:48:23,066 ‎나도 안다, 알아 762 00:48:23,901 --> 00:48:26,111 ‎나도 다 알아 763 00:48:27,029 --> 00:48:30,908 ‎누군가는 이놈들을 끌어내려야 해 764 00:48:31,283 --> 00:48:32,367 ‎맞아요 765 00:48:32,451 --> 00:48:34,953 ‎그래, 어쨌든 766 00:48:35,329 --> 00:48:37,039 ‎다음 달에 쉬는 날이 있으면 767 00:48:37,122 --> 00:48:40,667 ‎전기랑 가스값 좀 내러 가야겠다 768 00:48:41,335 --> 00:48:44,379 ‎당장은 1천 달러가 없거든 ‎그래서 기다려야 해 769 00:48:44,463 --> 00:48:46,715 ‎제가 내드릴게요 770 00:48:47,466 --> 00:48:49,885 ‎걱정하지 마 ‎지금 당장은 안 필요해 771 00:48:51,887 --> 00:48:54,014 ‎그래, 건강히 잘 지내 772 00:48:54,097 --> 00:48:55,599 ‎- 엄마, 사랑해요 ‎- 몸 조심해, 사랑해 773 00:48:55,682 --> 00:48:58,143 ‎- 사랑해요, 들어가세요 ‎- 안녕, 아가 774 00:49:08,070 --> 00:49:09,821 ‎돌아와서 정말 기뻐요 775 00:49:09,905 --> 00:49:14,368 ‎하지만 여기 있는 동안 ‎공개적으로 다니진 못하겠어요 776 00:49:17,329 --> 00:49:18,664 ‎지난번에 제가 떠날 때 777 00:49:18,747 --> 00:49:23,627 ‎많은 친구들과 사이가 좋지 못했죠 778 00:49:24,294 --> 00:49:26,421 ‎- 1번 방화문요? ‎- 네 779 00:49:30,050 --> 00:49:33,345 ‎제가 브렉시트 운동에 관여해서 ‎많은 사람들이 화를 냈죠 780 00:49:33,428 --> 00:49:36,682 ‎테드 크루즈나 도널드 트럼프 같은 ‎사람들을 돕는 회사에서 781 00:49:36,765 --> 00:49:39,601 ‎계속 일했다는 것에 대해서도 ‎무척 화를 냈고요 782 00:49:42,479 --> 00:49:45,649 ‎아직도 제 친구들은 궁금할 거예요 783 00:49:45,732 --> 00:49:49,361 ‎제가 맞다고 생각한 일을 한 건지 ‎자신을 보호하는 일을 한 건지가요 784 00:49:56,493 --> 00:49:58,203 ‎주말에 들어온 ‎페이스북에 대한 소식입니다 785 00:49:58,286 --> 00:50:00,580 ‎마크 저커버그가 ‎내일이나 수요일에 786 00:50:00,664 --> 00:50:01,957 ‎의회 증언을 하기로 했습니다 787 00:50:02,040 --> 00:50:03,792 ‎오늘 아침 일찍 ‎마크 저커버그는 788 00:50:03,875 --> 00:50:06,670 ‎선거 개입을 막기 위해 ‎새로운 조치를 발표했습니다 789 00:50:18,849 --> 00:50:20,684 ‎오늘 자 파이낸셜타임스네요 790 00:50:21,018 --> 00:50:23,729 ‎제 이름이 파이낸셜타임스 ‎1면 톱에 나오다니 791 00:50:23,812 --> 00:50:24,855 ‎세상에 792 00:50:26,898 --> 00:50:27,774 ‎여기 있네요 793 00:50:29,234 --> 00:50:31,111 ‎'저커버그는 의회 ‎청문회 출석을 받아들였다' 794 00:50:31,194 --> 00:50:34,573 ‎'그는 페이스북 내부 도구가 ‎악용되는 것을' 795 00:50:34,656 --> 00:50:37,701 ‎'막기 위해 충분히 노력하진 ‎않았다고 인정했다' 796 00:50:37,951 --> 00:50:41,538 ‎'페이스북, 20억 사용자에게 ‎개인 정보 사용료 지불해야 한다' 797 00:50:41,997 --> 00:50:45,834 ‎'첨단 기술 대기업은 디지털 ‎클렙토크라시로 진화하고 있다' 798 00:50:46,209 --> 00:50:47,294 ‎'어제...' 799 00:50:51,798 --> 00:50:54,301 ‎제가 이런 문단을 빠뜨렸네요 800 00:50:55,510 --> 00:50:57,554 ‎'저는 이 괴물을 만드는 데 ‎일조했고' 801 00:50:58,638 --> 00:50:59,556 ‎'그것은...' 802 00:50:59,639 --> 00:51:01,683 ‎"페이스북이 ‎신호등이 됐으면 해요" 803 00:51:01,767 --> 00:51:05,979 ‎'회복하려면 수십 년이 걸릴 ‎심각한 피해를 세계에 입혔죠' 804 00:51:06,563 --> 00:51:10,025 ‎'정말 불편합니다' ‎그게 안 보이네요 805 00:51:12,360 --> 00:51:14,071 ‎데이터 전쟁이 시작됐어요 806 00:51:15,572 --> 00:51:19,534 ‎"페이스북 CEO 마크 저커버그 ‎사용자 데이터에 관한 답변" 807 00:51:19,618 --> 00:51:23,580 ‎"미국 상원 법사 위원회" 808 00:51:24,748 --> 00:51:28,627 ‎이런 회사는 초국가적인데 809 00:51:29,252 --> 00:51:33,131 ‎사법 관할권을 가지는 것은 ‎우리 나라뿐입니다 810 00:51:40,639 --> 00:51:44,935 ‎법사 위원회 및 ‎상업-교통-과학 위원회를 811 00:51:45,018 --> 00:51:46,228 ‎시작하겠습니다 812 00:51:48,814 --> 00:51:51,024 ‎그래슬리 위원장님 ‎그리고 위원님들 813 00:51:52,400 --> 00:51:57,531 ‎제가 최우선으로 생각해 온 것은 ‎사람들을 연결하고 814 00:51:57,614 --> 00:52:00,742 ‎지역사회를 만들고, 세계를 좀 더 ‎가깝게 하는 사회적 책무였습니다 815 00:52:01,409 --> 00:52:04,538 ‎하지만 이 도구가 악용되는 것을 ‎방지하려는 노력을 충분히 다하지 816 00:52:04,621 --> 00:52:06,206 ‎못한 것으로 밝혀졌습니다 817 00:52:06,957 --> 00:52:09,584 ‎이 문제를 해결하기 위한 조치를 ‎말씀드리기 전에 818 00:52:09,668 --> 00:52:11,545 ‎저희가 어떻게 나오게 됐는지를 ‎이야기하고 싶네요 819 00:52:11,753 --> 00:52:14,172 ‎저희가 케임브리지 애널리티카와 ‎처음 접촉했을 때 820 00:52:14,256 --> 00:52:16,466 ‎그쪽에서는 데이터를 ‎모두 지웠다고 했습니다 821 00:52:17,008 --> 00:52:19,177 ‎한 달 전에 그 말이 거짓이라는 822 00:52:19,261 --> 00:52:21,221 ‎보고서가 있다고 들었습니다 823 00:52:21,304 --> 00:52:22,973 ‎그래서 케임브리지 애널리티카가 824 00:52:23,056 --> 00:52:25,684 ‎정확히 어떤 일을 했는지 ‎진상을 규명했습니다 825 00:52:25,767 --> 00:52:28,019 ‎내 탓으로 해요, 마크 ‎그렇게 하라고요 826 00:52:28,103 --> 00:52:30,689 ‎이 문제를 처리하고 ‎이런 일이 재발하지 않도록요 827 00:52:31,648 --> 00:52:35,318 ‎이 자리에 불러주셔서 감사하고 ‎어떤 질문이든 달게 받겠습니다 828 00:52:36,611 --> 00:52:38,155 ‎저커버그 씨 829 00:52:38,238 --> 00:52:40,907 ‎2016년 대선 운동 과정에서 830 00:52:41,283 --> 00:52:44,286 ‎케임브리지 애널리티카는 ‎트럼프 진영과 일했습니다 831 00:52:44,369 --> 00:52:47,789 ‎'프로젝트 알라모'를 이용한 ‎전략을 가다듬었죠 832 00:52:47,873 --> 00:52:50,292 ‎페이스북 직원이 ‎여기에 관계했나요? 833 00:52:51,585 --> 00:52:52,794 ‎상원 의원님, 저희 직원이 834 00:52:52,878 --> 00:52:55,046 ‎케임브리지 애널리티카와 ‎관계했는지는 모르겠습니다 835 00:52:55,130 --> 00:52:56,464 ‎- 네, 관계했어요 ‎- 와! 836 00:52:56,548 --> 00:52:57,591 ‎세상에 837 00:52:57,674 --> 00:53:00,468 ‎워싱턴에 공화당 팀이 있었어요 ‎제가 만났었죠 838 00:53:00,802 --> 00:53:03,680 ‎저희가 다른 진영과 마찬가지로 ‎영업 지원차 839 00:53:03,763 --> 00:53:06,600 ‎트럼프 진영의 선거 운동을 ‎도운 것은 알고 있습니다 840 00:53:06,683 --> 00:53:08,560 ‎그러면 그 사람들이 그 시기에 ‎관계하면서 841 00:53:08,643 --> 00:53:11,271 ‎계속 같이 일했겠네요? 842 00:53:11,354 --> 00:53:14,107 ‎그런 것들이 귀사의 조사로 ‎드러날 수도 있겠군요 843 00:53:14,441 --> 00:53:16,943 ‎의원님, 저희 직원들이 ‎나중에 자세한 사항을 844 00:53:17,027 --> 00:53:20,113 ‎답변드리도록 하겠습니다만 ‎오늘 이 자리에서는 모르겠습니다 845 00:53:20,197 --> 00:53:22,782 ‎세상에, 이게 당신 청문회에서 ‎제일 중요한 건데... 846 00:53:22,866 --> 00:53:25,493 ‎- 제가 무슨 말 하는지 아시죠? ‎- 아뇨, 모르겠습니다 847 00:53:25,577 --> 00:53:26,453 ‎알겠습니다 848 00:53:29,956 --> 00:53:33,585 ‎8천 7백만 명의 사용자가 ‎피해자라고 생각하십니까? 849 00:53:35,212 --> 00:53:36,463 ‎의원님, 저는... 850 00:53:38,381 --> 00:53:42,010 ‎그렇습니다, 사용자분들은 ‎자기 정보가 개발자에 의해 851 00:53:42,177 --> 00:53:44,387 ‎케임브리지 애널리티카에 ‎팔리는 걸 원치 않았죠 852 00:53:44,512 --> 00:53:46,306 ‎그런데... 853 00:53:46,431 --> 00:53:47,641 ‎이런 일이 일어난 거죠 854 00:53:47,724 --> 00:53:49,226 ‎저희 책임하에서요 855 00:53:49,434 --> 00:53:50,769 ‎저희가 한 일은 아니지만 856 00:53:50,852 --> 00:53:53,396 ‎이런 일을 방지하고 ‎더 빨리 조치를 취할 857 00:53:53,480 --> 00:53:54,606 ‎책임이 있다고 생각합니다 858 00:53:55,941 --> 00:53:58,401 ‎저희가 취할 단계적인 ‎조치 중 하나는 859 00:53:58,485 --> 00:54:00,946 ‎케임브리지 애널리티카의 시스템 ‎전체를 감사해서 860 00:54:01,029 --> 00:54:04,449 ‎그들이 한 일과 보유한 데이터가 ‎무엇인지 확인하는 것입니다 861 00:54:04,532 --> 00:54:08,411 ‎케임브리지 애널리티카와 ‎맺은 관계 때문에 862 00:54:08,495 --> 00:54:11,122 ‎페이스북의 이미지가 ‎상당히 실추된 것은 분명합니다 863 00:54:11,206 --> 00:54:12,958 ‎케임브리지 애널리티카가 ‎처리한... 864 00:54:13,458 --> 00:54:15,168 ‎케임브리지 애널리티카와 ‎연관돼 있고... 865 00:54:15,252 --> 00:54:18,255 ‎케임브리지 애널리티카와 ‎데이터 마이닝에 관한 866 00:54:18,338 --> 00:54:19,339 ‎최근 기사에는... 867 00:54:20,131 --> 00:54:23,343 ‎저커버그에 관한 포스팅이 ‎엄청 올라오고 있어요 868 00:54:23,426 --> 00:54:25,262 ‎- 모두가 이걸 보고 있군요 ‎- 세상에 869 00:54:25,345 --> 00:54:27,222 ‎전부 다... 870 00:54:27,764 --> 00:54:29,307 ‎케임브리지, 케임브리지... 871 00:54:32,310 --> 00:54:35,897 ‎세상 사람들이 다 케임브리지 ‎애널리티카를 알게 될 줄이야 872 00:54:40,944 --> 00:54:44,948 ‎"#케임브리지애널리티카" 873 00:54:46,950 --> 00:54:49,536 ‎그 기간에 많은 것을 배웠죠 874 00:54:50,161 --> 00:54:53,707 ‎예를 들면, 정작 홍보 위기관리가 ‎필요할 때 875 00:54:53,790 --> 00:54:56,835 ‎홍보 위기관리 업체를 ‎고용할 수 없다는 사실 같은 거요 876 00:54:57,335 --> 00:54:59,337 ‎저희는... 877 00:55:01,047 --> 00:55:03,591 ‎수십 개의 홍보 위기관리 업체와 ‎접촉했는데 878 00:55:03,675 --> 00:55:07,220 ‎다들 상황을 듣고 생각할 시간을 ‎달라고 하더니 이러더군요 879 00:55:07,304 --> 00:55:10,390 ‎'죄송합니다 ‎귀사의 일은 못 맡겠습니다' 880 00:55:11,599 --> 00:55:15,395 ‎사실 뭐, 그때는 그럴 수밖에 ‎없었을 겁니다 881 00:55:15,895 --> 00:55:19,858 ‎그래서 목소리를 내기가 ‎힘들었어요 882 00:55:26,072 --> 00:55:29,075 ‎저희가 오늘 기자 회견을 ‎열기로 한 것은 883 00:55:29,159 --> 00:55:33,913 ‎몇몇 근거 없는 혐의를 반박하고 ‎잘못된 정보를 바탕으로 884 00:55:33,997 --> 00:55:38,501 ‎부정확한 추측이 난무하는 것에 ‎대응하기 위해서입니다 885 00:55:38,585 --> 00:55:41,796 ‎저희 회사를 무슨 세계 정복을 ‎노리는 악당처럼 886 00:55:41,880 --> 00:55:43,006 ‎이야기하고 있는데요 887 00:55:43,423 --> 00:55:46,801 ‎케임브리지 애널리티카는 ‎그런 악당이 아닙니다 888 00:55:47,260 --> 00:55:49,929 ‎어떤 것이 불법적인 행위였다고 ‎생각하십니까? 889 00:55:50,013 --> 00:55:51,765 ‎저희는 이것이 영국 법에 890 00:55:51,848 --> 00:55:54,517 ‎저촉될 수 있다고 보고요 ‎그런 부분에 이의를 제기하는 거죠 891 00:55:54,601 --> 00:55:56,936 ‎케임브리지 애널리티카에서 ‎발표한 성명이 있습니다 892 00:55:57,228 --> 00:55:58,438 ‎다음과 같이 말했습니다 893 00:55:58,521 --> 00:56:01,775 ‎'데이비드 캐럴은 ‎아프가니스탄의 동굴에 있는' 894 00:56:01,858 --> 00:56:05,737 ‎'탈레반과 마찬가지로 ‎이런 요청을 할 권리가 없다' 895 00:56:05,820 --> 00:56:08,114 ‎"케임브리지 애널리티카와 연결된 ‎트럼프 선거 운동 해부" 896 00:56:08,782 --> 00:56:10,867 ‎쓰나미처럼 쏟아졌습니다 897 00:56:12,035 --> 00:56:16,331 ‎하루에 언론 기사가 ‎3만 5천 개 나왔습니다 898 00:56:16,414 --> 00:56:17,957 ‎"케임브리지 애널리티카의 속임수" 899 00:56:18,041 --> 00:56:20,085 ‎"케임브리지 애널리티카는 ‎얼마나 수상한가?" 900 00:56:20,168 --> 00:56:22,087 ‎트럼프의 당선과 ‎브렉시트에 대한 901 00:56:22,670 --> 00:56:25,006 ‎불신을 가중시켰죠 902 00:56:25,090 --> 00:56:27,175 ‎우리는 그 수단이었고요 903 00:56:27,634 --> 00:56:31,012 ‎스스로 민주주의를 ‎왜곡했다 보시나요? 904 00:56:31,554 --> 00:56:36,351 ‎적법하게 선출된 ‎미국 공화당 대통령 후보의 905 00:56:36,434 --> 00:56:39,646 ‎선거 운동에 용역을 ‎제공함으로써요? 906 00:56:40,105 --> 00:56:41,523 ‎어떻게 그런 게 가능하죠? 907 00:56:43,400 --> 00:56:46,194 ‎세상 모든 부조리가 ‎케임브리지 애널리티카의 908 00:56:46,277 --> 00:56:49,864 ‎책임으로 돌려졌습니다 909 00:56:49,948 --> 00:56:52,409 ‎"케임브리지 애널리티카의 ‎CEO가 사랑하는 두 가지" 910 00:56:52,492 --> 00:56:54,994 ‎"값비싼 샹들리에와 ‎세계를 망치는 것" 911 00:56:55,078 --> 00:56:57,622 ‎케임브리지 애널리티카가 ‎거짓말을 하고 있다는 건가요? 912 00:56:57,705 --> 00:57:00,417 ‎그들은 고의로 진실을 ‎왜곡하고 있어요 913 00:57:00,750 --> 00:57:02,168 ‎근거는 무엇이죠? 914 00:57:02,961 --> 00:57:04,087 ‎제가 거기 있었어요 915 00:57:05,713 --> 00:57:08,133 ‎크리스 와일리는 ‎케임브리지 애널리티카/SCL에서 916 00:57:08,216 --> 00:57:11,094 ‎2015년과 2016년 사이에 ‎일어난 일에 대해 917 00:57:11,177 --> 00:57:14,222 ‎대단한 귄위자처럼 얘기했죠 918 00:57:14,305 --> 00:57:17,517 ‎그때는 근무하지도 않았었는데요 919 00:57:18,685 --> 00:57:22,939 ‎크리스 와일리는 9개월간 ‎근무하고 2014년에 퇴직했어요 920 00:57:23,356 --> 00:57:28,153 ‎그런 다음 나가서 ‎트럼프 선거 운동에 제안서를 냈고 921 00:57:28,945 --> 00:57:31,281 ‎우리에게 졌습니다 922 00:57:34,242 --> 00:57:37,328 ‎크리스 와일리는 우리 회사를 ‎죽이려고 작정한 거예요 923 00:57:40,123 --> 00:57:41,291 ‎브리트니는 어떤가요? 924 00:57:47,130 --> 00:57:48,965 ‎브리트니가 무슨 일을 했는지는 ‎저도 모릅니다 925 00:57:54,596 --> 00:57:56,264 ‎브리트니는 뭐랄까... 926 00:57:57,182 --> 00:58:00,185 ‎친구라고 생각했죠 ‎알렉산더는 친구라고 생각했어요 927 00:58:01,644 --> 00:58:02,770 ‎하지만... 928 00:58:04,272 --> 00:58:06,608 ‎세상이 뒤집어지면 929 00:58:08,067 --> 00:58:11,905 ‎사람들은 다르게 행동하죠 930 00:58:13,072 --> 00:58:15,658 ‎당시에 왜 그런 일을 했는지조차 931 00:58:16,493 --> 00:58:18,703 ‎이해하지 못하면서요 932 00:58:24,959 --> 00:58:28,713 ‎우리 증언 준비를 제대로 ‎시작해야 할 거 같아요 933 00:58:30,298 --> 00:58:32,300 ‎이메일을 같이 검토하고요 934 00:58:32,383 --> 00:58:35,720 ‎가능하면 다른 것도 검토해서 ‎뭐가 있는지 확인해 봅시다 935 00:58:37,597 --> 00:58:39,557 ‎세상에, 제 달력 전체가 있네요 936 00:58:41,226 --> 00:58:42,227 ‎이런 937 00:58:43,394 --> 00:58:45,939 ‎- 달력 전체라고요? ‎- 제 달력 전체요 938 00:58:46,022 --> 00:58:47,273 ‎세상에 939 00:58:47,732 --> 00:58:48,650 ‎다운 받았어요? 940 00:58:48,733 --> 00:58:52,195 ‎아직 연결이 되는지 ‎모르고 있었어요 941 00:58:52,278 --> 00:58:53,238 ‎굉장해요 942 00:58:53,321 --> 00:58:55,865 ‎전체 타임라인을 ‎다 만들 수 있겠어요 943 00:58:55,949 --> 00:58:57,158 ‎타임라인이 나오면 정말 좋죠 944 00:58:57,700 --> 00:58:59,160 ‎젠장, 이것 좀 봐요 945 00:59:01,120 --> 00:59:02,580 ‎2015년 9월이에요 946 00:59:04,916 --> 00:59:06,626 ‎미국 상공회의소... 947 00:59:07,293 --> 00:59:08,211 ‎회의... 948 00:59:08,336 --> 00:59:09,796 ‎"마케팅" 949 00:59:09,879 --> 00:59:11,214 ‎"NRA 사업 제안" 950 00:59:11,297 --> 00:59:14,092 ‎리브닷EU네요, 한번 보죠 951 00:59:14,175 --> 00:59:15,009 ‎다 여기 있네요 952 00:59:15,093 --> 00:59:17,762 ‎모든 일이 정확히 ‎언제 일어났는지 알아요 953 00:59:17,845 --> 00:59:19,472 ‎다 기억해요 954 00:59:23,560 --> 00:59:25,186 ‎제가 가진 게 ‎얼마나 많은지 몰랐어요 955 00:59:25,687 --> 00:59:27,021 ‎그거보다 훨씬 더 많아요 956 00:59:27,105 --> 00:59:30,108 ‎이건 제가 가치 있다 싶어서 ‎전달해 드린 것일 뿐이고요 957 00:59:36,364 --> 00:59:38,783 ‎그거 전부 다 ‎검토할 시간이 되셨어요? 958 00:59:38,866 --> 00:59:41,244 ‎대부분은 봤어요 ‎오늘 더 봐야죠 959 00:59:44,789 --> 00:59:47,041 ‎사업 제안 중에 하나를 꺼내보죠 960 00:59:48,042 --> 00:59:49,460 ‎'CA 폴리티컬' 961 00:59:52,171 --> 00:59:53,339 ‎이건 뭐죠? 962 00:59:54,465 --> 00:59:55,800 ‎이거 미쳤네요 963 00:59:56,301 --> 00:59:57,468 ‎"저희 데이터는 특별합니다" 964 00:59:57,552 --> 01:00:02,849 ‎이건 데이터의 ‎주요 출처 목록이에요 965 01:00:04,225 --> 01:00:05,101 ‎보세요 966 01:00:05,184 --> 01:00:08,104 ‎3천만 명의 ‎페이스북 데이터 세트래요 967 01:00:08,187 --> 01:00:09,606 ‎여기 딱 그렇게 써 있잖아요! 968 01:00:09,939 --> 01:00:11,608 ‎대박! 969 01:00:12,108 --> 01:00:13,401 ‎세상에 970 01:00:14,402 --> 01:00:16,738 ‎문서 생성일이 ‎2016년 2월 4일이에요 971 01:00:16,821 --> 01:00:19,866 ‎회사에서 페이스북에 데이터를 ‎지웠다고 말한 시점 이후예요 972 01:00:21,200 --> 01:00:23,036 ‎코간 교수를 통해 얻은 973 01:00:23,119 --> 01:00:26,205 ‎3천만 명의 개인 정보죠 974 01:00:26,289 --> 01:00:27,498 ‎이게 그거예요 975 01:00:28,249 --> 01:00:31,794 ‎여기도 이렇게 쓰여 있네요 ‎'저희 데이터는 특별합니다' 976 01:00:32,920 --> 01:00:36,799 ‎우리는 개인 정보를 긁어 모으고 ‎다른 사람들은 안 그러니까요 977 01:00:37,967 --> 01:00:38,801 ‎젠장 978 01:00:45,683 --> 01:00:47,977 ‎이런 걸 다 잊고 있었네요 979 01:00:49,020 --> 01:00:50,772 ‎이렇게 많은 자료가 있는데요 980 01:00:55,485 --> 01:00:56,778 ‎"우리는 누구인가" 981 01:00:56,861 --> 01:00:59,864 ‎"케임브리지 애널리티카 ‎영업용 프레젠테이션" 982 01:00:59,947 --> 01:01:01,949 ‎"출처: 브리트니의 컴퓨터" 983 01:01:02,241 --> 01:01:04,243 ‎그것이 저희 회사의 지향점입니다 984 01:01:04,327 --> 01:01:06,788 ‎저희는 행동 양식을 ‎변화시키는 회사로서 985 01:01:08,039 --> 01:01:11,125 ‎커뮤니케이션의 궁극적인 목표는 986 01:01:11,209 --> 01:01:13,294 ‎행동 양식을 바꾸는 것이죠 987 01:01:15,922 --> 01:01:18,633 ‎트리니다드 토바고의 경우가 ‎우리가 문제를 보는 방식에 관한 988 01:01:18,716 --> 01:01:20,218 ‎훌륭하고 흥미로운 예입니다 989 01:01:23,846 --> 01:01:25,682 ‎이 나라에는 주요 정당이 2곳인데 990 01:01:26,057 --> 01:01:28,226 ‎하나는 흑인계 정당이고 ‎다른 하나는 인도계 정당이죠 991 01:01:28,309 --> 01:01:30,353 ‎이들은 서로를 공격하고 있죠 992 01:01:30,436 --> 01:01:33,064 ‎저희는 인도계 정당을 도왔습니다 993 01:01:34,399 --> 01:01:35,441 ‎"트리니다드 토바고 ‎방법론" 994 01:01:35,525 --> 01:01:38,027 ‎저희는 고객에게 이랬습니다 ‎'젊은 층을 타깃으로 삼죠' 995 01:01:38,111 --> 01:01:42,365 ‎그래서 저희는 정치적 무관심을 ‎증가시키려고 했죠 996 01:01:44,325 --> 01:01:45,993 ‎젊은이들이 정치에 무관심해서 997 01:01:46,077 --> 01:01:47,704 ‎비정치적인 방식이어야 했죠 998 01:01:47,787 --> 01:01:50,748 ‎게으른 사람이 많아서 ‎주어진 것에 반응하도록 했고요 999 01:01:51,708 --> 01:01:54,961 ‎이 운동을 진행하면서 ‎저희가 내세운 것은 1000 01:01:55,044 --> 01:01:57,171 ‎한패가 되자 ‎뭔가 쿨한 일을 하자 1001 01:01:57,255 --> 01:01:58,423 ‎운동에 동참하자였죠 1002 01:01:58,923 --> 01:02:00,967 ‎'그렇게 해!' 운동이라고 불렸죠 1003 01:02:01,676 --> 01:02:02,969 ‎'투표하지 않겠다'라는 뜻이죠 1004 01:02:03,219 --> 01:02:04,887 ‎'그렇게 해! 투표하지 마' 1005 01:02:07,974 --> 01:02:09,726 ‎이 저항의 인사는 1006 01:02:09,976 --> 01:02:12,729 ‎트리니다드 토바고 ‎전역에 알려졌습니다 1007 01:02:13,396 --> 01:02:15,481 ‎그렇게 해! 1008 01:02:16,566 --> 01:02:17,608 ‎그렇게 해! 1009 01:02:18,901 --> 01:02:21,988 ‎이것은 정부에 대해서가 아니라 1010 01:02:22,071 --> 01:02:24,574 ‎정치와 투표에 대한 ‎저항의 표시였죠 1011 01:02:24,949 --> 01:02:29,036 ‎- 그렇게 달려 ‎- 달려 1012 01:02:29,120 --> 01:02:31,164 ‎직접 유튜브 영상을 만들기도 했죠 1013 01:02:31,247 --> 01:02:33,124 ‎이것은 수상의 집에 그려진 ‎그라피티입니다 1014 01:02:33,207 --> 01:02:34,667 ‎"정권 교체 임박 ‎그렇게 해!" 1015 01:02:34,751 --> 01:02:36,502 ‎대학살이었죠 1016 01:02:38,296 --> 01:02:41,048 ‎투표할 때가 되면 1017 01:02:41,215 --> 01:02:44,010 ‎모든 아프리카계 카리브인들이 ‎투표하지 않을 거라고 생각했죠 1018 01:02:44,093 --> 01:02:45,261 ‎왜냐하면 '그렇게 할' 테니까요 1019 01:02:45,344 --> 01:02:48,973 ‎하지만 인도계 청소년들은 ‎부모님이 시키는 대로 1020 01:02:49,557 --> 01:02:50,808 ‎투표를 하러 갔죠 1021 01:02:51,434 --> 01:02:53,478 ‎이 운동을 하면서 즐거웠지만 1022 01:02:53,561 --> 01:02:56,397 ‎부모님 뜻을 거스를 순 없었죠 1023 01:02:56,481 --> 01:02:59,317 ‎"선거 날 UNC는 ‎총 6석을 추가했다" 1024 01:03:00,610 --> 01:03:05,072 ‎승리할 수 있게 이끌어 주신 ‎하나님께 감사드립니다 1025 01:03:05,156 --> 01:03:07,492 ‎고맙습니다 ‎고맙습니다, 하나님 1026 01:03:07,575 --> 01:03:12,663 ‎18세에서 35세까지의 투표율 ‎차이는 40퍼센트에 달했죠 1027 01:03:13,623 --> 01:03:16,209 ‎그것이 선거 결과를 6퍼센트 가량 ‎바꿔 놓았습니다 1028 01:03:16,292 --> 01:03:19,253 ‎해당 선거에서 필요로 했던 것에 ‎아주 가까운 수치였죠 1029 01:03:22,298 --> 01:03:28,179 ‎저희는 매년 10개국의 수상이나 ‎대통령 선거 운동을 맡고 있습니다 1030 01:03:28,971 --> 01:03:30,389 ‎말레이시아에서 작업 중입니다 1031 01:03:31,057 --> 01:03:34,602 ‎리투아니아, 루마니아 ‎케냐, 가나에서도 했어요 1032 01:03:35,353 --> 01:03:37,104 ‎- 올해는 꽤 많았죠 ‎- 나이지리아도 있고요 1033 01:03:37,730 --> 01:03:40,650 ‎- 브렉시트 운동은요? ‎- 네, 브렉시트 운동도 하고 있죠 1034 01:03:41,442 --> 01:03:42,902 ‎그 얘기를 대놓고 하진 않지만요 1035 01:03:42,985 --> 01:03:44,278 ‎어라, 우리가 이겼네! 1036 01:03:50,409 --> 01:03:52,912 ‎브리트니가 신의를 저버릴지도 ‎모른단 걱정은 안 드나요? 1037 01:03:56,666 --> 01:03:57,667 ‎그게... 1038 01:04:07,009 --> 01:04:08,135 ‎좋은 질문이에요 1039 01:04:10,596 --> 01:04:14,100 ‎브리트니가 복잡한 일을 했던 1040 01:04:15,434 --> 01:04:16,435 ‎복잡한... 1041 01:04:18,688 --> 01:04:21,023 ‎사람이란 건 알고 있어요 1042 01:04:23,943 --> 01:04:26,696 ‎저는 구원이란 걸 믿어요 1043 01:04:29,907 --> 01:04:35,371 ‎개인의 구원, 그리고 ‎집단의 사회적 구원을요 1044 01:04:35,997 --> 01:04:39,041 ‎저는 이상주의자예요 ‎망가진 건 고칠 수 있다 생각하죠 1045 01:04:40,501 --> 01:04:42,962 ‎동시에 1046 01:04:43,045 --> 01:04:45,798 ‎모든 것을 고칠 수는 없다고 ‎생각하는 현실주의자이기도 하죠 1047 01:04:46,883 --> 01:04:49,176 ‎어떤 것들은 계속 ‎망가진 채로 있게 되죠 1048 01:04:54,849 --> 01:04:57,018 ‎안녕하세요? ‎디지털-문화-미디어-스포츠 위원회 1049 01:04:57,101 --> 01:05:00,104 ‎추가 회의에 ‎나와주셔서 감사합니다 1050 01:05:00,187 --> 01:05:02,189 ‎오늘 아침 본 위원회에 ‎증거를 제출해 주신 1051 01:05:02,523 --> 01:05:04,442 ‎브리트니 카이저 씨를 ‎모시게 되어 정말 기쁩니다 1052 01:05:05,443 --> 01:05:09,739 ‎페이스북과 케임브리지 애널리티카 ‎사이의 데이터 사용에 관해서 1053 01:05:09,822 --> 01:05:14,994 ‎모종의 접촉이 있었습니다 ‎2015년으로 기억되는데요 1054 01:05:15,411 --> 01:05:18,205 ‎당시 그 일에 관해 ‎알고 있었습니까? 1055 01:05:18,664 --> 01:05:21,876 ‎페이스북은 모든 고객사에게 ‎이 데이터에 대한 고객사의 1056 01:05:21,959 --> 01:05:25,880 ‎접근을 막을 예정이라고 공지했죠 1057 01:05:25,963 --> 01:05:27,673 ‎그래서 저희는 그것을 ‎삭제하기로 했고요 1058 01:05:27,757 --> 01:05:31,010 ‎하지만 2016년 3월에 1059 01:05:31,093 --> 01:05:33,304 ‎그러니까 저희 최고 데이터 ‎관리자가 모든 데이터 세트가 1060 01:05:33,387 --> 01:05:37,141 ‎삭제됐다고 이야기한 때로부터 ‎6, 7주 후에 1061 01:05:37,224 --> 01:05:40,227 ‎저희 고위 데이터 과학자가 ‎보낸 이메일이 있는데요 1062 01:05:40,311 --> 01:05:44,941 ‎페이스북 좋아요 데이터를 ‎모델링에 사용했다는 내용이죠 1063 01:05:46,776 --> 01:05:48,903 ‎그래서 저는 참 이상하다 ‎생각했어요 1064 01:05:48,986 --> 01:05:52,198 ‎모든 페이스북 데이터를 지웠는데 ‎어떻게 3월 모델링에 썼나 싶었죠 1065 01:05:52,281 --> 01:05:54,533 ‎"2016년 3월 이메일엔 페이스북 ‎좋아요 데이터가 있다고 했대요" 1066 01:05:54,784 --> 01:05:57,536 ‎카이저 씨, 버락 오바마 ‎선거 캠프의 이상주의적 인턴에서 1067 01:05:57,620 --> 01:05:59,288 ‎아주 고약한 사람들과 한패인 1068 01:05:59,747 --> 01:06:03,501 ‎회사에서 일하기까지 ‎아주 먼 길을 오셨군요 1069 01:06:04,043 --> 01:06:07,421 ‎극우 정당에 사업 제안을 ‎하기도 하면서요 1070 01:06:07,922 --> 01:06:09,799 ‎전혀 불편하지 않았습니까? 1071 01:06:10,174 --> 01:06:16,013 ‎불편했습니다, 윤리 문제를 ‎지적하시는 건 전적으로 옳습니다 1072 01:06:16,097 --> 01:06:19,433 ‎하지만 소개받은 고객 중에 1073 01:06:19,517 --> 01:06:21,811 ‎독일대안당이나 ‎마리 르펜 선거 운동처럼 1074 01:06:21,894 --> 01:06:26,148 ‎만남을 거절한 경우도 있었습니다 1075 01:06:26,232 --> 01:06:29,235 ‎그들에게선 전화 한 통도 ‎안 받겠다고 했죠 1076 01:06:30,444 --> 01:06:31,696 ‎하지만 영국독립당엔 안 그랬죠? 1077 01:06:32,571 --> 01:06:33,572 ‎안 그랬습니다 1078 01:06:35,116 --> 01:06:38,869 ‎리브닷EU 출범 때 나오셔서 ‎프레젠테이션도 하셨죠 1079 01:06:39,245 --> 01:06:40,287 ‎네, 그랬습니다 1080 01:06:40,788 --> 01:06:42,999 ‎그 뒤로 다른 리브닷EU ‎작업을 안 하신 거 보면 1081 01:06:43,082 --> 01:06:45,501 ‎그때 약간 실망하신 것 같더군요 1082 01:06:45,960 --> 01:06:48,838 ‎그 뒤로는 그쪽 일을 ‎더는 안 했습니다 1083 01:06:48,921 --> 01:06:50,214 ‎어떤 일을 하시긴 했네요 1084 01:06:50,297 --> 01:06:52,633 ‎그때까지 어떤 일을 하신 거죠? 1085 01:06:52,717 --> 01:06:53,968 ‎영국독립당의 데이터와 1086 01:06:54,051 --> 01:06:57,680 ‎여론조사 데이터를 받았습니다 1087 01:06:57,763 --> 01:07:03,352 ‎브리트니는 닉스의 증언과 ‎배치되는 말을 많이 했죠 1088 01:07:03,436 --> 01:07:05,938 ‎아주 분명하게 말씀하셨는데 ‎당신이 아는 한 1089 01:07:06,022 --> 01:07:10,234 ‎브렉시트 운동에 일은 했지만 ‎돈을 받고 하지는 않았다는 거죠 1090 01:07:10,317 --> 01:07:11,819 ‎그 부분은 아주 ‎명확하신 거 같아요 1091 01:07:13,029 --> 01:07:14,739 ‎확실해 해 두려고 그러는데 ‎저희를 위해서 1092 01:07:14,822 --> 01:07:16,615 ‎이런 일을 할 때 1093 01:07:16,699 --> 01:07:18,951 ‎얼마나 많은 ‎데이터 세트가 있어야 1094 01:07:19,035 --> 01:07:22,163 ‎투표에서 나라 전체를 ‎타깃으로 삼는 1095 01:07:22,246 --> 01:07:24,790 ‎기반 자료를 만들 수 있죠? 1096 01:07:25,082 --> 01:07:27,918 ‎전 데이터 과학자가 아니라 데이터 ‎포인트가 최소 얼마나 필요하고 1097 01:07:28,002 --> 01:07:29,879 ‎이런 걸 말씀드릴 수는 없습니다만 1098 01:07:29,962 --> 01:07:32,673 ‎타깃 도구가 영국 정부의 1099 01:07:32,757 --> 01:07:36,594 ‎수출 규제 품목이었다는 것은 ‎알고 있습니다 1100 01:07:36,677 --> 01:07:39,930 ‎그렇다는 건 이 방법론이 ‎무기로 간주되었다는 거죠 1101 01:07:40,723 --> 01:07:43,267 ‎무기급 커뮤니케이션 전술로요 1102 01:07:43,350 --> 01:07:46,896 ‎지금 말씀은 리브닷EU 제안서에 ‎영국 국민을 겨냥한 1103 01:07:46,979 --> 01:07:49,565 ‎무기급 커뮤니케이션 기술이 1104 01:07:49,648 --> 01:07:50,858 ‎사용됐다는 건가요? 1105 01:07:52,068 --> 01:07:53,903 ‎- 네, 맞습니다 ‎- 대단하네요 1106 01:07:54,320 --> 01:07:56,739 ‎당신의 견해를 그냥 ‎듣고 싶어서 그런데요 1107 01:07:56,947 --> 01:07:59,158 ‎국민의 데이터를 더 ‎잘 보호하기 위해서 1108 01:07:59,241 --> 01:08:01,368 ‎국회에서 어떤 노력을 ‎해야 한다고 생각하세요? 1109 01:08:02,036 --> 01:08:05,956 ‎그런 질문을 해 주셔서 기쁩니다 ‎생각해 보시면 1110 01:08:06,207 --> 01:08:08,459 ‎구글과 페이스북의 ‎유일한 가치는 1111 01:08:08,793 --> 01:08:12,046 ‎전 세계 사람들의 개인 정보를 ‎소유하며 이용한다는 1112 01:08:12,129 --> 01:08:14,882 ‎사실에 있거든요 1113 01:08:14,965 --> 01:08:17,802 ‎그래서 제가 생각하는 ‎가장 좋은 방법은 1114 01:08:17,885 --> 01:08:20,179 ‎사람들에게 자신의 데이터에 ‎대한 소유권을 인정하는 겁니다 1115 01:08:20,262 --> 01:08:22,098 ‎"카이저는 개인 정보에 대한 ‎재산권에 대해 설명 중" 1116 01:08:22,181 --> 01:08:23,933 ‎- 감사합니다 ‎- 감사합니다, 위원장님 1117 01:08:24,016 --> 01:08:26,602 ‎이것으로 오늘 질문은 ‎마무리된 거 같습니다 1118 01:08:26,685 --> 01:08:27,978 ‎회의를 마치기 전에 1119 01:08:28,062 --> 01:08:30,981 ‎알렉산더 닉스에 관해 ‎짧게 공지하겠습니다 1120 01:08:31,065 --> 01:08:34,193 ‎그는 내일 저희 위원회에 ‎증거를 제출 못 하게 됐습니다 1121 01:08:34,276 --> 01:08:37,321 ‎현재 영국 정보 위원회에 의해 1122 01:08:37,404 --> 01:08:39,448 ‎개인정보처리방침 공개와 관련된 ‎소환장을 받았고 1123 01:08:39,532 --> 01:08:41,367 ‎범죄 혐의로 ‎조사를 받고 있기 때문이죠 1124 01:08:41,450 --> 01:08:44,036 ‎이에 대한 사항은 ‎다음 주 초에 1125 01:08:44,120 --> 01:08:46,997 ‎다시 알려드리기로 하죠 ‎감사합니다 1126 01:08:47,081 --> 01:08:48,040 ‎감사합니다 1127 01:08:48,749 --> 01:08:49,750 ‎젠장! 1128 01:08:51,168 --> 01:08:53,045 ‎소송은 종결됐습니다 1129 01:08:53,129 --> 01:08:54,088 ‎네, 그렇죠! 1130 01:09:11,981 --> 01:09:13,732 ‎방금 알렉산더에게 ‎문자를 받았어요 1131 01:09:16,068 --> 01:09:17,486 ‎알렉산더 닉스요 1132 01:09:20,447 --> 01:09:21,615 ‎뭐래요? 1133 01:09:22,449 --> 01:09:25,619 ‎'잘했어, 브리트 ‎쉽지 않아 보였는데 잘하더군' 1134 01:09:26,412 --> 01:09:29,331 ‎윙크하는 사람 얼굴 ‎이모티콘이랑요 1135 01:09:31,333 --> 01:09:34,378 ‎좀 슬프네요 ‎무슨 뜻인지 아시죠? 1136 01:09:34,461 --> 01:09:37,798 ‎알렉산더가 3년 반 동안 저한테 ‎진상은 아니었거든요 1137 01:09:38,340 --> 01:09:42,261 ‎3년 반 동안 당신한테 자기가 ‎원하는 걸 시키려고 잘해줬겠죠 1138 01:09:42,344 --> 01:09:45,181 ‎네, 근데 좀 재미있는 쪽이었어요 1139 01:09:48,434 --> 01:09:49,310 ‎저스틴 1140 01:09:49,935 --> 01:09:51,896 ‎잘 지내? 어떻게 하기로 했어? 1141 01:09:51,979 --> 01:09:52,897 ‎"데이비드의 동료" 1142 01:09:52,980 --> 01:09:55,441 ‎폭로된 게 많아서 ‎처리 중이야 1143 01:09:57,610 --> 01:10:00,988 ‎SCL은 월말에 항소하겠대 1144 01:10:01,780 --> 01:10:04,200 ‎그래서 정말 볼 만할 거 같아 1145 01:10:04,283 --> 01:10:07,328 ‎이것만 지나면 할 수 있다고 ‎생각하거든 1146 01:10:07,995 --> 01:10:09,038 ‎그렇겠다 1147 01:10:10,414 --> 01:10:11,290 ‎젠장! 1148 01:10:11,373 --> 01:10:15,753 ‎브리트니는 사이코그래픽스를 ‎무기로 분류해야 한대 1149 01:10:20,382 --> 01:10:23,719 ‎카이저는 자기 내면에 어떤 ‎윤리 기준이 있는 것처럼 보이지 1150 01:10:26,764 --> 01:10:31,894 ‎하지만 자기가 어둠의 세계에 ‎있다는 걸 잘 알고 있었으면서도 1151 01:10:32,353 --> 01:10:34,104 ‎벗어나려 하지 않았지 1152 01:10:34,188 --> 01:10:37,191 ‎그 부분에 대해서 ‎몇 번 지적이 있었어 1153 01:10:37,274 --> 01:10:38,192 ‎그래 1154 01:10:42,321 --> 01:10:45,324 ‎만나자마자 당신에게 ‎'취하게 만들어서' 1155 01:10:45,407 --> 01:10:48,452 ‎'비밀을 훔치겠다'던 ‎사람을 위해 일했잖아요 1156 01:10:48,869 --> 01:10:51,664 ‎회사가 어떤 일을 하는지도 ‎알았고요 1157 01:10:51,997 --> 01:10:54,208 ‎모르겠어요 ‎그를 믿었던 거 같아요 1158 01:10:54,708 --> 01:10:59,171 ‎3년 반을 일했는데 ‎친구이자 멘토였죠 1159 01:10:59,630 --> 01:11:01,590 ‎사실 문자를 하나 받았어요 1160 01:11:01,674 --> 01:11:05,302 ‎적어도 한 달 이상 ‎얘기한 적도 없는데요 1161 01:11:05,386 --> 01:11:06,804 ‎당신이 증언하는 것을 봤군요 1162 01:11:06,887 --> 01:11:08,514 ‎- 네, 봤더라고요 ‎- 뭐라고 하던가요? 1163 01:11:09,139 --> 01:11:12,601 ‎아주 어려워 보였는데 ‎잘했다고 했어요 1164 01:11:12,685 --> 01:11:14,812 ‎- 답장은 보내셨나요? ‎- 아뇨 1165 01:11:14,895 --> 01:11:16,063 ‎보내실 거예요? 1166 01:11:16,146 --> 01:11:18,315 ‎아뇨, 지금은 부적절한 ‎시점인 거 같아요 1167 01:11:18,857 --> 01:11:21,110 ‎우정 같은 건 없었나요? 1168 01:11:21,986 --> 01:11:27,658 ‎실제로 우정은 얼마만큼이었나 ‎생각해 보고 있어요 1169 01:11:49,888 --> 01:11:52,141 ‎그건 브리트니의 공이죠 1170 01:11:52,599 --> 01:11:56,520 ‎얼마나 많은 사람들이 ‎그냥 입을 다물고 마는데요 1171 01:12:01,233 --> 01:12:03,485 ‎브리트니가 기밀로 분류된 1172 01:12:03,569 --> 01:12:08,866 ‎무기급 기술이라고 했을 때 ‎입이 떡 벌어졌죠 1173 01:12:09,408 --> 01:12:12,119 ‎그런 걸 영국 정부 승인 없이 1174 01:12:12,202 --> 01:12:14,455 ‎사용한 건 위법이잖아요 1175 01:12:18,334 --> 01:12:19,710 ‎그게 'PSYOPS'죠 1176 01:12:21,003 --> 01:12:24,381 ‎'PSYOPS'는 심리전을 뜻해요 1177 01:12:24,465 --> 01:12:28,010 ‎군사 용어죠 1178 01:12:28,093 --> 01:12:32,598 ‎전투 없이 전투를 벌이는 거예요 1179 01:12:32,681 --> 01:12:34,475 ‎이런 거죠 1180 01:12:34,558 --> 01:12:36,602 ‎아프가니스탄 같은 곳에서는 ‎선택을 할 수 있죠 1181 01:12:36,685 --> 01:12:38,562 ‎마을을 폭격해 버릴지 1182 01:12:39,021 --> 01:12:43,942 ‎아니면 그들을 이렇게 ‎설득할 다른 기술을 쓸지요 1183 01:12:44,026 --> 01:12:46,862 ‎'탈레반은 좋지 않으니 ‎그놈들 없이 지내는 게 더 좋아' 1184 01:12:51,033 --> 01:12:54,370 ‎SCL은 원래 민간 군사 업자였죠 1185 01:12:54,453 --> 01:12:56,038 ‎'SCL 디펜스'요 1186 01:12:57,039 --> 01:13:00,417 ‎저희는 매우 중요한 ‎방위 사업을 하고 있습니다 1187 01:13:01,835 --> 01:13:03,837 ‎영국 육군과 해군 1188 01:13:03,921 --> 01:13:05,464 ‎미 육군 특수 부대 ‎요원들을 훈련시킵니다 1189 01:13:05,547 --> 01:13:09,009 ‎나토군, CIA, 미 국무부 ‎미 국방부에서도 훈련을 담당하죠 1190 01:13:09,718 --> 01:13:15,099 ‎적대적인 대상의 행동에 ‎영향을 미치는 연구를 이용해서요 1191 01:13:15,766 --> 01:13:20,646 ‎알 카에다에 가입하지 않은 ‎14세에서 30세 모슬렘 남성을 1192 01:13:20,729 --> 01:13:22,356 ‎어떻게 설득하시겠습니까? 1193 01:13:23,440 --> 01:13:25,484 ‎본질은 커뮤니케이션 전쟁입니다 1194 01:13:27,653 --> 01:13:31,115 ‎이 회사는 아프가니스탄과 ‎이라크에서 활동했어요 1195 01:13:31,198 --> 01:13:34,576 ‎동유럽의 다양한 ‎지역에서 활동했습니다 1196 01:13:35,327 --> 01:13:37,871 ‎하지만 정말로 국면이 전환된 것은 1197 01:13:37,955 --> 01:13:42,918 ‎선거에 정보를 무기로 이용하기 ‎시작하면서부터였죠 1198 01:13:44,211 --> 01:13:47,714 ‎겹치는 부분이 많아요 ‎방법론적으로 전부 같거든요 1199 01:13:51,009 --> 01:13:55,431 ‎케임브리지 애널리티카/SCL이 ‎개발도상국에서 1200 01:13:55,514 --> 01:13:57,599 ‎진행한 모든 선거 운동은 1201 01:13:57,724 --> 01:14:01,728 ‎새로운 기술과 속임수를 ‎적용한 거예요 1202 01:14:02,521 --> 01:14:04,106 ‎사람들을 설득하는 방법 1203 01:14:04,189 --> 01:14:07,943 ‎투표율을 높이거나 낮추는 방법 1204 01:14:10,654 --> 01:14:11,697 ‎그러고 나니 이렇게 됐죠 1205 01:14:11,780 --> 01:14:14,908 ‎'그래, 이제 쓸 줄 알겠어 ‎영국과 미국에서 써 보자' 1206 01:14:18,370 --> 01:14:21,623 ‎"비밀 녹화 영상" 1207 01:14:23,292 --> 01:14:25,627 ‎- 트럼프 대통령은 만나보셨나요? ‎- 여러 번 봤죠 1208 01:14:26,003 --> 01:14:28,255 ‎조사, 데이터 1209 01:14:28,338 --> 01:14:30,716 ‎분석, 타깃 설정 등을 같이 했죠 1210 01:14:30,799 --> 01:14:32,759 ‎디지털 선거 운동 1211 01:14:32,843 --> 01:14:34,303 ‎TV 선거 운동 1212 01:14:34,928 --> 01:14:36,930 ‎그리고 우리 데이터 활용까지 ‎모든 전략을 다 썼죠 1213 01:14:38,765 --> 01:14:41,101 ‎표어는 이거였어요 ‎'부정직한 힐러리를 물리치자' 1214 01:14:41,185 --> 01:14:42,853 ‎이거 기억하시겠죠? 1215 01:14:43,687 --> 01:14:44,813 ‎'부정직한 힐러리' 1216 01:14:45,189 --> 01:14:49,735 ‎'부정직한'의 'O' 2개는 ‎수갑이었죠 1217 01:14:50,736 --> 01:14:52,613 ‎- 이런 거였죠... ‎- 죄수처럼요 1218 01:14:52,696 --> 01:14:55,115 ‎- '힐러리는 감옥으로' ‎- 당신이 만드신 건가요? 1219 01:14:55,199 --> 01:14:57,659 ‎'부정직한 힐러리를 물리치자'는 ‎그렇죠 1220 01:14:57,743 --> 01:15:00,621 ‎그러고 나서 창작물을... 1221 01:15:01,538 --> 01:15:03,832 ‎수백 개의 다양한 창작물을 1222 01:15:03,916 --> 01:15:05,417 ‎온라인에 뿌렸죠 1223 01:15:05,709 --> 01:15:07,377 ‎그냥 정보를 1224 01:15:07,461 --> 01:15:11,381 ‎인터넷이란 혈관에 주입한 거죠 1225 01:15:11,465 --> 01:15:14,176 ‎그런 다음... ‎어떻게 되는지 봅니다 1226 01:15:14,718 --> 01:15:19,223 ‎이런 것들이 인터넷 커뮤니티에 1227 01:15:19,306 --> 01:15:22,643 ‎침투하고 확장되죠 ‎아무런 표시가 없어서 1228 01:15:23,018 --> 01:15:25,646 ‎출처가 불명확하고 ‎추적도 불가능하죠 1229 01:15:26,396 --> 01:15:27,314 ‎"미셸 오바마" 1230 01:15:27,397 --> 01:15:28,690 ‎제 견해로는 1231 01:15:29,608 --> 01:15:32,569 ‎자기 집도 못 건사한다면 1232 01:15:32,903 --> 01:15:35,072 ‎백악관도 못 건사하는 건 ‎당연한 거죠 1233 01:15:35,656 --> 01:15:36,657 ‎못 한다고요 1234 01:15:38,158 --> 01:15:41,620 ‎부정직한 힐러리요? ‎네, 힐러리는 굉장히 부정직하죠 1235 01:15:41,703 --> 01:15:43,413 ‎힐러리를 감옥으로! 1236 01:15:43,497 --> 01:15:45,415 ‎네, 맞습니다 ‎힐러리를 감옥으로! 1237 01:15:45,499 --> 01:15:49,920 ‎힐러리를 감옥으로! 1238 01:15:51,922 --> 01:15:54,424 ‎11월에 힐러리를 물리칩시다 1239 01:15:54,508 --> 01:15:59,346 ‎"부정직한 힐러리를 물리치자" 1240 01:16:00,639 --> 01:16:07,604 ‎"케임브리지 애널리티카" 1241 01:16:08,313 --> 01:16:12,526 ‎채널 4의 비밀 녹화 영상을 ‎보셨을 때 어떠셨어요? 1242 01:16:14,236 --> 01:16:15,904 ‎아무도 몰랐어요 1243 01:16:18,574 --> 01:16:20,701 ‎그 영상을 봤을 때... 1244 01:16:21,326 --> 01:16:26,081 ‎뉴욕 사무실의 ‎모든 직원들과 같이 봤죠 1245 01:16:26,164 --> 01:16:28,083 ‎우린 그게 일종의 ‎'커밍아웃'이라 생각했죠 1246 01:16:28,166 --> 01:16:30,377 ‎모두가... 1247 01:16:31,878 --> 01:16:33,171 ‎충격받았을 겁니다 1248 01:16:35,591 --> 01:16:40,095 ‎모두가 화면에서 물러나서 ‎각자의 책상으로 조용히 돌아갔죠 1249 01:16:44,182 --> 01:16:45,642 ‎"캐럴 캐드월러드 ‎곧 생방송 시작..." 1250 01:16:45,726 --> 01:16:48,103 ‎"'가디언'과 '업저버'가 ‎채널 4 뉴스와 공동 취재" 1251 01:16:48,186 --> 01:16:51,607 ‎오늘 밤 공개될 채널 4 뉴스의 ‎비밀 녹화 인터뷰에서는 1252 01:16:51,690 --> 01:16:53,150 ‎CEO 알렉산더 닉스를 포함한 1253 01:16:53,233 --> 01:16:55,611 ‎케임브리지의 임원들이 1254 01:16:55,694 --> 01:16:58,030 ‎트럼프 대통령의 승리에 기여한 ‎회사의 역할을 자랑합니다 1255 01:16:58,614 --> 01:17:01,533 ‎이어지는 채널 4 뉴스의 ‎비밀 인터뷰에는 1256 01:17:01,617 --> 01:17:03,535 ‎닉스가 뇌물과 미인계를 1257 01:17:03,619 --> 01:17:06,038 ‎쓴 정황도 포착되었습니다 1258 01:17:06,121 --> 01:17:09,041 ‎후보자의 집 근처로 ‎여자들을 보냈지 1259 01:17:10,709 --> 01:17:12,753 ‎역사적인 일들이 많았다고 1260 01:17:14,755 --> 01:17:17,132 ‎닉스 씨, 케임브리지 ‎애널리티카 직원들에게 1261 01:17:17,215 --> 01:17:19,217 ‎한 말씀 전해 주시죠? 1262 01:17:22,387 --> 01:17:25,015 ‎케임브리지 애널리티카에서 ‎방금 내놓은 성명입니다 1263 01:17:26,099 --> 01:17:29,686 ‎알렉산더 닉스는 ‎즉시 직무 정지 됐습니다 1264 01:17:29,770 --> 01:17:34,066 ‎8천 7백만 명 이상의 페이스북 ‎사용자 데이터를 모아 피소된 1265 01:17:34,149 --> 01:17:35,484 ‎이 회사는 문을 닫을 예정입니다 1266 01:17:35,817 --> 01:17:40,238 ‎미국과 영국에서 파산을 ‎신청할 예정이라고 밝혔습니다 1267 01:17:42,574 --> 01:17:44,576 ‎평론가들은 ‎케임브리지 애널리티카/SCL이 1268 01:17:44,660 --> 01:17:47,496 ‎당국의 수사를 무력화하고 1269 01:17:47,579 --> 01:17:51,583 ‎증거를 없애기 위한 ‎폐쇄 작전에 들어간 것으로 1270 01:17:51,667 --> 01:17:53,794 ‎판단하고 있습니다 1271 01:17:55,921 --> 01:17:59,216 ‎"케임브리지 애널리티카" 1272 01:18:02,719 --> 01:18:05,972 ‎케임브리지 애널리티카 스캔들이 ‎페이스북 스캔들이 될까요? 1273 01:18:08,058 --> 01:18:10,018 ‎이는 한 회사만의 문제가 아닙니다 1274 01:18:11,436 --> 01:18:16,400 ‎이것은 기술 발달이 늦춰지지 ‎않는 한 계속될 것입니다 1275 01:18:17,776 --> 01:18:19,486 ‎하지만 케임브리지 애널리티카는 ‎사라졌죠 1276 01:18:20,612 --> 01:18:23,323 ‎어떤 면에서, 제 생각엔... 1277 01:18:25,867 --> 01:18:29,871 ‎이 기술이 아주 빨리 ‎발전하는 방식 때문에 1278 01:18:30,455 --> 01:18:34,543 ‎또한 이 기술에 대해 사람들은 ‎실제로 이해를 못 하면서도 1279 01:18:34,626 --> 01:18:37,170 ‎엄청나게 불안해 하기 때문에 1280 01:18:37,254 --> 01:18:40,048 ‎케임브리지 애널리티카 같은 ‎회사가 생길 수밖에 없었을 겁니다 1281 01:18:40,757 --> 01:18:43,218 ‎그게 케임브리지 애널리티카여서 ‎저한테는 불행이지만요 1282 01:18:52,310 --> 01:18:55,564 ‎"'가디언' & '업저버' ‎런던" 1283 01:18:56,022 --> 01:18:57,899 ‎케임브리지 애널리티카에게서 ‎1년이 넘게 1284 01:18:57,983 --> 01:19:00,527 ‎받은 협박을 처리하고 나서 1285 01:19:01,236 --> 01:19:03,363 ‎우리 머리를 폭발하게 만든 것은 1286 01:19:03,447 --> 01:19:07,075 ‎발행 전날 페이스북에서 ‎편지를 받았을 때였죠 1287 01:19:07,159 --> 01:19:10,245 ‎네, 마치 우리를 굴복시키려고 ‎하는 것 같았죠 1288 01:19:10,328 --> 01:19:14,499 ‎뭐랄까, 저는... ‎법적인 대응으로 안 느껴졌어요 1289 01:19:14,583 --> 01:19:18,670 ‎이런 거였죠, 세계에서 제일 ‎큰 회사에서 1290 01:19:19,087 --> 01:19:20,130 ‎영국 변호사를 쓴다뇨? 1291 01:19:20,213 --> 01:19:22,382 ‎아주 공격적인 협박이었죠 1292 01:19:22,466 --> 01:19:24,259 ‎아직 사과 안 했죠? 1293 01:19:24,342 --> 01:19:26,762 ‎아뇨, 때가 안 좋았다더군요 1294 01:19:27,387 --> 01:19:29,473 ‎네, 그때까지 1295 01:19:29,556 --> 01:19:31,808 ‎그런 첨단 기술계의 스타들은 1296 01:19:31,892 --> 01:19:35,312 ‎후드 티를 입고 세계를 연결한 ‎멋진 청년들이라고 여겨졌죠 1297 01:19:35,854 --> 01:19:37,898 ‎그런 사람들은 선하다는 생각에도 1298 01:19:37,981 --> 01:19:40,025 ‎변화가 생겼어요 1299 01:19:40,525 --> 01:19:44,112 ‎실제로 그들이 어떤지 ‎의문을 제기하기 1300 01:19:44,196 --> 01:19:46,531 ‎시작해야 한다는 쪽으로요 1301 01:19:50,452 --> 01:19:52,245 ‎케임브리지 애널리티카는 사라졌죠 1302 01:19:52,996 --> 01:19:58,502 ‎하지만 정말 중요한 건 ‎케임브리지 애널리티카 이야기가 1303 01:19:58,835 --> 01:20:03,507 ‎의미하는 훨씬 더 중요하고 ‎걱정스러운 사실을 이해해야죠 1304 01:20:03,965 --> 01:20:08,804 ‎우리의 개인 정보가 돌아다니고 ‎우리가 알 수 없는 방식으로 1305 01:20:08,887 --> 01:20:10,931 ‎우리에게 해를 끼치는 데 ‎사용된다는 걸요 1306 01:20:14,810 --> 01:20:16,520 ‎데이비드가 자기 정보를 ‎돌려받게 된다면 1307 01:20:17,020 --> 01:20:19,856 ‎어떤 답을 얻을 수도 ‎있을 것 같아요 1308 01:20:22,859 --> 01:20:28,865 ‎SCL이 법대로 제 개인 정보를 ‎주기로 한 최종 기한이 오늘이에요 1309 01:20:30,867 --> 01:20:35,497 ‎회피하느냐 책임을 지느냐의 ‎갈림길에 있습니다 1310 01:20:38,792 --> 01:20:40,210 ‎캐럴이 트윗했네요 1311 01:20:40,836 --> 01:20:43,421 ‎'오늘은 캐럴 교수가 ‎ 유럽 의회에도 증거를 제출한다' 1312 01:20:43,505 --> 01:20:45,507 ‎'케임브리지 애널리티카로부터' 1313 01:20:45,590 --> 01:20:47,634 ‎'개인 정보를 돌려받기로 한 ‎최종 기한이기도 하다' 1314 01:20:47,717 --> 01:20:51,388 ‎'만약 돌려받지 못한다면 ‎형사 소송으로 갈 수 있다' 1315 01:20:56,142 --> 01:20:58,728 ‎'라비, 소식 없어요?' 1316 01:21:00,272 --> 01:21:01,273 ‎'아직 없네요' 1317 01:21:07,654 --> 01:21:11,950 ‎저는 제 변호사로부터 연락을 ‎기다렸는데 아무 연락이 없네요 1318 01:21:12,033 --> 01:21:14,244 ‎규제 기관을 존중하지 ‎않고 있습니다 1319 01:21:14,619 --> 01:21:16,788 ‎법률을 존중하지 않고 있어요 1320 01:21:17,539 --> 01:21:19,791 ‎그렇다면 이것은 ‎형사 사건이 됩니다 1321 01:21:19,875 --> 01:21:21,626 ‎우리는 지금 유례 없는 ‎혼란 상황에 있습니다 1322 01:21:22,919 --> 01:21:26,298 ‎저는 계속해서 ‎이 문제를 추적할 것입니다 1323 01:21:26,381 --> 01:21:30,051 ‎그들의 모형이 사람들에게 ‎영향을 끼칠 수 있으니까요 1324 01:21:30,135 --> 01:21:32,596 ‎한 줌도 안 되는 사람들이 ‎영향받을지라도요 1325 01:21:32,679 --> 01:21:36,474 ‎미국에서는 ‎고작 3개 주에 거주하는 1326 01:21:36,558 --> 01:21:39,436 ‎7만 명의 유권자가 ‎선거 결과를 결정지었거든요 1327 01:21:42,439 --> 01:21:44,774 ‎정말 감사드립니다, 캐럴 교수님 1328 01:21:45,734 --> 01:21:46,818 ‎배튼 의원님 1329 01:21:47,444 --> 01:21:51,281 ‎'가디언'지의 ‎캐럴 캐드월러드 씨께 질문입니다 1330 01:21:51,364 --> 01:21:56,077 ‎'가디언'이 완전히 특정 정파의 ‎입장에 섬으로써 1331 01:21:56,161 --> 01:22:00,040 ‎국민 투표 결과를 번복하려는 1332 01:22:00,123 --> 01:22:03,251 ‎시도를 지원하려는 거 아닌가요? 1333 01:22:05,587 --> 01:22:10,425 ‎이건 절대 특정 당파의 ‎문제가 아닙니다 1334 01:22:10,508 --> 01:22:14,512 ‎우리 민주주의의 완전성에 ‎관한 것입니다 1335 01:22:14,596 --> 01:22:17,223 ‎국가의 주권 문제이기도 하고요 1336 01:22:17,766 --> 01:22:21,061 ‎여러분들도 그런 문제에 ‎관심이 있으시리라 생각합니다 1337 01:22:24,356 --> 01:22:28,818 ‎우리는 절대적으로 ‎더 많은 정보가 필요합니다 1338 01:22:28,902 --> 01:22:31,321 ‎어떻게 사람들이 타깃이 되었고 1339 01:22:31,404 --> 01:22:33,782 ‎어떤 정보에 의해 그렇게 ‎되었는지도 모르기 때문이죠 1340 01:22:34,324 --> 01:22:36,493 ‎우리가 알아야 할 것은 1341 01:22:36,576 --> 01:22:40,956 ‎페이스북이 이 문제를 ‎조사하려는 영국 의회를 1342 01:22:41,039 --> 01:22:43,708 ‎방해하고 있다는 사실입니다 1343 01:22:44,292 --> 01:22:48,755 ‎정말로 여러분들은 ‎더 높은 쪽을 보셔야 해요 1344 01:22:48,838 --> 01:22:50,966 ‎그리고 더 큰 문제와 ‎더 큰 그림을 보셔야 하고 1345 01:22:51,049 --> 01:22:53,635 ‎우리 모두에게 더 큰 위험이 ‎된다는 것을 아셔야 해요 1346 01:23:04,896 --> 01:23:08,191 ‎로저, 페이스북이 어떤 법도 ‎어기지 않았지만 1347 01:23:08,608 --> 01:23:12,320 ‎소비자에게 지켜야 할 ‎도덕적 신의를 깬 거 아닌가요? 1348 01:23:12,404 --> 01:23:14,197 ‎저한테도 그랬습니다 1349 01:23:14,280 --> 01:23:18,743 ‎2016년 10월부터 3개월 동안 ‎이렇게 말하려 했죠 1350 01:23:18,827 --> 01:23:20,996 ‎'내 생각에 당신들은 민주주의를 ‎파괴하고 있소' 1351 01:23:21,079 --> 01:23:22,455 ‎'이러면 당신네 사업도 망해요' 1352 01:23:22,539 --> 01:23:24,833 ‎- 안녕하세요? 로저입니다 ‎- 안녕하세요? 1353 01:23:24,916 --> 01:23:26,918 ‎- 만나 뵈어 기뻐요 ‎- 만나 뵈어 기쁩니다 1354 01:23:27,002 --> 01:23:31,131 ‎페이스북은 주의를 독점하는 ‎식으로 설계돼 있죠 1355 01:23:31,798 --> 01:23:34,634 ‎프로파간다의 모든 기본 속임수를 ‎다 가지고 있고 1356 01:23:34,718 --> 01:23:37,053 ‎그것을 카지노 도박의 속임수와 ‎교배시켰어요 1357 01:23:37,137 --> 01:23:38,847 ‎슬롯머신과 좋아요를요 1358 01:23:38,930 --> 01:23:41,016 ‎"로저 맥나미 ‎페이스북 초기 투자자" 1359 01:23:41,099 --> 01:23:44,561 ‎기본적으로 본능에 기반해 있는데 1360 01:23:44,644 --> 01:23:47,981 ‎공포와 분노, 주로 이 두 감정을 ‎활용하고 있어요 1361 01:23:48,064 --> 01:23:50,650 ‎그래서 광고주들이 1362 01:23:50,734 --> 01:23:56,197 ‎개인 수준의 타깃 설정을 통해 ‎그런 감정적인 사용자를 1363 01:23:57,240 --> 01:24:00,493 ‎착취할 수 있는 도구 모음을 ‎만들었습니다 1364 01:24:00,577 --> 01:24:05,623 ‎각자 나름의 현실 세계가 있는 ‎21억 명의 인간이 있죠 1365 01:24:05,999 --> 01:24:10,879 ‎모두가 자기 나름의 현실 세계를 ‎가지면 그들을 조종하기 쉬워지죠 1366 01:24:11,671 --> 01:24:16,926 ‎이것의 또 다른 문제는 ‎자기가 소중하게 여기는 것을 1367 01:24:17,844 --> 01:24:20,680 ‎비판하면 엄청 ‎괴로워하게 된다는 거예요 1368 01:24:20,764 --> 01:24:24,809 ‎그냥 이런 식으로 말하게 되죠 ‎'그 생각은 안 할 거야' 1369 01:24:25,060 --> 01:24:25,935 ‎맞아요 1370 01:24:26,186 --> 01:24:31,191 ‎하지만 인생에서 시험에 ‎들 때가 있잖아요 1371 01:24:31,649 --> 01:24:33,234 ‎저한테는 지금이 ‎그런 순간 중 하나예요 1372 01:24:33,318 --> 01:24:35,070 ‎일어서서 이 문제에 대해 ‎뭔가를 하거나 1373 01:24:35,153 --> 01:24:37,614 ‎아니면 가만히 있으면서 ‎아무거나 하는 거죠 1374 01:24:38,073 --> 01:24:40,533 ‎왜냐하면 제 지문도 여기에 ‎남아 있거든요 1375 01:24:41,284 --> 01:24:43,495 ‎저도 정말 죄책감을 느낍니다 1376 01:24:44,829 --> 01:24:47,540 ‎전 그저 밤에 잠을... 1377 01:24:48,708 --> 01:24:50,001 ‎자고 싶어요 1378 01:25:09,437 --> 01:25:11,773 ‎제가 정말 얼떨떨했던 건 1379 01:25:12,190 --> 01:25:15,318 ‎당신과 오바마 쪽 사람들 ‎힐러리 쪽 사람들 사이에 1380 01:25:15,401 --> 01:25:17,403 ‎있었던 일이에요 1381 01:25:19,864 --> 01:25:22,325 ‎어느 쪽도 저한테 보수를 ‎주려고 하지 않았죠 1382 01:25:23,701 --> 01:25:27,622 ‎가족이 돈을 다 날리고 1383 01:25:27,705 --> 01:25:30,458 ‎집까지 잃을 처지였으며 1384 01:25:30,542 --> 01:25:33,128 ‎가장인 아버지가 1385 01:25:33,211 --> 01:25:35,588 ‎뇌 수술을 하고 다시는 ‎일하지 못하게 되면 1386 01:25:36,422 --> 01:25:38,925 ‎돈을 주는 쪽에 가서 ‎일을 해야 하는 거죠 1387 01:25:42,470 --> 01:25:45,431 ‎2008년에 돈을 다 잃었나요? 1388 01:25:45,890 --> 01:25:50,019 ‎네, 그래도 가족이 다 흩어지는 ‎데는 시간이 좀 더 걸렸죠 1389 01:25:52,188 --> 01:25:56,860 ‎2014년에는 집을 빼앗겼고 ‎전 케임브리지에서 일을 시작했죠 1390 01:26:09,497 --> 01:26:12,375 ‎알렉산더 닉스가 ‎의회 NSCM 위원회에 출석합니다 1391 01:26:12,458 --> 01:26:14,460 ‎이전에는 회사에 대한 사법 기관의 ‎조사 때문에 1392 01:26:14,544 --> 01:26:17,338 ‎증언을 거부했었죠 1393 01:26:27,432 --> 01:26:29,058 ‎런던에서 보낸 마지막 날이었죠 1394 01:26:29,142 --> 01:26:33,188 ‎SCL에 재판을 걸려고 했던 게 ‎기억나네요 1395 01:26:34,689 --> 01:26:38,651 ‎그게 얼마나 무서울지가 ‎머릿속을 스쳐갔던 것도요 1396 01:26:40,403 --> 01:26:42,572 ‎본 위원회는 오늘 이렇게 ‎질문에 답해주시려고 1397 01:26:42,655 --> 01:26:45,408 ‎다시 출석해 주신 ‎알렉산더 닉스 씨에게 1398 01:26:45,491 --> 01:26:47,243 ‎깊은 감사를 드립니다 1399 01:26:47,327 --> 01:26:49,120 ‎여기에 돌아오기 위해 1400 01:26:49,204 --> 01:26:52,457 ‎이 사람들은 빈털터리가 되고 1401 01:26:52,540 --> 01:26:54,876 ‎악당은 곤경에 처합니다 1402 01:26:57,545 --> 01:26:59,923 ‎세상에 그의 편이 있을까요? 1403 01:27:00,465 --> 01:27:02,926 ‎아니면 모두가 ‎그에게 등을 돌릴까요? 1404 01:27:06,930 --> 01:27:10,058 ‎약간 분명히 해두고 싶은 게 ‎있습니다 1405 01:27:10,725 --> 01:27:12,936 ‎몇 분밖에 안 걸립니다만 1406 01:27:13,019 --> 01:27:17,273 ‎제 답변의 틀을 잡는 데 ‎중요해서요 1407 01:27:17,357 --> 01:27:18,358 ‎진짜 긴장했네요 1408 01:27:18,441 --> 01:27:20,401 ‎닉스 씨, 일단 위원회의 ‎질문을 받고 시작하면 좋겠네요 1409 01:27:20,485 --> 01:27:21,819 ‎그리고 청문을 진행하면서 보죠 1410 01:27:22,111 --> 01:27:26,449 ‎보통 때라면 말씀을 존중하겠는데 ‎평범한 상황이 아니어서요 1411 01:27:26,532 --> 01:27:30,203 ‎그래서 가능하다면 ‎아주 짧은 성명을 읽고 1412 01:27:30,286 --> 01:27:31,829 ‎제 입장을 정리했으면 합니다 1413 01:27:31,913 --> 01:27:34,332 ‎질문을 하나씩 받아서 ‎진행하는 게 나을 거 같습니다 1414 01:27:34,415 --> 01:27:37,126 ‎처음에 성명서를 읽고 ‎시작하는 것보다는요 1415 01:27:37,377 --> 01:27:39,587 ‎콜린스 의원님 ‎질문하실 시간은 충분합니다 1416 01:27:39,671 --> 01:27:43,174 ‎위원회 여러분들 모두 ‎원하시는 만큼 질의하셔도 되는데 1417 01:27:43,258 --> 01:27:45,134 ‎저는 꼭 이... 1418 01:27:45,218 --> 01:27:46,928 ‎어떻게 저렇게 시작할 수가 있죠? 1419 01:27:47,011 --> 01:27:48,554 ‎이곳은 주장하는 자리가 아닙니다 1420 01:27:48,638 --> 01:27:51,933 ‎'저는 제 답변이 ‎더 명확했어야 한다는...' 1421 01:27:52,016 --> 01:27:54,560 ‎잠시만요, 성명서를 읽고 있잖아요 1422 01:27:54,644 --> 01:27:58,189 ‎- 첫 번째 질문에 답해주세요... ‎- 알렉산더가 왜 저러죠? 1423 01:27:59,983 --> 01:28:02,443 ‎- 첫 번째 질문을 다시 해 주시죠 ‎- 네, 그러죠 1424 01:28:02,527 --> 01:28:05,405 ‎브렉시트 국민 투표에 ‎사업 제안을 하셨는데 1425 01:28:05,488 --> 01:28:09,492 ‎당신이 입장을 분명히 했기 때문에 ‎리브닷EU 얘기는 안 하고 싶은데요 1426 01:28:10,076 --> 01:28:12,912 ‎뭐가 잘 안 맞는 것 같은데요 ‎패럴리 의원님 1427 01:28:13,329 --> 01:28:16,666 ‎제가 15년간 이 회사에서 ‎일을 했습니다 1428 01:28:17,500 --> 01:28:20,295 ‎저희는 영국에서 어떤 선거도 ‎담당하지 않았습니다 1429 01:28:22,755 --> 01:28:24,090 ‎사실이 아니에요 1430 01:28:33,975 --> 01:28:37,186 ‎캐럴에게서 이메일이 왔어요 1431 01:28:37,645 --> 01:28:40,523 ‎제가 2월에 줄리언 어산지를 ‎만난 걸 알고 있대요 1432 01:28:42,317 --> 01:28:47,155 ‎비트코인으로 위키리크스에 ‎기부금을 낸 것도 알고요 1433 01:28:49,282 --> 01:28:52,076 ‎오늘 캐럴이 그 기사를 내면 ‎우리 나라 정부와 얘기 중인 걸 1434 01:28:53,369 --> 01:28:56,372 ‎더 어렵게 만들 거예요 1435 01:28:57,123 --> 01:28:59,000 ‎브리트니 카이저가 제출한 ‎증거를 보면 1436 01:28:59,334 --> 01:29:02,628 ‎지난번에 줄리언 어산지에 대해 ‎이야기했을 때 1437 01:29:02,712 --> 01:29:06,049 ‎줄리언 어산지의 이메일 계정에 ‎접근하려고 했다고 했죠 1438 01:29:06,132 --> 01:29:07,675 ‎그 이메일에는 1439 01:29:08,176 --> 01:29:11,554 ‎당신의 고객 트럼프 진영에 유리한 ‎힐러리 클린턴의 이메일이 1440 01:29:11,637 --> 01:29:12,472 ‎있었다고요 1441 01:29:12,555 --> 01:29:15,391 ‎큰 논쟁을 ‎불러 일으킬 만한 것이었죠 1442 01:29:15,475 --> 01:29:17,769 ‎그리고 저희는... 1443 01:29:17,852 --> 01:29:20,063 ‎모든 언론인들과 1444 01:29:20,146 --> 01:29:24,984 ‎미국의 양대 정치 세력을 돕는 ‎대부분의 정치 컨설턴트처럼 1445 01:29:25,109 --> 01:29:26,944 ‎그 안에 뭐가 들었을지 ‎궁금했습니다 1446 01:29:27,028 --> 01:29:32,658 ‎그런 호기심이 범죄적인 것이라고 ‎생각하지 않습니다 1447 01:29:32,742 --> 01:29:36,245 ‎세상에, 캐럴이 기사를 냈네요 1448 01:29:36,329 --> 01:29:38,206 ‎"케임브리지 애널리티카 임원 ‎어산지와 만나 미 대선 논의" 1449 01:29:38,289 --> 01:29:40,833 ‎저는 미국 대선 얘기 안 했어요! 1450 01:29:40,917 --> 01:29:42,752 ‎세상에, 말도 안 돼요! 1451 01:29:43,169 --> 01:29:44,170 ‎폴! 1452 01:29:44,462 --> 01:29:46,964 ‎- 안녕, 잘 지내죠? ‎- 폴 1453 01:29:47,507 --> 01:29:51,469 ‎제가 말했지만, 전부 다 나왔는데 ‎물어보고 싶은 건요... 1454 01:29:51,844 --> 01:29:54,347 ‎저는 힐러리의 이메일을 ‎유출하자고 공모하지 않았어요 1455 01:29:54,430 --> 01:29:58,309 ‎러시아와는 아무 관계도 없고요 ‎그러니까... 1456 01:29:58,393 --> 01:29:59,310 ‎그렇군요 1457 01:29:59,560 --> 01:30:01,020 ‎사실은... 1458 01:30:02,730 --> 01:30:05,233 ‎- 양쪽 다 한 거 같아요 ‎- 양쪽을 다 했다뇨? 1459 01:30:05,316 --> 01:30:08,694 ‎제가 아니라면 맞다고 했겠죠 ‎그렇게 보이니까요 1460 01:30:11,322 --> 01:30:12,698 ‎제가 두려워하는 이유가 그거예요 1461 01:30:12,782 --> 01:30:15,535 ‎저를 절대로 믿지 않을 사람들이 ‎많이 있을 거잖아요 1462 01:30:16,160 --> 01:30:18,746 ‎저를 못 믿는 사람들 때문에 ‎죽을 거라고요 1463 01:30:18,830 --> 01:30:20,915 ‎음, 그럴 수도 있죠 1464 01:30:21,791 --> 01:30:24,043 ‎- 당연히 그럴 거예요 ‎- 그렇다니까요! 1465 01:30:27,547 --> 01:30:28,423 ‎알겠어요 1466 01:30:29,882 --> 01:30:31,342 ‎여길 떠야 할 거 같네요 1467 01:30:35,096 --> 01:30:37,974 ‎제가 보기에는 ‎당신은 오늘 출석해서 1468 01:30:38,057 --> 01:30:41,811 ‎계속 자신을 피해자로 ‎보이게 하려고 했습니다 1469 01:30:41,894 --> 01:30:46,566 ‎어떤 상상력을 발휘해도 ‎당신이 피해자로 보이진 않는데요 1470 01:30:46,858 --> 01:30:50,194 ‎당연히 그러시겠죠 ‎피해자로 나오신 게 아니니까요 1471 01:30:51,195 --> 01:30:52,864 ‎제가 피해자였다면요? 1472 01:30:52,947 --> 01:30:57,076 ‎조사가 마무리 되고 1473 01:30:57,160 --> 01:30:59,787 ‎사람들이 실제로는 ‎우리가 그저 1474 01:31:00,538 --> 01:31:05,084 ‎트럼프의 선거 운동에 ‎기여한 것처럼 1475 01:31:05,168 --> 01:31:06,878 ‎보일 뿐이었다는 걸 ‎알게 된다면요 1476 01:31:06,961 --> 01:31:10,923 ‎브렉시트의 설계자로 ‎잘못 알려졌고 1477 01:31:11,549 --> 01:31:15,803 ‎양 진영의 극단적인 성향 때문에 1478 01:31:15,887 --> 01:31:18,723 ‎세계의 진보 언론들이 ‎노여움을 느껴서 1479 01:31:18,806 --> 01:31:21,684 ‎우리를 잡아넣기로 결정했고 1480 01:31:21,767 --> 01:31:26,147 ‎우리 회사의 명성을 ‎망가뜨리기 위해 1481 01:31:26,230 --> 01:31:29,484 ‎한패가 되어 ‎조직적인 공격을 개시했다는 거죠 1482 01:31:29,567 --> 01:31:35,490 ‎그렇게 됐다는 증거로는 ‎와일리 씨가 제기한 1483 01:31:35,573 --> 01:31:38,034 ‎근거 없는 혐의를 ‎들 수 있습니다 1484 01:31:38,117 --> 01:31:41,787 ‎그 사람은 우리가 하지도 않은 ‎브렉시트의 경우를 1485 01:31:41,871 --> 01:31:43,164 ‎공격할 수 있게 1486 01:31:43,247 --> 01:31:46,417 ‎미디어가 필요로 하고 1487 01:31:46,501 --> 01:31:47,502 ‎원하는 정보를 제공했죠 1488 01:31:47,585 --> 01:31:49,504 ‎그래서 당신이 이 모든 것의 ‎피해자란 겁니까? 1489 01:31:51,088 --> 01:31:54,717 ‎지금 제 자리에 앉아 보시면 ‎그런 생각이 강하게 1490 01:31:56,385 --> 01:31:57,470 ‎드실 겁니다 1491 01:31:58,054 --> 01:31:59,514 ‎도대체 여권을 어디다 뒀지? 1492 01:32:02,016 --> 01:32:03,809 ‎지금은 안녕 못 하겠네요 1493 01:32:04,352 --> 01:32:05,645 ‎내가 다른 데다 넣어 놨나? 1494 01:32:08,856 --> 01:32:09,857 ‎오, 하나님, 감사합니다 1495 01:32:10,358 --> 01:32:12,568 ‎평생 넣어둔 적이 없는 곳에 ‎넣어 놨네요 1496 01:32:13,361 --> 01:32:15,196 ‎오늘은 제대로 생각을 ‎할 수가 없어요 1497 01:32:20,159 --> 01:32:22,662 ‎제가 좀 허둥지둥하네요 1498 01:32:27,583 --> 01:32:29,460 ‎코코 마드무아젤이면 ‎기분이 좋아지겠죠 1499 01:32:30,419 --> 01:32:32,171 ‎적어도 저한테서 ‎좋은 냄새가 날 테니까요 1500 01:32:38,886 --> 01:32:41,639 ‎앞으로 무슨 일이 일어날지 ‎모르겠어요 1501 01:32:43,182 --> 01:32:46,352 ‎도움이 되고 싶어서 ‎여기로 왔는데요 1502 01:32:47,728 --> 01:32:48,938 ‎전 돕고 싶어요 1503 01:32:49,438 --> 01:32:51,691 ‎"뉴어크 국제공항" 1504 01:33:10,126 --> 01:33:12,587 ‎"오, 캐럴 캐드월러드 ‎또 한 건 했네요" 1505 01:33:12,670 --> 01:33:15,131 ‎"케임브리지 애널리티카 임원 ‎어산지와 만나 미 대선 논의" 1506 01:33:15,214 --> 01:33:17,133 ‎오늘 영국의 '가디언'지는 ‎이렇게 보도했습니다 1507 01:33:17,216 --> 01:33:19,677 ‎케임브리지 애널리티카 ‎고위 임원이 1508 01:33:19,760 --> 01:33:22,305 ‎러시아가 훔쳐낸 문건을 배포한 ‎단체 위키리크스의 1509 01:33:22,763 --> 01:33:25,933 ‎줄리언 어산지를 ‎만났다고 보도했습니다 1510 01:33:28,102 --> 01:33:31,022 ‎그들은 미국 대선을 ‎논의했다고 합니다 1511 01:33:31,856 --> 01:33:35,693 ‎"완전 충격 ‎뮬러 특검, 듣고 있어요?" 1512 01:33:35,776 --> 01:33:39,697 ‎"그는 알고 있을 거야!" 1513 01:33:49,624 --> 01:33:52,710 ‎뮬러 특검 팀한테서 ‎비행기 예매할 때 전화가 왔죠 1514 01:33:52,793 --> 01:33:55,087 ‎소환장을 발부하기로 했대요 1515 01:33:56,505 --> 01:34:00,635 ‎우리는 아주 우호적이고 ‎협조적인 분위기로 얘기 중이었죠 1516 01:34:00,718 --> 01:34:05,097 ‎그런데 캐럴의 기사가 그쪽에서 ‎저를 보는 시각을 바꿔 놨어요 1517 01:34:06,766 --> 01:34:09,518 ‎네, 뭐, 저는... 1518 01:34:10,311 --> 01:34:12,647 ‎케임브리지 애널리티카에서 ‎일했고, 그때는 1519 01:34:12,730 --> 01:34:15,399 ‎페이스북 데이터 세트가 있었죠 1520 01:34:16,567 --> 01:34:18,110 ‎또 저는 케임브리지에서 ‎일하는 동안 1521 01:34:19,779 --> 01:34:23,074 ‎러시아에 한 번 갔었죠 1522 01:34:23,157 --> 01:34:25,743 ‎줄리언 어산지도 만났어요 ‎케임브리지에서 일할 때요 1523 01:34:26,077 --> 01:34:27,953 ‎위키리크스에 한 번 기부도 했고요 1524 01:34:28,037 --> 01:34:32,416 ‎트럼프 선거 팀에 사업 제안할 때 ‎제가 했고, 첫 계약서도 제가 썼죠 1525 01:34:33,376 --> 01:34:36,170 ‎이런 모든 것이 저를 1526 01:34:36,671 --> 01:34:40,633 ‎어떤 대단한 정신 나간 일의 ‎중심에 있는 것처럼 보이게 하죠 1527 01:34:41,384 --> 01:34:44,303 ‎그 기사를 보고 ‎반박할 수가 없었어요 1528 01:34:46,222 --> 01:34:50,810 ‎지난 몇 년간 일해왔던 방식을 ‎다시 생각해 봐야겠어요 1529 01:35:05,199 --> 01:35:08,661 ‎이 기사는 저희가 이제까지 ‎내지 않았던 거예요 1530 01:35:08,744 --> 01:35:11,288 ‎영국과 미국에서 시작된 1531 01:35:11,372 --> 01:35:14,417 ‎수사에 관해 이야기하고 있어요 1532 01:35:14,667 --> 01:35:16,293 ‎기사가 나온 이후로 1533 01:35:16,377 --> 01:35:19,839 ‎FBI의 수사가 있고요 1534 01:35:19,922 --> 01:35:22,842 ‎미국 증권 거래 위원회에서 한 것 1535 01:35:22,925 --> 01:35:24,385 ‎법무부에서 한 것 1536 01:35:24,468 --> 01:35:26,053 ‎로버트 뮬러 특검이 한 것 1537 01:35:26,137 --> 01:35:28,681 ‎상원 정보 위원회에서 한 것 1538 01:35:28,764 --> 01:35:31,142 ‎법사 위원회 ‎하원 정보 위원회에서도 했죠 1539 01:35:31,225 --> 01:35:33,018 ‎그러고 이것들은 모두 1540 01:35:33,102 --> 01:35:34,562 ‎영국에서 진행되는 것들과 ‎연결되죠 1541 01:35:36,063 --> 01:35:38,357 ‎"국회의원들, 페이스북에 ‎가짜 뉴스와 싸울 규정 요구" 1542 01:35:38,441 --> 01:35:41,277 ‎의회는 18개월간 조사 중이에요 1543 01:35:42,570 --> 01:35:44,572 ‎모든 증인을 다 불렀죠 1544 01:35:48,451 --> 01:35:52,037 ‎제일 중요한 건 보고서가 아주 ‎명확하게 이렇게 얘기한다는 거죠 1545 01:35:52,121 --> 01:35:54,623 ‎'우리 선거법은 적용이 어렵다' 1546 01:35:54,707 --> 01:35:56,500 ‎"영국 선거법은 적용하기 어렵다" 1547 01:35:56,584 --> 01:36:00,421 ‎이 나라에선 말 그대로 자유롭고 ‎공정한 선거를 치를 수가 없어요 1548 01:36:01,881 --> 01:36:04,550 ‎페이스북 때문에 그래요 1549 01:36:04,925 --> 01:36:08,345 ‎여전히 책임질 줄 모르는 ‎첨단 기술 업계의 스타 때문이죠 1550 01:36:08,429 --> 01:36:10,598 ‎"페이스북, 가짜 뉴스 보고서에서 ‎'디지털 갱단'이라 불리다" 1551 01:36:13,350 --> 01:36:15,478 ‎아주 종말론적으로 들리죠 1552 01:36:15,811 --> 01:36:19,815 ‎하지만 완전히 새로운 시대가 ‎다가온 것 같아요 1553 01:36:20,858 --> 01:36:24,945 ‎권위주의 정권이 증가하는 것을 ‎볼 수 있어요 1554 01:36:25,362 --> 01:36:31,243 ‎또한 그들은 모두 페이스북에서 ‎증오와 공포의 정치를 활용합니다 1555 01:36:33,579 --> 01:36:34,705 ‎브라질을 보세요 1556 01:36:34,955 --> 01:36:38,501 ‎우익 극단주의자가 1557 01:36:38,584 --> 01:36:40,127 ‎대통령으로 선출됐죠 1558 01:36:40,211 --> 01:36:44,256 ‎페이스북의 자회사 왓츠앱은 1559 01:36:44,340 --> 01:36:49,929 ‎가짜 뉴스를 퍼뜨리는 ‎온상이 됐습니다 1560 01:36:51,472 --> 01:36:53,474 ‎미얀마에서 일어난 일을 보세요 1561 01:36:54,558 --> 01:36:56,727 ‎페이스북이 인종 혐오를 ‎조장하는 데 사용되었고 1562 01:36:56,811 --> 01:37:00,731 ‎그 결과 집단 학살이 발생했다는 ‎증거가 있습니다 1563 01:37:00,815 --> 01:37:03,025 ‎"석유를 붓고 불을 질러서 ‎알라를 더 빨리 만나게 해주자" 1564 01:37:03,108 --> 01:37:06,237 ‎"종족의 씨를 말려야 해" 1565 01:37:07,696 --> 01:37:13,327 ‎또한 러시아 정부가 미국에서 ‎페이스북의 도구를 활용하고 있죠 1566 01:37:17,122 --> 01:37:20,960 ‎러시아 정보부가 ‎가짜 '블랙 라이브스 매터' 밈을 1567 01:37:21,418 --> 01:37:24,046 ‎유포했다는 증거가 있죠 1568 01:37:24,880 --> 01:37:28,509 ‎사람들이 그것을 클릭하면 1569 01:37:28,801 --> 01:37:32,513 ‎러시아 정부가 조직한 시위에 1570 01:37:32,596 --> 01:37:35,724 ‎참가하라는 페이지로 연결됩니다 1571 01:37:35,808 --> 01:37:37,852 ‎- 정의는 언제! ‎- 지금! 1572 01:37:37,935 --> 01:37:40,020 ‎동시에 '블루 라이브스 매터' 같은 ‎적대적인 그룹을 1573 01:37:40,104 --> 01:37:44,191 ‎타깃으로 삼은 페이지를 만들었죠 1574 01:37:46,026 --> 01:37:48,696 ‎이것은 공포와 증오를 ‎증폭시키는 일이고 1575 01:37:49,071 --> 01:37:51,657 ‎나라 안에서 내분이 ‎일어나게 합니다 1576 01:37:52,867 --> 01:37:54,493 ‎분할해서 정복하는 거죠 1577 01:37:57,329 --> 01:37:58,998 ‎백인의 힘! 1578 01:37:59,707 --> 01:38:01,625 ‎파시스트의 자부심! 1579 01:38:04,628 --> 01:38:07,965 ‎꺼져라, 도널드 트럼프! 1580 01:38:08,883 --> 01:38:12,136 ‎우리를 연결하려고 만들어진 ‎플랫폼들은 1581 01:38:12,720 --> 01:38:14,847 ‎이제 무기화되었습니다 1582 01:38:16,932 --> 01:38:20,227 ‎뭐가 뭔지 알 수가 없게 됐죠 1583 01:38:20,311 --> 01:38:24,315 ‎그런 행위가 친구와 대화하고 ‎아기 사진을 공유하는 1584 01:38:24,398 --> 01:38:27,985 ‎바로 그 공간에서 ‎이뤄지기 때문이죠 1585 01:38:30,404 --> 01:38:32,489 ‎보이는 게 다가 아닙니다 1586 01:38:37,286 --> 01:38:41,957 ‎"뉴욕시" 1587 01:38:45,419 --> 01:38:46,754 ‎네, 안녕하세요? 1588 01:38:47,838 --> 01:38:49,089 ‎전 괜찮아요 1589 01:38:49,173 --> 01:38:55,137 ‎지난 주에 여기 투숙했어요 ‎옷 가방 하나랑 가방 두 개 들고요 1590 01:38:55,220 --> 01:38:58,682 ‎갑자기 공항을 가야 했거든요 1591 01:38:58,766 --> 01:39:00,434 ‎제 가방이 여기 1주일 동안 ‎있었어요 1592 01:39:07,149 --> 01:39:08,984 ‎캐럴 캐드월러드는 1593 01:39:09,068 --> 01:39:12,363 ‎영국 신문 '가디언'과 '업저버'에 ‎기사를 실어요 1594 01:39:12,988 --> 01:39:15,282 ‎페이스북 데이터에 대해 ‎조금만 더 얘기해 주시겠어요? 1595 01:39:15,991 --> 01:39:21,038 ‎이 데이터로 ‎미국인들이 어떻게 타깃이 되며 1596 01:39:21,121 --> 01:39:22,998 ‎어떤 목적의 타깃이 ‎되는지에 관한 내용이 1597 01:39:23,499 --> 01:39:27,544 ‎뮬러 특검의 수사에서 ‎중요한 부분입니다 1598 01:39:30,965 --> 01:39:34,718 ‎전 워싱턴 DC로 가요 1599 01:39:35,177 --> 01:39:38,430 ‎뮬러 특검 수사 팀에 증언하러요 1600 01:39:41,934 --> 01:39:45,396 ‎우리가 거기 앉아서 1601 01:39:45,479 --> 01:39:47,898 ‎데이터 화면의 투표자 수를 ‎세지는 않을 거 같아요 1602 01:39:47,982 --> 01:39:50,401 ‎자기 페이스북 페이지에서 ‎러시아가 돈을 댄 1603 01:39:50,484 --> 01:39:56,490 ‎가짜 뉴스를 보고 ‎투표한 사람 수가 1604 01:39:56,573 --> 01:39:59,451 ‎얼마나 되는지 세지는 않겠죠 1605 01:40:01,286 --> 01:40:02,621 ‎제가 믿고 싶었는지도 몰라요 1606 01:40:02,705 --> 01:40:05,749 ‎케임브리지 애널리티카가 ‎최고였다는 걸요 1607 01:40:07,543 --> 01:40:09,586 ‎믿기 쉬운 얘기죠 1608 01:40:25,060 --> 01:40:28,731 ‎우리 나라의 수도로 내려갑니다 ‎워싱턴 레이건 DC 공항이죠 1609 01:40:35,404 --> 01:40:37,656 ‎어떤 걸 없앨 수 있다고 ‎생각하진 않아요 1610 01:40:40,284 --> 01:40:42,911 ‎이런 것은 정말 잊을 수 없죠 1611 01:40:53,505 --> 01:40:55,716 ‎"카이저" 1612 01:40:59,053 --> 01:41:01,805 ‎'젊은 세대의 참여, 설득...' 1613 01:41:03,140 --> 01:41:04,516 ‎'무관심' 같은 것들요 1614 01:41:04,600 --> 01:41:05,893 ‎말레이시아에서 작업 중입니다 1615 01:41:05,976 --> 01:41:10,105 ‎리투아니아, 루마니아 ‎케냐, 가나에서도 했어요 1616 01:41:10,689 --> 01:41:12,816 ‎네, 브렉시트 운동도 하고 있죠 1617 01:41:13,400 --> 01:41:14,693 ‎그 얘기를 대놓고 하진 않지만요 1618 01:41:14,777 --> 01:41:16,070 ‎어라, 우리가 이겼네! 1619 01:41:18,781 --> 01:41:21,325 ‎지금 이걸 들으면 마치... 1620 01:41:21,909 --> 01:41:25,913 ‎범죄자가 전 세계에서 한 ‎나쁜 짓을 인정하는 것 같아요 1621 01:41:27,456 --> 01:41:28,582 ‎그런 거죠 1622 01:41:29,458 --> 01:41:32,086 ‎저도 거기서 알렉산더 옆에서 ‎신경질적으로 웃고 있죠 1623 01:41:32,169 --> 01:41:33,170 ‎어떻게 되겠지, 하면서요 1624 01:41:41,553 --> 01:41:46,058 ‎말씀 드렸듯이, 제가 평생 ‎했던 일과 정반대 일이었죠 1625 01:41:47,726 --> 01:41:48,727 ‎그래서... 1626 01:41:51,980 --> 01:41:55,567 ‎저 자신에게 화가 나요 ‎저런 회의에 앉아 있었다는 게요 1627 01:41:56,110 --> 01:41:58,153 ‎그 후에 바로 그만두지도 못했죠 1628 01:41:59,530 --> 01:42:00,572 ‎무엇보다도요 1629 01:42:06,578 --> 01:42:08,789 ‎수사관과 무슨 얘기했어요? 1630 01:42:09,623 --> 01:42:10,707 ‎지금은... 1631 01:42:11,542 --> 01:42:13,710 ‎최대한 도움이 되려고 하죠 1632 01:42:13,794 --> 01:42:17,422 ‎제가 도움을 드릴 수 있는 ‎어떤 정부의 조사에도요 1633 01:42:17,506 --> 01:42:20,676 ‎하지만 지금은 조사 중이라 ‎말씀드릴 수는 없어요 1634 01:42:28,892 --> 01:42:31,145 ‎이제 휴대폰을 사용하셔도 됩니다 1635 01:42:31,478 --> 01:42:35,023 ‎하지만 더 큰 전자 기기는 ‎넣어 두세요 1636 01:42:35,399 --> 01:42:37,234 ‎브리트니는 실수를 했어요 1637 01:42:38,819 --> 01:42:41,155 ‎하지만 저는 브리트니가 ‎아주 용감했다고 생각해요 1638 01:42:41,238 --> 01:42:44,199 ‎자신이 한 일을 밝힌 다음에도 ‎도망치지 않고 1639 01:42:44,283 --> 01:42:45,826 ‎계속 도와주고 있으니까요 1640 01:42:48,620 --> 01:42:51,665 ‎브리트니는 ‎케임브리지 애널리티카에 대해 1641 01:42:51,915 --> 01:42:56,378 ‎진지하게 내부 고발한 ‎두 사람 중 하나죠 1642 01:43:00,632 --> 01:43:02,092 ‎우리 모두에게 책임이 있어요 1643 01:43:05,137 --> 01:43:07,806 ‎그러면 질문은 우리가 어떻게 ‎책임을 다할 거냐겠죠 1644 01:43:08,515 --> 01:43:09,683 ‎우리가 감당할 수 있을까요? 1645 01:43:12,603 --> 01:43:14,521 ‎결국 그렇게 돼서 기뻐요 1646 01:43:14,605 --> 01:43:18,275 ‎사람들에게 무슨 일이 있었는지 ‎알리고 모든 것을... 1647 01:43:19,943 --> 01:43:20,944 ‎기록에 남길 수 있죠 1648 01:43:22,154 --> 01:43:24,406 ‎이 정부, 우리 정부에 대해서요 1649 01:43:47,262 --> 01:43:49,181 ‎케임브리지 애널리티카를 ‎기억하시나요? 1650 01:43:49,431 --> 01:43:51,391 ‎2016년에 큰 화제였죠 1651 01:43:51,475 --> 01:43:53,477 ‎미국 대선에 투표한 ‎모든 사람의 1652 01:43:53,810 --> 01:43:56,688 ‎유권자 정보에 접근했던 것인가 ‎하는 의문이 있었어요 1653 01:43:58,440 --> 01:44:02,569 ‎그 선거에 투표한 ‎1억 5천 7백만 명 중 한 명인 1654 01:44:02,653 --> 01:44:06,365 ‎데이비드 캐럴이라는 남자가 ‎아주 간단한 질문을 했죠 1655 01:44:07,199 --> 01:44:09,826 ‎'당신들이 가진 ‎내 정보를 볼 수 있을까요?' 1656 01:44:10,827 --> 01:44:12,621 ‎그리고 거절당했습니다 1657 01:44:14,289 --> 01:44:15,999 ‎하지만 바로 오늘 1658 01:44:16,083 --> 01:44:19,211 ‎케임브리지 애널리티카가 ‎헨던 매지스트레이트 법원에서 1659 01:44:19,294 --> 01:44:21,838 ‎영국 정보 위원회 고지 규정을 ‎위반했음을 인정했습니다 1660 01:44:22,506 --> 01:44:24,466 ‎"이것은 어떤 의의가 있죠?" 1661 01:44:26,093 --> 01:44:29,721 ‎"그 회사가 범죄를 저질렀다는 걸 ‎우린 늘 알고 있었잖아요, 캐럴" 1662 01:44:29,805 --> 01:44:32,182 ‎"지금은 공식적이 된 거죠" 1663 01:44:40,774 --> 01:44:43,443 ‎케임브리지 애널리티카는 ‎이제 과거의 일이 됐죠 1664 01:44:44,027 --> 01:44:46,738 ‎제 개인 정보를 제공하지 ‎않은 것에 대한 유죄를 인정했고 1665 01:44:47,948 --> 01:44:50,242 ‎절대로 돌려받지 못할 겁니다 1666 01:44:53,287 --> 01:44:55,330 ‎제 딸이 18세가 되면 1667 01:44:55,414 --> 01:44:58,750 ‎자신을 규정하는 7만 개의 ‎데이터 포인트를 갖게 되겠죠 1668 01:44:59,167 --> 01:45:01,295 ‎지금은 아무 권리가 없습니다 1669 01:45:01,795 --> 01:45:03,839 ‎전혀 통제할 수 없죠 1670 01:45:06,133 --> 01:45:08,135 ‎하지만 싸움은 계속됩니다 1671 01:45:13,056 --> 01:45:13,890 ‎"캐럴 캐드월러드" 1672 01:45:13,974 --> 01:45:15,642 ‎우리 모두를 전 세계에 1673 01:45:15,726 --> 01:45:19,521 ‎연결하는 일에는 ‎어두운 대가가 따릅니다 1674 01:45:19,730 --> 01:45:23,567 ‎첨단 기술 플랫폼에 ‎그 대가를 지불하게 되죠 1675 01:45:24,026 --> 01:45:26,236 ‎제가 여기 나온 이유가 ‎그것 때문입니다 1676 01:45:26,320 --> 01:45:31,283 ‎실리콘 밸리를 주름잡는 ‎여러분들에게 말씀드리려고요 1677 01:45:35,412 --> 01:45:36,997 ‎마크 저커버그 1678 01:45:38,457 --> 01:45:40,208 ‎셰릴 샌드버그 1679 01:45:40,292 --> 01:45:43,337 ‎래리 페이지, 세르게이 브린 1680 01:45:43,420 --> 01:45:44,671 ‎잭 도시 1681 01:45:46,548 --> 01:45:49,301 ‎여러분들은 사람들을 ‎연결하는 일을 했기 때문에 1682 01:45:49,968 --> 01:45:51,928 ‎이 같은 기술이 이제는 ‎사람들을 갈라 놓고 있다는 1683 01:45:52,012 --> 01:45:55,682 ‎사실을 받아들이지 ‎않으려고 합니다 1684 01:45:56,933 --> 01:45:59,644 ‎여러분들이 잘 모르고 있는 것은 1685 01:45:59,728 --> 01:46:03,523 ‎이 사실이 당신보다, 우리 중 ‎누구보다도 중요하다는 거예요 1686 01:46:03,607 --> 01:46:06,068 ‎이건 좌파냐 우파냐 1687 01:46:06,151 --> 01:46:08,779 ‎트럼프든 누구든 ‎지지하냐 마냐의 문제가 아니죠 1688 01:46:09,529 --> 01:46:11,448 ‎이것은 자유롭고 공정한 선거가 1689 01:46:11,531 --> 01:46:14,034 ‎다시 가능할 것인가에 대한 ‎문제입니다 1690 01:46:14,368 --> 01:46:18,038 ‎그래서 이런 질문을 드리는 겁니다 ‎이게 여러분이 원하는 건가요? 1691 01:46:19,456 --> 01:46:22,209 ‎이렇게 역사에 ‎기억되고 싶으신가요? 1692 01:46:23,293 --> 01:46:26,922 ‎권위주의의 시녀로요 1693 01:46:27,672 --> 01:46:31,510 ‎여러분 모두에게 질문할게요 ‎이런 걸 원하세요? 1694 01:46:31,968 --> 01:46:35,972 ‎이런 어두운 시기에 물러나 앉아 ‎휴대폰으로 노는 것을요 1695 01:46:41,937 --> 01:46:44,272 ‎지금 페이스북에 ‎로그인 돼 있는 사람? 1696 01:46:46,274 --> 01:46:47,359 ‎거의 다네요 1697 01:46:49,111 --> 01:46:50,779 ‎우리는 개인이라서 1698 01:46:50,862 --> 01:46:55,700 ‎데이터의 홍수를 제한해도 ‎가는 곳마다 데이터를 흘리게 되죠 1699 01:46:55,784 --> 01:46:59,621 ‎하지만 여기엔 해결책이 없어요 ‎차단할 방법이 없죠 1700 01:46:59,704 --> 01:47:02,207 ‎그래서 데이터가 삶에 어떤 영향을 1701 01:47:03,125 --> 01:47:05,877 ‎미치는지 알아둬야 해요 1702 01:47:07,629 --> 01:47:10,841 ‎인간으로서 우리의 존엄성은 ‎위태로운 지경입니다 1703 01:47:20,434 --> 01:47:22,602 ‎하지만 제일 힘든 부분은 1704 01:47:25,981 --> 01:47:27,941 ‎이런 끔찍한 잔해나 1705 01:47:29,317 --> 01:47:31,069 ‎심각한 분열이 1706 01:47:34,239 --> 01:47:37,742 ‎어느 한 개인을 한 명씩 ‎조종하면서부터 시작된다는 거죠 1707 01:47:39,536 --> 01:47:40,704 ‎한 명 다음에 또 한 명 1708 01:47:42,330 --> 01:47:43,415 ‎그다음에 또 한 명 1709 01:47:48,003 --> 01:47:50,380 ‎그래서 전 자문할 수밖에 없습니다 1710 01:47:52,257 --> 01:47:53,884 ‎제가 조종당할 수 있을까요? 1711 01:47:57,637 --> 01:47:58,638 ‎여러분들은요? 1712 01:48:07,189 --> 01:48:09,649 ‎"도널드 트럼프의 ‎2016년 디지털 캠페인 책임자는" 1713 01:48:09,733 --> 01:48:12,194 ‎"페이스북에서 590만 개의 ‎시각 광고를 운영했다고 주장하며" 1714 01:48:12,277 --> 01:48:14,738 ‎"그에 반해 힐러리 클린턴의 ‎광고는 6만 6천 개였다고 말했다" 1715 01:48:14,821 --> 01:48:20,076 ‎"그는 현재 트럼프의 2020년 ‎재선을 위한 선거 운동 책임자다" 1716 01:48:20,577 --> 01:48:24,414 ‎"알렉산더 닉스는 이 영화에 ‎들어갈 인터뷰 요청을 거절했다" 1717 01:48:24,498 --> 01:48:28,335 ‎"그는 성명을 통해 적법하게 ‎허가받은 페이스북 데이터를" 1718 01:48:28,418 --> 01:48:31,463 ‎"업무 제안차 리브닷EU에 ‎보내기만 했다고 말했으며" 1719 01:48:31,546 --> 01:48:33,340 ‎"법적 책임을 회피하기 위해" 1720 01:48:33,423 --> 01:48:36,176 ‎"청산 절차를 ‎이용하지는 않았다고 했다" 1721 01:48:36,510 --> 01:48:39,513 ‎"트리니다드 토바고의 수상 ‎캄라 퍼사드비세사는" 1722 01:48:39,596 --> 01:48:41,973 ‎"케임브리지 애널리티카의 도움을 ‎받은 적이 없다고 부인한다" 1723 01:48:42,057 --> 01:48:44,434 ‎"이 주장은 당국에 의해 ‎조사 중이다" 1724 01:48:44,643 --> 01:48:46,436 ‎"캐럴 캐드월러드는 계속해서" 1725 01:48:46,520 --> 01:48:48,730 ‎"민주주의를 위협하는 것에 대한 ‎기사를 쓰고 있으며" 1726 01:48:48,813 --> 01:48:52,901 ‎"뉴욕타임스에 실린 기사로 ‎퓰리처상 최종 후보에 올랐다" 1727 01:48:53,235 --> 01:48:57,364 ‎"데이비드 캐럴은 ‎학생들을 가르치면서" 1728 01:48:57,447 --> 01:49:01,576 ‎"데이터권이 새로운 인권으로 ‎인정받도록 노력하고 있다" 1729 01:49:01,952 --> 01:49:04,704 ‎"브리트니 카이저는 데이터권을 ‎공개적으로 지지하면서" 1730 01:49:04,788 --> 01:49:06,373 ‎"전문가 증언을 제공하고 있으며" 1731 01:49:06,456 --> 01:49:09,209 ‎"자신의  '#오운유어데이터' ‎운동을 통해 입법부와 협업한다" 1732 01:49:09,417 --> 01:49:12,003 ‎"브리트니가 제공한 ‎중요한 증거는" 1733 01:49:12,170 --> 01:49:15,882 ‎"브렉시트와 페이스북 ‎정보 보호법에 관한 논의를" 1734 01:49:15,966 --> 01:49:18,218 ‎"변화시키는 데 도움을 주었다" 1735 01:53:15,413 --> 01:53:17,749 ‎자막: 권오윤