1
00:00:02,000 --> 00:00:07,000
Downloaded from
YTS.MX
2
00:00:08,000 --> 00:00:13,000
Official YIFY movies site:
YTS.MX
3
00:00:19,978 --> 00:00:24,774
„Nic obrovského do života smrtelníků
nevstoupí bez prokletí.“
4
00:00:24,858 --> 00:00:27,861
SOFOKLÉS
5
00:00:31,156 --> 00:00:34,409
Jo, proč si nesednete?
Posaďte se a udělejte si pohodlí.
6
00:00:37,579 --> 00:00:39,039
- V pořádku? Dobře.
- Jo.
7
00:00:43,043 --> 00:00:44,419
První klapka.
8
00:00:46,880 --> 00:00:48,590
Chcete se na úvod představit?
9
00:00:50,467 --> 00:00:53,344
Ahoj, světe. Bailey. Potřetí.
10
00:00:53,970 --> 00:00:56,097
- V pohodě?
- Tohle je nejhorší část.
11
00:00:57,474 --> 00:00:58,433
Nelíbí se mi to.
12
00:00:59,851 --> 00:01:02,228
Pracoval jsem pro Facebook
v letech 2011 a 2012.
13
00:01:02,312 --> 00:01:05,190
Byla jsem
mezi prvními zaměstnanci Instagramu.
14
00:01:05,273 --> 00:01:08,693
Pracoval jsem pro Google, YouTube.
15
00:01:08,777 --> 00:01:11,696
Apple, Google, Twitter, Palm.
16
00:01:12,739 --> 00:01:15,533
Pomohl jsem založit Mozilla Labs,
pak jsem šel k Firefoxu.
17
00:01:15,617 --> 00:01:18,661
Točíme? Všichni… Super.
18
00:01:21,206 --> 00:01:26,169
Pracoval jsem pro Twitter. Byl jsem
starším viceprezidentem inženýrství.
19
00:01:27,378 --> 00:01:29,297
Byl jsem prezidentem Pinterestu.
20
00:01:29,380 --> 00:01:34,260
Předtím jsem byl
pět let ředitelem monetizace ve Facebooku.
21
00:01:34,344 --> 00:01:37,972
Na Twitteru jsem několik let
vedl vývojářskou platformu,
22
00:01:38,056 --> 00:01:40,225
pak jsem byl
vedoucím spotřebních produktů.
23
00:01:40,308 --> 00:01:44,104
Byl jsem spoluautorem
Disku Google, Gmail chatu,
24
00:01:44,187 --> 00:01:46,981
stránek na Facebooku
a tlačítka „To se mi líbí“.
25
00:01:47,440 --> 00:01:52,779
Jo. Kvůli tomuhle
jsem osm měsíců mluvil s právníky.
26
00:01:54,114 --> 00:01:55,406
Tohle mě děsí.
27
00:01:58,409 --> 00:02:02,914
Když jsem tam byl, vždy jsem měl pocit,
že to bylo v zásadě prospěšné.
28
00:02:03,498 --> 00:02:05,375
Nevím, zda ten pocit pořád mám.
29
00:02:05,458 --> 00:02:10,588
Google jsem opustil v červnu 2017
kvůli etickým obavám.
30
00:02:10,672 --> 00:02:14,134
A nejen v rámci Googlu,
ale v našem průmyslu celkově.
31
00:02:14,217 --> 00:02:15,385
Mám velké obavy.
32
00:02:16,845 --> 00:02:17,679
Velké obavy.
33
00:02:19,097 --> 00:02:21,808
Dnes je snadné zapomenout,
34
00:02:21,891 --> 00:02:27,814
že tyto nástroje
ve světě vytvořily úžasné věci.
35
00:02:27,897 --> 00:02:31,943
Sjednotily rodiny, našly dárce orgánů.
36
00:02:32,026 --> 00:02:38,950
V celém světě se díky těmto platformám
děly smysluplné systémové změny,
37
00:02:39,033 --> 00:02:40,285
které byly pozitivní.
38
00:02:40,827 --> 00:02:44,539
Myslím, že když šlo o druhou stranu mince,
byli jsme naivní.
39
00:02:45,540 --> 00:02:48,668
Tyto věci vypustíte
a ony začnou žít vlastním životem.
40
00:02:48,751 --> 00:02:52,005
A to, jak se používají,
se liší od toho, co jste čekali.
41
00:02:52,088 --> 00:02:56,509
Pevně věřím, že žádné z těchto následků
nikdo nezamýšlel.
42
00:02:56,593 --> 00:02:59,554
Neexistuje jeden konkrétní zloduch.
Vůbec ne.
43
00:03:01,681 --> 00:03:03,600
Tak v čem je problém?
44
00:03:09,230 --> 00:03:11,232
Existuje nějaký problém? Co je to?
45
00:03:18,406 --> 00:03:22,118
Je těžké říct jeden výstižný…
Snažím se zmínit mnoho problémů.
46
00:03:22,577 --> 00:03:23,578
V čem je problém?
47
00:03:28,208 --> 00:03:32,253
PŮVODNÍ DOKUMENT NETFLIX
48
00:03:33,588 --> 00:03:37,634
Navzdory sílící kritice
takzvaní technologičtí giganti rostou.
49
00:03:37,717 --> 00:03:40,929
Celý technologický průmysl
je pod pečlivějším dohledem.
50
00:03:41,012 --> 00:03:42,680
A nová studie objasňuje
51
00:03:42,764 --> 00:03:46,142
vztah mezi duševním zdravím
a používáním sociálních médií.
52
00:03:46,226 --> 00:03:48,478
O nejnovějším výzkumu si promluvíme s…
53
00:03:49,187 --> 00:03:51,314
…se děje a vůbec se o tom nemluví.
54
00:03:51,397 --> 00:03:54,234
Desítky milionů Američanů
je beznadějně závislých
55
00:03:54,317 --> 00:03:56,319
na elektronických zařízeních.
56
00:03:56,402 --> 00:03:58,947
Horší se to,
protože se teď můžete izolovat…
57
00:03:59,030 --> 00:04:00,698
PŘÍTEL VÁS OZNAČIL NA FOTCE
58
00:04:00,782 --> 00:04:02,742
…a žít v bublině díky technologii.
59
00:04:02,825 --> 00:04:06,788
Falešné zprávy začínají být
propracovanější a ohrožují celý svět.
60
00:04:06,871 --> 00:04:10,333
Když jsme před 12 lety vytvořili Twitter,
toto jsme nečekali.
61
00:04:10,416 --> 00:04:14,754
Úřady prý nemají důvod se domnívat,
že ruské kybernetické útoky přestanou.
62
00:04:14,837 --> 00:04:18,132
YouTube byl donucen k pročištění stránky.
63
00:04:18,216 --> 00:04:24,013
Když s mladými mluvíte o TikToku,
je vám jasné, že tu věc nesmažou…
64
00:04:24,097 --> 00:04:26,182
Islo, můžeš prostřít, prosím?
65
00:04:26,266 --> 00:04:29,936
Vážnou otázkou je, zda sociální média
u dětí způsobují depresi.
66
00:04:30,019 --> 00:04:32,105
Islo, prostřeš, prosím?
67
00:04:32,188 --> 00:04:35,316
Mezi teenagery začínají být
kosmetické zákroky tak populární,
68
00:04:35,400 --> 00:04:38,069
že plastičtí chirurgové
zavedli nový syndrom,
69
00:04:38,152 --> 00:04:41,281
snapchatová dysmorfie.
Mladí pacienti chtějí plastiku,
70
00:04:41,364 --> 00:04:43,741
aby se podobali svým upraveným selfie.
71
00:04:43,825 --> 00:04:47,537
- Nevím, proč jsi jí dovolila mít mobil.
- Co jsem měla dělat?
72
00:04:47,620 --> 00:04:49,580
Ve třídě ho mají všichni.
73
00:04:50,164 --> 00:04:51,165
Je jí jen 11.
74
00:04:51,249 --> 00:04:55,086
Cass, nikdo tě nenutí mít mobil.
Můžeš být odpojená, když chceš.
75
00:04:55,169 --> 00:04:59,340
Jsem připojená i bez mobilu, jasný?
Zrovna jsem na internetu.
76
00:04:59,424 --> 00:05:03,094
Navíc to ani není skutečný kontakt.
Je to jen spousta…
77
00:05:03,177 --> 00:05:06,556
Kapitalismus dohledu
ovlivňuje politiku a kulturu způsoby,
78
00:05:06,639 --> 00:05:08,308
které si mnozí neuvědomují.
79
00:05:08,391 --> 00:05:12,812
ISIS inspiroval své stoupence online
a to samé teď dělají bílí rasisté.
80
00:05:12,895 --> 00:05:17,442
V Indii nedávno lynčující dav z internetu
zabil tucet lidí včetně pěti…
81
00:05:17,525 --> 00:05:20,361
Nejde jen o falešné zprávy,
ale o falešné zprávy s následky.
82
00:05:20,445 --> 00:05:24,073
Jak lze zvládnout epidemii
v éře falešných zpráv?
83
00:05:24,157 --> 00:05:26,993
Nakazíte se koronavirem,
když sníte čínské jídlo?
84
00:05:27,535 --> 00:05:32,540
Z informačního věku
jsme přešli do věku dezinformací.
85
00:05:32,623 --> 00:05:34,667
Naše demokracie je terčem útoku.
86
00:05:34,751 --> 00:05:39,005
Řekl jsem: „Myslím, že nástroje,
které byly v této době vytvořeny,
87
00:05:39,088 --> 00:05:41,799
začínají narušovat fungování společnosti.“
88
00:06:00,151 --> 00:06:03,446
Aza je přivítá. Přehrajeme video.
89
00:06:04,280 --> 00:06:07,325
A pak: „Dámy a pánové, Tristan Harris.“
90
00:06:07,408 --> 00:06:08,826
- Jasně.
- Bezva.
91
00:06:08,951 --> 00:06:12,038
Takže přijdu a…
92
00:06:13,831 --> 00:06:16,042
V zásadě řeknu: „Díky, že jste tady.“
93
00:06:17,919 --> 00:06:22,048
Takže dnes chci mluvit
o nové agendě pro technologii
94
00:06:22,131 --> 00:06:25,468
a chci to udělat proto,
že pokud se lidí zeptáte,
95
00:06:25,551 --> 00:06:27,804
co je dnes s průmyslem špatně,
96
00:06:28,346 --> 00:06:31,641
ozve se kakofonie stížností a skandálů,
97
00:06:31,724 --> 00:06:36,020
slyšíte o ukradených datech a závislosti
a falešných zprávách a polarizaci
98
00:06:36,104 --> 00:06:37,688
a hacknutých volbách.
99
00:06:38,189 --> 00:06:41,609
Ale existuje
za všemi těmito problémy něco,
100
00:06:41,692 --> 00:06:44,612
co způsobuje,
že se to všechno děje najednou?
101
00:06:46,447 --> 00:06:48,199
- Je to dobrý?
- Výborný. Jo.
102
00:06:50,827 --> 00:06:55,206
Snažím se… Chci, aby lidi viděli…
V technologickém průmyslu nastal problém.
103
00:06:55,289 --> 00:07:00,211
Nemá jméno
a týká se jednoho zdroje, jednoho…
104
00:07:05,091 --> 00:07:09,387
Když se rozhlédnete kolem,
máte pocit, že svět zešílel.
105
00:07:12,765 --> 00:07:15,143
Ptáte se sami sebe: „Je tohle normální?
106
00:07:16,102 --> 00:07:18,771
Nebo nás všechny někdo očaroval?“
107
00:07:22,316 --> 00:07:27,905
BÝVALÝ ODBORNÍK NA ETIKU DESIGNU
PRO GOOGLE
108
00:07:27,989 --> 00:07:30,658
Přeju si, aby víc lidí vědělo,
jak to funguje,
109
00:07:30,741 --> 00:07:34,036
protože by to neměl vědět
jenom technologický průmysl.
110
00:07:34,120 --> 00:07:36,122
Je to něco, co by měl vědět každý.
111
00:07:47,383 --> 00:07:48,301
- Ahoj!
- Ahoj.
112
00:07:48,843 --> 00:07:50,595
- Tristan. Těší mě.
- Tristan?
113
00:07:50,678 --> 00:07:51,721
- Ano.
- Super.
114
00:07:53,181 --> 00:07:55,933
Tristan Harris byl odborníkem
na etiku designu pro Google
115
00:07:56,017 --> 00:07:59,395
a říká se o něm,
že ztělesňuje svědomí Silicon Valley.
116
00:07:59,479 --> 00:08:01,105
Žádá technologický průmysl,
117
00:08:01,189 --> 00:08:04,192
aby produktům dal
podle jeho slov „etický design“.
118
00:08:04,275 --> 00:08:06,903
Málokdy je někdo
z tohoto průmyslu tak přímý,
119
00:08:06,986 --> 00:08:10,114
ale Tristan Harris věří,
že někdo takový být musí.
120
00:08:11,324 --> 00:08:12,700
Když jsem byl u Googlu,
121
00:08:12,783 --> 00:08:15,703
byl jsem v týmu Gmail
a začal jsem cítit vyhoření,
122
00:08:16,120 --> 00:08:18,539
protože jsme vedli tolik rozhovorů o tom…
123
00:08:19,457 --> 00:08:23,169
jak by měla schránka vypadat
a jakou by měla mít barvu.
124
00:08:23,252 --> 00:08:25,880
A já jsem cítil,
že jsem na e-mailu závislý.
125
00:08:26,297 --> 00:08:27,632
A fascinovalo mě,
126
00:08:27,715 --> 00:08:31,511
že nikdo od Gmailu nepracoval na tom,
aby byl méně návykový.
127
00:08:31,928 --> 00:08:34,514
Říkal jsem si:
„Nikdo jiný o tom nepřemýšlí?
128
00:08:34,597 --> 00:08:36,390
Nikoho jsem o tom neslyšel mluvit.“
129
00:08:36,849 --> 00:08:42,772
Celý technologický průmysl mě frustroval,
protože jako bychom sešli z cesty.
130
00:08:46,817 --> 00:08:52,573
Vážně jsem se snažil vymyslet,
jak bychom to zevnitř mohli změnit.
131
00:08:55,201 --> 00:08:59,497
A tehdy jsem se rozhodl udělat prezentaci,
tak trochu volání do zbraně.
132
00:09:01,082 --> 00:09:04,585
Chodil jsem domů a každou noc
jsem na ní pár hodin pracoval.
133
00:09:06,170 --> 00:09:11,884
V podstatě byla jen o tom,
že dosud nikdy nedělalo 50 designérů,
134
00:09:12,426 --> 00:09:15,388
bílých chlapů ve věku od 20 do 35 let
v Kalifornii,
135
00:09:15,888 --> 00:09:19,725
rozhodnutí, která by měla dopad
na dvě miliardy lidí.
136
00:09:20,935 --> 00:09:24,438
Dvě miliardy lidí budou mít myšlenky,
které mít neplánovali,
137
00:09:24,522 --> 00:09:28,401
protože designér v Googlu řekl:
„Takhle budou fungovat upozornění
138
00:09:28,484 --> 00:09:30,778
na obrazovce,
na kterou se po probuzení díváte.“
139
00:09:31,195 --> 00:09:35,283
A my jako Google máme morální zodpovědnost
tento problém vyřešit.
140
00:09:36,200 --> 00:09:41,789
Tu prezentaci jsem poslal svým 15 nebo 20
nejbližším kolegům v Googlu.
141
00:09:41,872 --> 00:09:44,667
Byl jsem nervózní.
Nevěděl jsem, jak ji přijmou.
142
00:09:46,460 --> 00:09:50,715
Když jsem druhý den přišel do práce,
byla otevřená ve většině notebooků.
143
00:09:52,133 --> 00:09:56,053
Později v ten den se na ni zároveň dívalo
400 lidí, takže to pořád rostlo.
144
00:09:56,137 --> 00:10:00,266
Přišly mi maily z celé společnosti.
Lidi ze všech odděleních říkali:
145
00:10:00,349 --> 00:10:02,852
„Naprosto souhlasím, ovlivňuje to mé děti,
146
00:10:02,935 --> 00:10:06,439
ovlivňuje to lidi v mém okolí.
Musíme s tím něco udělat.
147
00:10:07,481 --> 00:10:10,276
Zdálo se mi,
že spouštím revoluci nebo tak něco.
148
00:10:11,861 --> 00:10:15,531
Později jsem zjistil,
že Larry Page byl o prezentaci informován
149
00:10:15,615 --> 00:10:16,741
na třech schůzkách.
150
00:10:17,950 --> 00:10:20,286
Vytvořilo to jistý kulturní moment,
151
00:10:20,870 --> 00:10:23,039
který Google potřeboval brát vážně.
152
00:10:26,000 --> 00:10:26,876
A pak…
153
00:10:28,377 --> 00:10:29,211
nic.
154
00:10:34,300 --> 00:10:36,135
V roce 2006 každý…
155
00:10:37,219 --> 00:10:38,929
včetně nás všech z Facebooku,
156
00:10:39,180 --> 00:10:43,392
nesmírně obdivoval Google a to,
co Google vybudoval,
157
00:10:43,476 --> 00:10:47,146
což byla neuvěřitelně užitečná služba,
158
00:10:47,438 --> 00:10:51,233
která, podle toho, co jsme viděli,
ve světě konala spoustu dobra.
159
00:10:51,567 --> 00:10:54,695
A současně vybudovali stroj na peníze.
160
00:10:55,404 --> 00:10:59,950
Moc jsme jim to záviděli,
připadalo nám to tak elegantní…
161
00:11:00,868 --> 00:11:02,078
a dokonalé.
162
00:11:02,953 --> 00:11:04,830
Facebook existoval asi dva roky
163
00:11:05,873 --> 00:11:10,586
a mě najali, abych pro společnost
vymyslel obchodní model.
164
00:11:10,670 --> 00:11:12,463
Byl jsem ředitelem monetizace.
165
00:11:12,546 --> 00:11:16,759
Šlo o to, že jsem byl člověkem,
který měl vymyslet, jak tu věc zpeněžit.
166
00:11:17,134 --> 00:11:19,804
A spousta lidí tam dělala spoustu práce,
167
00:11:19,887 --> 00:11:25,476
ale já jsem byl jednoznačně jedním z těch,
kteří ukazovali na…
168
00:11:26,769 --> 00:11:28,562
zaprvé, musíme vydělat peníze…
169
00:11:29,313 --> 00:11:33,651
a myslím, že tento model inzerce
je asi nejelegantnějším řešením.
170
00:11:43,077 --> 00:11:46,622
- Jaké video nám máma poslala?
- Je z talkshow, ale je dobré.
171
00:11:46,706 --> 00:11:50,668
Ten chlap je génius. Mluví o smazání
sociálních médií, což musíš udělat.
172
00:11:50,751 --> 00:11:52,795
Asi si maily od ní zablokuju.
173
00:11:52,878 --> 00:11:55,923
Vážně, ani nevím, o čem mluví.
Je horší než já.
174
00:11:56,006 --> 00:11:58,509
- Ne, používá to jen na recepty.
- A práci.
175
00:11:58,592 --> 00:12:00,803
- A cvičení.
- A aby nás kontrolovala.
176
00:12:00,886 --> 00:12:02,555
A každého, koho kdy potkala.
177
00:12:04,932 --> 00:12:07,893
Pokud procházíte sociální média,
178
00:12:07,977 --> 00:12:11,731
zatímco nás sledujete,
odložte ten telefon a poslouchejte.
179
00:12:11,814 --> 00:12:15,317
Protože náš další host
napsal neuvěřitelnou knihu o tom,
180
00:12:15,401 --> 00:12:19,447
jak moc nám to ničí životy.
Prosím, přivítejte autora knihy
181
00:12:19,530 --> 00:12:24,452
Ten Arguments For Deleting
Your Social Media Accounts Right Now,
182
00:12:24,535 --> 00:12:25,786
Jarona Laniera.
183
00:12:27,997 --> 00:12:31,834
Společnosti jako Google a Facebook
jsou jedny z nejbohatších
184
00:12:31,917 --> 00:12:33,753
a nejúspěšnějších firem vůbec.
185
00:12:34,295 --> 00:12:36,589
Mají poměrně málo zaměstnanců.
186
00:12:36,922 --> 00:12:40,468
Mají jen obrovský počítač,
který shrabává peníze, že jo?
187
00:12:41,510 --> 00:12:45,222
Za co dostávají zaplaceno?
To je velmi důležitá otázka.
188
00:12:47,308 --> 00:12:49,977
Do technologií investuji už 35 let.
189
00:12:50,978 --> 00:12:54,356
Během prvních 50 let Silicon Valley
vyráběl průmysl produkty,
190
00:12:54,440 --> 00:12:55,691
hardware, software,
191
00:12:55,775 --> 00:12:58,402
prodával je zákazníkům,
jednoduchý obchod.
192
00:12:58,486 --> 00:13:01,864
Posledních deset let
největší společnosti v Silicon Valley
193
00:13:01,947 --> 00:13:03,866
prodávají své zákazníky.
194
00:13:03,949 --> 00:13:05,910
Už je to dokonce trochu otřepané,
195
00:13:05,993 --> 00:13:09,205
ale protože za produkty,
které používáme, neplatíme,
196
00:13:09,288 --> 00:13:12,166
platí za ně zadavatelé reklamy.
197
00:13:12,249 --> 00:13:16,086
Zadavatelé reklamy jsou zákazníky.
My jsme to, co se prodává.
198
00:13:16,170 --> 00:13:17,630
Jedno známé rčení zní:
199
00:13:17,713 --> 00:13:21,467
„Pokud za produkt neplatíte,
produktem jste vy.“
200
00:13:23,385 --> 00:13:27,097
Spousta lidí si myslí,
že Google je jen vyhledávač,
201
00:13:27,181 --> 00:13:31,101
na Facebooku se jen díváme,
co dělají přátelé, vidíme jejich fotky.
202
00:13:31,185 --> 00:13:35,397
Ale neuvědomují si,
že je to soutěž o naši pozornost.
203
00:13:36,524 --> 00:13:41,070
Takže Facebook, Snapchat, Twitter,
Instagram, YouTube,
204
00:13:41,153 --> 00:13:45,449
obchodní model takovýchto firem
je o udržení pozornosti lidí na obrazovce.
205
00:13:46,283 --> 00:13:47,451
Pojďme vymyslet,
206
00:13:47,535 --> 00:13:50,955
jak získat co největší množství
pozornosti této osoby.
207
00:13:51,455 --> 00:13:53,541
Kolik času vás přinutíme tu strávit?
208
00:13:53,874 --> 00:13:56,669
Kolik z vašeho života
vás přinutíme nám dát?
209
00:13:58,712 --> 00:14:02,258
Když uvážíte fungování
některých těchto firem, dává to smysl.
210
00:14:03,050 --> 00:14:06,095
O spoustě služeb si myslíme,
že jsou zadarmo.
211
00:14:06,178 --> 00:14:09,473
Ale nejsou zadarmo.
Financují je zadavatelé reklamy.
212
00:14:09,557 --> 00:14:11,559
Proč těmto společnostem platí?
213
00:14:11,642 --> 00:14:14,687
Platí za to, že nám ukážou své reklamy.
214
00:14:14,770 --> 00:14:18,357
Jsme produkt. Naše pozornost
se jako produkt prodává inzerentům.
215
00:14:18,899 --> 00:14:20,442
To je příliš zjednodušené.
216
00:14:20,526 --> 00:14:23,654
Produktem je postupná
mírná a nepatrná změna
217
00:14:23,737 --> 00:14:26,115
ve vašem chování a vnímáni.
218
00:14:27,658 --> 00:14:30,244
To je produkt.
Je to jediný možný produkt.
219
00:14:30,327 --> 00:14:33,455
Neexistuje nic jiného,
co by se produktem dalo nazvat.
220
00:14:34,206 --> 00:14:37,251
To je to jediné, na čem můžou vydělávat.
221
00:14:37,668 --> 00:14:39,003
Změní to, co děláte,
222
00:14:39,336 --> 00:14:41,714
jak myslíte, kým jste.
223
00:14:42,631 --> 00:14:45,009
Je to postupná změna. Je nepatrná.
224
00:14:45,384 --> 00:14:49,096
Když za někým přijdete a řeknete:
„Dejte mi deset milionů dolarů
225
00:14:49,179 --> 00:14:54,310
a já posunu svět o jedno procento
blíž k tomu, jak chcete, aby vypadal…“
226
00:14:54,894 --> 00:14:58,188
Jde o svět!
Je to neuvěřitelné a má to velkou hodnotu.
227
00:14:59,315 --> 00:15:00,149
Dobře.
228
00:15:00,691 --> 00:15:04,111
O tomhle vždy snil každý obchodník.
229
00:15:04,653 --> 00:15:10,910
Mít jistotu,
že když zadá reklamu, bude úspěšná.
230
00:15:11,327 --> 00:15:14,413
S tím obchodují. Prodávají jistotu.
231
00:15:14,997 --> 00:15:19,710
Abyste v tomto obchodě uspěli,
musíte mít skvělé předpovědi.
232
00:15:20,085 --> 00:15:24,173
Ke skvělým předpovědím
musíte mít jednu nezbytnost.
233
00:15:25,215 --> 00:15:26,675
Potřebujete spoustu dat.
234
00:15:29,136 --> 00:15:31,555
Mnoho lidí tomu říká kapitalismus dohledu.
235
00:15:31,639 --> 00:15:34,350
Kapitalismus,
jenž těží z nekonečného sledování
236
00:15:34,433 --> 00:15:38,062
pohybu lidí
velkými technologickými společnostmi,
237
00:15:38,145 --> 00:15:42,858
jejichž obchodní model spočívá v tom,
že zajišťují co největší úspěch inzerentů.
238
00:15:42,942 --> 00:15:45,569
Tohle je nový druh trhu.
239
00:15:45,653 --> 00:15:48,072
Je to trh, jaký dosud nikdy neexistoval.
240
00:15:48,822 --> 00:15:55,371
A je to trh, který obchoduje
výhradně s lidskými termínovými kontrakty.
241
00:15:56,080 --> 00:15:57,414
Stejně jako na trzích,
242
00:15:57,498 --> 00:16:01,585
které obchodují s termínovými kontrakty
týkajícími se bůčku nebo ropy.
243
00:16:02,127 --> 00:16:07,257
Teď máme trhy, které ve velkém obchodují
s lidskými termínovými kontrakty.
244
00:16:08,175 --> 00:16:13,472
A tyto trhy vydělaly biliony dolarů,
245
00:16:14,014 --> 00:16:17,309
které učinily z internetových společností
246
00:16:17,393 --> 00:16:22,231
nejbohatší společnosti v dějinách lidstva.
247
00:16:27,444 --> 00:16:31,073
Chci, aby lidé věděli,
že všechno, co dělají online,
248
00:16:31,156 --> 00:16:34,243
je sledováno a měřeno.
249
00:16:35,035 --> 00:16:39,623
Každý váš čin
je pozorně monitorován a zaznamenán.
250
00:16:39,707 --> 00:16:43,836
Přesně na který obrázek se zadíváte,
jak dlouho se na něj díváte.
251
00:16:43,919 --> 00:16:45,796
Vážně, jak dlouho se díváte.
252
00:16:45,879 --> 00:16:50,426
DÉLKA INTERAKCE
253
00:16:50,509 --> 00:16:53,804
Vědí, kdy jsou lidé osamělí,
kdy mají depresi.
254
00:16:53,887 --> 00:16:57,099
Kdy se dívají na fotky
bývalých romantických partnerů.
255
00:16:57,182 --> 00:16:59,977
Vědí, co děláte pozdě v noci, vědí vše.
256
00:17:01,270 --> 00:17:03,355
Zda jste introvert, nebo extrovert,
257
00:17:03,439 --> 00:17:06,400
jaké máte neurózy,
jaký máte typ osobnosti.
258
00:17:08,193 --> 00:17:11,572
Mají o nás víc informací,
259
00:17:11,655 --> 00:17:14,324
než jsme si kdy v dějinách
dovedli představit.
260
00:17:14,950 --> 00:17:16,368
Je to neslýchané.
261
00:17:18,579 --> 00:17:22,499
Všechna ta data, která pořád chrlíme,
262
00:17:22,916 --> 00:17:26,754
jdou do systémů, které skoro vůbec nejsou
pod lidským dohledem
263
00:17:27,463 --> 00:17:30,466
a které dělají
pořád lepší a lepší předpovědi toho,
264
00:17:31,008 --> 00:17:33,135
co uděláme a kým jsme.
265
00:17:34,887 --> 00:17:36,221
DOPORUČENO PRO VÁS
266
00:17:36,305 --> 00:17:39,433
Mnoho lidí si mylně myslí,
že se prodávají naše data.
267
00:17:40,350 --> 00:17:43,187
Vzdát se dat
není v obchodním zájmu Facebooku.
268
00:17:45,522 --> 00:17:46,857
Co s těmi daty dělají?
269
00:17:51,070 --> 00:17:54,490
Vytvářejí modely,
které předpovídají naše činy.
270
00:17:54,573 --> 00:17:57,618
A ten, kdo má nejlepší model, vyhrává.
271
00:18:02,706 --> 00:18:03,874
Scrolluje pomaleji.
272
00:18:03,957 --> 00:18:07,002
Blíží se konec
průměrné délky používání, ubírám z reklam.
273
00:18:07,086 --> 00:18:08,337
Stáhni přátele a rodinu.
274
00:18:09,671 --> 00:18:15,469
Jako by na druhé straně obrazovky
měli náš model podobný panence voodoo.
275
00:18:16,804 --> 00:18:19,473
Vše, co jsme kdy udělali,
na co jsme klikli,
276
00:18:19,556 --> 00:18:21,642
videa, která jsme viděli, každý like,
277
00:18:21,725 --> 00:18:25,354
z toho všeho se sestavuje
pořád přesnější model.
278
00:18:25,896 --> 00:18:29,858
Když ten model máte,
můžete předvídat, co ten člověk udělá.
279
00:18:29,942 --> 00:18:31,777
Dobře, nechte mě to otestovat.
280
00:18:32,569 --> 00:18:33,487
Kam půjdete,
281
00:18:33,570 --> 00:18:36,115
můžu předvídat,
jaká videa budete sledovat.
282
00:18:36,198 --> 00:18:39,159
Umím předvídat,
které emoce jsou pro vás spouštěči.
283
00:18:39,243 --> 00:18:40,327
Ano, perfektní.
284
00:18:41,578 --> 00:18:42,788
Největší faily roku.
285
00:18:43,747 --> 00:18:44,665
EPICKÝ FAILY!
286
00:18:48,627 --> 00:18:51,130
- Super, vyšlo to.
- Následuje další video.
287
00:18:51,213 --> 00:18:54,174
Nádhera. Než začne,
vložíme tam reklamu na tenisky.
288
00:18:56,510 --> 00:18:59,721
Mnoho technologických společností
má tři hlavní cíle.
289
00:18:59,805 --> 00:19:03,517
Cíl vysoké interakce,
abyste nepřestali scrollovat.
290
00:19:04,601 --> 00:19:06,145
Dalším cílem je růst,
291
00:19:06,228 --> 00:19:10,440
abyste se pořád vraceli a pozvali přátele
a aby oni pozvali své přátele.
292
00:19:11,650 --> 00:19:14,987
A pak je reklamní cíl,
abychom během toho všeho
293
00:19:15,070 --> 00:19:17,406
vydělali co nejvíc peněz na reklamách.
294
00:19:19,324 --> 00:19:21,994
Každý z těchto cílů
je založen na algoritmech,
295
00:19:22,077 --> 00:19:25,747
jejichž úkolem je zjistit, co vám ukázat,
aby čísla dál rostla.
296
00:19:26,623 --> 00:19:29,918
Ve Facebooku
jsme často mluvili o myšlence,
297
00:19:30,002 --> 00:19:34,006
že to dokážeme ovládat podle potřeby.
298
00:19:34,673 --> 00:19:38,594
A mluvili jsme o tom,
že Mark by měl ovládače.
299
00:19:41,305 --> 00:19:44,474
„Hej, dnes chci víc uživatelů z Korey.“
300
00:19:45,684 --> 00:19:46,643
Použiju ovládač.
301
00:19:47,436 --> 00:19:48,854
„Přidáme trochu reklam.“
302
00:19:49,980 --> 00:19:51,648
„Trochu zvýšíme monetizaci.“
303
00:19:52,858 --> 00:19:55,360
Takže tohle…
304
00:19:55,444 --> 00:19:59,239
Ve všech těchto společnostech
je tato úroveň přesnosti.
305
00:19:59,990 --> 00:20:02,409
- Jak…
- Nevím, proč jsem nedostal kartu.
306
00:20:02,492 --> 00:20:05,704
- Rozhodčí byl mizernej.
- Doslova ses dostal až…
307
00:20:05,787 --> 00:20:07,956
- To je Rebecca. Běž za ní.
- Vím, kdo to je.
308
00:20:08,040 --> 00:20:10,834
- Kámo, běž si s ní promluvit.
- Dělám na tom.
309
00:20:10,918 --> 00:20:14,338
Podle jeho kalendáře má přestávku.
Měli bychom být aktivní.
310
00:20:15,255 --> 00:20:16,465
Mám ho postrčit?
311
00:20:17,174 --> 00:20:18,050
Jo, do toho.
312
00:20:21,637 --> 00:20:24,181
„Váš přítel Tyler se připojil.
Zamávejte mu.“
313
00:20:26,016 --> 00:20:26,850
No tak.
314
00:20:27,267 --> 00:20:28,644
Zamávej mu.
315
00:20:29,394 --> 00:20:31,647
To ani… Běž s ní promluvit.
316
00:20:31,730 --> 00:20:34,900
VÁŠ PŘÍTEL TYLER SE PRÁVĚ PŘIPOJIL!
ZAMÁVEJTE MU!
317
00:20:38,070 --> 00:20:40,447
Nové spojení! Dobře, jdeme na to.
318
00:20:40,948 --> 00:20:46,078
Následuje příspěvek
od uživatele 079044238820, Rebeccy.
319
00:20:46,161 --> 00:20:49,831
Dobrý nápad. GPS souřadnice ukazují,
že jsou v těsné blízkosti.
320
00:20:55,921 --> 00:20:57,130
Je zralý na reklamu.
321
00:20:57,631 --> 00:20:58,632
Čas na aukci.
322
00:20:58,715 --> 00:21:00,050
NÁHLED
VOSK NA VLASY
323
00:21:00,133 --> 00:21:02,803
Prodáno! Vosku na vlasy Deep Fade.
324
00:21:03,387 --> 00:21:07,933
Měli jsme 476 zájemců.
Prodali jsme Bena za 3,262 centů.
325
00:21:17,109 --> 00:21:21,530
Vytvořili jsme svět, ve kterém
se online spojení stalo primárním,
326
00:21:22,072 --> 00:21:23,907
hlavně pro mladší generace,
327
00:21:23,991 --> 00:21:28,328
a přesto, kdykoli se dva lidi spojí,
328
00:21:29,204 --> 00:21:35,627
financuje to úskočná třetí osoba,
aby mohla tyto dva lidi manipulovat.
329
00:21:36,128 --> 00:21:39,381
Takže jsme vytvořili
celou globální generaci lidí,
330
00:21:39,464 --> 00:21:44,011
kteří vyrůstají v kontextu,
ve kterém je samotný smysl komunikace
331
00:21:44,094 --> 00:21:47,431
a smysl kultury založen na manipulaci.
332
00:21:47,514 --> 00:21:52,311
Podvod a úskočnost jsme dali
úplně do středu všeho, co děláme.
333
00:21:56,648 --> 00:22:03,613
„Každá dostatečně pokročilá technologie
je k nerozeznání od magie.“
334
00:22:05,699 --> 00:22:07,200
- Chytni tu další…
- Fajn.
335
00:22:07,284 --> 00:22:09,411
- Kde je lepší to držet?
- To je dobrý.
336
00:22:09,494 --> 00:22:10,620
- Tady?
- Jo.
337
00:22:10,704 --> 00:22:13,707
Jak to vypadá na kameře, když udělám…
338
00:22:13,790 --> 00:22:15,334
- Vlastně můžeme…
- Takhle?
339
00:22:15,625 --> 00:22:16,835
- Cože?
- Jo.
340
00:22:16,918 --> 00:22:18,545
- Udělej to znovu?
- Přesně.
341
00:22:19,421 --> 00:22:21,715
Nejspíš to není… Jo.
342
00:22:22,507 --> 00:22:23,800
Tenhle je míň…
343
00:22:31,016 --> 00:22:32,434
Chris tady fakt šílí.
344
00:22:34,728 --> 00:22:35,562
Dobrý?
345
00:22:37,856 --> 00:22:41,068
Bylo mi asi pět,
když jsem se naučil kouzlit.
346
00:22:41,151 --> 00:22:45,781
A dovedl jsem oklamat dospělé s doktoráty.
347
00:22:55,040 --> 00:22:57,709
Kouzelníci byli
skoro jako první neurovědci
348
00:22:57,793 --> 00:22:58,960
a psychologové.
349
00:22:59,044 --> 00:23:03,382
Jako první pochopili,
jak funguje lidská mysl.
350
00:23:04,716 --> 00:23:07,386
V reálném čase na lidech
testují spoustu věcí.
351
00:23:09,137 --> 00:23:11,139
Kouzelník rozumí něčemu,
352
00:23:11,223 --> 00:23:14,101
nějaké část vaší mysli,
kterou si neuvědomujete.
353
00:23:14,184 --> 00:23:15,685
Proto ta iluze funguje.
354
00:23:16,019 --> 00:23:20,232
Lékaři, právníci, lidé,
kteří stavějí letadla či jaderné rakety,
355
00:23:20,690 --> 00:23:24,361
nevědí víc o tom,
jak je jejich mysl zranitelná.
356
00:23:24,444 --> 00:23:26,113
Je to samostatná disciplína.
357
00:23:26,571 --> 00:23:28,990
Disciplína, která se týká všech lidí.
358
00:23:30,992 --> 00:23:34,079
Z tohoto úhlu pohledu
úplně jinak chápete to,
359
00:23:34,162 --> 00:23:35,372
co technologie dělá.
360
00:23:36,873 --> 00:23:40,710
Ve stanfordské laboratoři
persuasivní technologie nás učili toto.
361
00:23:41,628 --> 00:23:45,882
Jak můžeme využít všeho, co víme
o psychologii toho, co lidi přesvědčí,
362
00:23:45,966 --> 00:23:48,385
a zapracovat to do technologie?
363
00:23:48,468 --> 00:23:50,887
Mnozí z vás v publiku jsou géniové.
364
00:23:50,971 --> 00:23:55,851
Ale mým úkolem je udělat z vás
geniální experty na změny chování.
365
00:23:56,852 --> 00:24:01,148
Mnoho významných osobností
ze Silicon Valley ten kurz absolvovalo.
366
00:24:01,231 --> 00:24:05,485
Klíčové osobnosti z Facebooku a Uberu
a dalších společností.
367
00:24:05,569 --> 00:24:09,197
Naučili se tam,
jak udělat technologii přesvědčivější.
368
00:24:09,614 --> 00:24:10,866
Tristan patří k nim.
369
00:24:12,284 --> 00:24:16,580
Persuasivní technologie je design,
který je záměrně aplikován do extrému,
370
00:24:16,663 --> 00:24:18,999
když vážně chceme upravit něčí chování.
371
00:24:19,082 --> 00:24:23,336
Chceme, aby někdo udělal tohle,
aby prstem pořád dělal toto.
372
00:24:23,420 --> 00:24:26,256
Když obnovíte stránku,
nahoře bude něco nového.
373
00:24:26,339 --> 00:24:28,508
Uděláte to znovu, něco nového. Vždy.
374
00:24:28,592 --> 00:24:33,722
V psychologii tomu říkáme
pozitivní přerušované zpevnění.
375
00:24:33,805 --> 00:24:37,142
Nevíte, kdy nebo jestli něco dostanete,
376
00:24:37,225 --> 00:24:40,061
funguje to přesně jako automaty ve Vegas.
377
00:24:40,145 --> 00:24:44,232
Nestačí, že produkt používáte vědomě,
chci se dostat hlouběji do mozku
378
00:24:44,316 --> 00:24:47,652
a implantovat vám nevědomý zvyk,
379
00:24:47,736 --> 00:24:52,115
takže vás programuji na hlubší úrovni.
Ani si to neuvědomujete.
380
00:24:52,532 --> 00:24:53,533
James Marshall...
381
00:24:53,617 --> 00:24:56,286
Pokaždé, když ho spatříte,
382
00:24:56,369 --> 00:24:59,581
jen se podíváte na mobil a víte,
že když po něm sáhnete,
383
00:24:59,664 --> 00:25:01,333
možná tam pro vás něco bude.
384
00:25:01,416 --> 00:25:03,877
Hrajete na automatu a čekáte,
co dostanete.
385
00:25:03,960 --> 00:25:06,046
To není náhoda. Je to tak navrženo.
386
00:25:06,129 --> 00:25:11,134
Přinese zlatý nuget
armádnímu důstojníkovy v San Franciscu.
387
00:25:12,219 --> 00:25:15,263
Pamatujte,
že populace San Francisca byla jen…
388
00:25:15,347 --> 00:25:18,016
Dalším příkladem je označování na fotkách.
389
00:25:19,726 --> 00:25:23,647
Takže pokud dostanete e-mail,
že vás přítel označil na fotce,
390
00:25:24,147 --> 00:25:28,568
samozřejmě na ten e-mail kliknete
a na fotku se podíváte.
391
00:25:29,152 --> 00:25:31,821
Nemůžete se prostě
rozhodnout to ignorovat.
392
00:25:32,364 --> 00:25:36,326
Využíváme hluboce zakořeněnou
lidskou vlastnost.
393
00:25:36,409 --> 00:25:40,288
Měli byste se ptát:
„Proč ten e-mail tu fotku neobsahuje?
394
00:25:40,372 --> 00:25:42,457
Podívat se na ni by bylo snazší.“
395
00:25:42,541 --> 00:25:45,877
Když Facebook tuto funkci objevil,
naplno jí využil.
396
00:25:45,961 --> 00:25:48,463
Byl to skvělý způsob, jak zvýšit aktivitu.
397
00:25:48,547 --> 00:25:51,091
Stačí lidi přijmout
označovat se na fotkách.
398
00:25:56,263 --> 00:25:58,890
ASPOŇ JEDEN Z NÁS VYPADÁ DOBŘE.
399
00:25:59,349 --> 00:26:01,142
- Napsal komentář.
- Fajn.
400
00:26:01,935 --> 00:26:04,688
Dobře, Rebecca ho dostala a reaguje.
401
00:26:04,771 --> 00:26:07,148
Oznam Benovi, že píše, ať ho neztratíme.
402
00:26:07,649 --> 00:26:08,775
Aktivuji tři tečky.
403
00:26:19,411 --> 00:26:20,745
Výborně, odepsala.
404
00:26:21,329 --> 00:26:24,249
Komentuje její komentář
k jeho komentáři k jejímu příspěvku.
405
00:26:24,916 --> 00:26:27,752
- Moment, přestal psát.
- Vyplňme to automaticky.
406
00:26:28,420 --> 00:26:30,005
Smajlíci. Miluje je.
407
00:26:31,381 --> 00:26:33,758
AUTOMATICKÉ DOKONČENÍ
408
00:26:33,842 --> 00:26:34,676
Vybral oheň.
409
00:26:35,427 --> 00:26:36,803
Doufal jsem v lilek.
410
00:26:38,597 --> 00:26:42,726
Existuje celá disciplína a obor
zvané growth hacking.
411
00:26:42,809 --> 00:26:47,147
Týmy inženýrů mají za úkol
nabourat se do lidské psychiky,
412
00:26:47,230 --> 00:26:48,565
aby dosáhly většího růstu.
413
00:26:48,648 --> 00:26:50,942
Přihlásí se víc uživatelů,
získají víc interakcí,
414
00:26:51,026 --> 00:26:52,861
přimějí vás přizvat další lidi.
415
00:26:52,944 --> 00:26:55,614
Po všech testech, iteracích,
po tom všem,
416
00:26:56,156 --> 00:27:00,493
víte, co jsme si uvědomili?
Každý musí mít za deset dní sedm přátel.
417
00:27:01,953 --> 00:27:02,787
To bylo vše.
418
00:27:02,871 --> 00:27:05,498
Chamath byl dřív ve Facebooku
vedoucím růstu
419
00:27:05,582 --> 00:27:11,004
a v technologickém průmyslu je velmi známý
jako průkopník mnohých strategií růstu,
420
00:27:11,087 --> 00:27:14,758
díky kterým Facebook
rostl neskutečnou rychlostí.
421
00:27:14,841 --> 00:27:18,553
A tyto strategie
se v Silicon Valley staly standardními.
422
00:27:18,637 --> 00:27:21,222
Použil je Uber a pár dalších společností.
423
00:27:21,306 --> 00:27:27,062
Jednou z věcí, které propagoval,
bylo využití vědeckého A/B testování
424
00:27:27,145 --> 00:27:28,480
drobných změn funkcí.
425
00:27:28,938 --> 00:27:30,940
Společnosti jako Google a Facebook
426
00:27:31,024 --> 00:27:36,821
neustále dělaly na uživatelích
spoustu malých experimentů
427
00:27:36,905 --> 00:27:43,036
a když pořád provádíte experimenty,
časem vyvinete nejoptimálnější způsob,
428
00:27:43,119 --> 00:27:46,790
jak uživatele přimět dělat to, co chcete.
Je to manipulace.
429
00:27:47,332 --> 00:27:49,250
Cítím se jako laboratorní krysa.
430
00:27:49,834 --> 00:27:51,920
Jsi laboratorní krysa. My všichni.
431
00:27:52,545 --> 00:27:55,548
A nejsme laboratorní krysy
pro lék na rakovinu.
432
00:27:55,632 --> 00:27:58,134
Nesnaží se být přínosem pro nás.
433
00:27:58,218 --> 00:28:01,805
Jsme jen zombies a oni chtějí,
abychom se dívali na víc reklam,
434
00:28:01,888 --> 00:28:03,223
aby mohli víc vydělat.
435
00:28:03,556 --> 00:28:08,228
Facebook provedl něco, co nazvali
„rozsáhlé experimenty s emoční nákazou“.
436
00:28:08,311 --> 00:28:09,145
Dobře.
437
00:28:09,229 --> 00:28:12,899
Jak jde využít podprahových podnětů
na facebookových stránkách,
438
00:28:13,400 --> 00:28:17,570
abychom přiměli víc lidí
účastnit se průběžných voleb?
439
00:28:17,987 --> 00:28:20,824
A zjistili, že to dokážou.
440
00:28:20,907 --> 00:28:24,160
Došli k závěru, že teď víme,
441
00:28:24,744 --> 00:28:28,915
že můžeme ovlivnit
chování a emoce ve světě bez toho,
442
00:28:28,998 --> 00:28:32,877
že by to uživatelé
byli schopni zpozorovat.
443
00:28:33,378 --> 00:28:37,382
Nemají o tom ani tušení.
444
00:28:38,049 --> 00:28:41,970
Nasměrovali jsme na sebe
umělou inteligenci,
445
00:28:42,053 --> 00:28:46,224
abychom zpětně analyzovali,
co u nás vyvolá reakci.
446
00:28:47,100 --> 00:28:51,479
Jako byste pavoukovi stimulovali neurony,
abyste viděli, co mu rozhýbe nohy.
447
00:28:51,938 --> 00:28:53,940
Je to jako vězeňský experiment,
448
00:28:54,023 --> 00:28:56,735
kde lidi zatáhneme do matrixu
449
00:28:56,818 --> 00:29:01,489
a pak z jejich aktivity
sklízíme peníze a data za účelem zisku.
450
00:29:01,573 --> 00:29:03,241
A ani nevíme, že se to děje.
451
00:29:04,117 --> 00:29:08,204
Chceme pomocí psychologie zjistit,
jak vás co nejrychleji zmanipulovat
452
00:29:08,288 --> 00:29:12,459
a pak vám dát dávku dopaminu.
U Facebooku se nám to povedlo úžasně.
453
00:29:12,542 --> 00:29:14,919
Instagram to udělal. WhatsApp to udělal.
454
00:29:15,003 --> 00:29:17,380
Snapchat to udělal, Twitter to udělal.
455
00:29:17,464 --> 00:29:22,427
Je to přesně to,
co by vymyslel hacker jako já,
456
00:29:22,510 --> 00:29:27,015
protože zneužíváte
zranitelnosti lidské psychiky.
457
00:29:28,808 --> 00:29:33,438
Myslím, že my… vynálezci, tvůrci...
458
00:29:33,980 --> 00:29:37,317
a jsem to já, je to Mark, je to…
459
00:29:37,400 --> 00:29:40,111
Kevin Systrom od Instagramu,
všichni tito lidé…
460
00:29:41,154 --> 00:29:46,451
Uvědomovali jsme si to
a přesto jsme to udělali.
461
00:29:50,580 --> 00:29:53,666
Nikdo se nezlobil, když se objevila kola.
462
00:29:55,043 --> 00:29:58,004
Že jo? Když všichni začali jezdit na kole,
463
00:29:58,087 --> 00:30:00,924
nikdo neřekl:
„Bože, zničili jsme společnost.
464
00:30:01,007 --> 00:30:03,051
Kola mají vliv na lidi,
465
00:30:03,134 --> 00:30:05,220
trhají lidi od jejich dětí,
466
00:30:05,303 --> 00:30:08,723
ničí strukturu demokracie,
lidi nerozeznají, co je pravda.“
467
00:30:08,807 --> 00:30:11,142
Nic z toho jsme o kolech nikdy neřekli.
468
00:30:12,769 --> 00:30:16,147
Když je něco nástroj, opravdu to jen leží
469
00:30:16,731 --> 00:30:18,733
a trpělivě to čeká.
470
00:30:19,359 --> 00:30:22,570
Pokud něco nástroj není,
vyžaduje to od vás různé věci,
471
00:30:22,946 --> 00:30:26,533
svádí vás to, manipuluje,
něco to od vás chce.
472
00:30:26,950 --> 00:30:30,495
Od technologického prostředí
na báze nástrojů jsme přešli
473
00:30:31,037 --> 00:30:34,249
k prostředí založeném
na závislosti a manipulaci.
474
00:30:34,666 --> 00:30:35,708
To se změnilo.
475
00:30:35,792 --> 00:30:39,420
Sociální média nejsou nástroje,
které čekají na použití.
476
00:30:39,504 --> 00:30:43,466
Mají své vlastní cíle,
které dosahují vlastními prostředky.
477
00:30:43,550 --> 00:30:45,677
Využívají vaši psychiku proti vám.
478
00:30:49,055 --> 00:30:53,476
„Existují jen dva průmysly,
které svým zákazníkům říkají ,uživatelé‘:
479
00:30:53,560 --> 00:30:57,480
nelegální drogy a software.“
480
00:30:57,564 --> 00:31:02,193
Před pár lety
jsem byl prezidentem Pinterestu.
481
00:31:03,152 --> 00:31:08,366
Když jsem přišel z práce domů,
nedokázal jsem odložit mobil,
482
00:31:08,449 --> 00:31:12,161
i když jsem měl dvě malé děti,
které potřebovaly lásku a pozornost.
483
00:31:12,245 --> 00:31:17,417
Byl jsem ve spíži a psal jsem e-mail
nebo jsem se díval na Pinterest.
484
00:31:18,001 --> 00:31:22,046
Myslel jsem si: „Klasická ironie.
Přes den na něčem pracuju
485
00:31:22,130 --> 00:31:26,426
a tvořím něco, čemu pak podlehnu.“
486
00:31:26,509 --> 00:31:29,637
A nemohl jsem…
Někdy jsem si nemohl pomoct.
487
00:31:32,307 --> 00:31:36,102
Nejvíc mě to tíhne ke Twitteru.
488
00:31:36,811 --> 00:31:38,021
Býval to Reddit.
489
00:31:38,104 --> 00:31:42,859
Musel jsem si napsat software,
abych svou závislost na Redditu překonal.
490
00:31:45,361 --> 00:31:47,780
Nejvíc závislý jsem asi na e-mailu.
491
00:31:47,864 --> 00:31:49,866
Opravdu. Cítím to.
492
00:31:52,577 --> 00:31:54,954
No, je zajímavé,
493
00:31:55,038 --> 00:31:58,041
že i když jsem věděl,
co se děje v zákulisí,
494
00:31:58,124 --> 00:32:01,628
pořád jsem své používání sociálních médií
nedokázal ovládat.
495
00:32:01,711 --> 00:32:03,046
Je to trochu děsivé.
496
00:32:03,630 --> 00:32:07,050
I když vím, jak ty triky fungují,
pořád jim podlehnu.
497
00:32:07,133 --> 00:32:09,886
Pořád vezmu do ruky mobil
a promrhám 20 minut.
498
00:32:12,805 --> 00:32:15,725
Zkontrolujete mobil,
než jdete ráno na záchod,
499
00:32:15,808 --> 00:32:19,228
nebo až když jste na záchodě?
To jsou jediné dvě možnosti.
500
00:32:19,562 --> 00:32:23,274
Zkusil jsem silu vůle,
čistě jen silu vůle…
501
00:32:23,358 --> 00:32:26,903
„Odložím mobil. Když přijedu domů,
mobil nechám v autě.“
502
00:32:26,986 --> 00:32:30,573
Asi během tisíci různých dní
jsem si tisíckrát řekl:
503
00:32:30,657 --> 00:32:32,617
„Nevezmu si mobil do ložnice.“
504
00:32:32,700 --> 00:32:34,535
A pak v devět večer si řeknu:
505
00:32:34,619 --> 00:32:37,121
„Chci si vzít mobil do ložnice.“
506
00:32:37,956 --> 00:32:41,125
Takže to byl tak trochu…
Síla vůle byla první pokus
507
00:32:41,209 --> 00:32:44,295
a druhý pokus byla hrubá síla.
508
00:32:44,379 --> 00:32:45,880
Představujeme kuchyňský sejf.
509
00:32:45,964 --> 00:32:49,759
Tato nová revoluční nádoba
s časovým zámkem
510
00:32:49,842 --> 00:32:51,678
vám pomůže bojovat s pokušením.
511
00:32:51,761 --> 00:32:56,432
David musí jen vložit pokušení
do kuchyňského sejfu.
512
00:32:57,392 --> 00:33:00,561
Pak otočením spínače nastaví časovač
513
00:33:01,479 --> 00:33:04,232
a nakonec ho stiskne,
čímž se aktivuje zámek.
514
00:33:04,315 --> 00:33:05,525
Kuchyňský sejf je super…
515
00:33:05,608 --> 00:33:06,776
Máme ho, ne?
516
00:33:06,859 --> 00:33:08,569
…videohry, kreditky a mobily.
517
00:33:08,653 --> 00:33:09,654
Jo, máme.
518
00:33:09,737 --> 00:33:13,866
Když se sejf zamkne,
nelze jej otevřít, dokud čas neuplyne.
519
00:33:13,950 --> 00:33:17,537
Věc se má takto.
Sociální média jsou droga.
520
00:33:17,620 --> 00:33:23,084
Máme základní biologickou potřebu
být v kontaktu s ostatními lidmi.
521
00:33:23,167 --> 00:33:28,214
Má to přímý vliv na uvolňování dopaminu
v mezolimbické dráze.
522
00:33:28,297 --> 00:33:32,552
Tento systém
mají na svědomí miliony let evoluce,
523
00:33:32,635 --> 00:33:35,596
snaží se nás spojovat
a nutí nás žít v komunitách,
524
00:33:35,680 --> 00:33:38,016
abychom si mohli najít partnery
a množit se.
525
00:33:38,099 --> 00:33:41,853
Takže není pochyb o tom,
že něco jako sociální média,
526
00:33:41,936 --> 00:33:45,481
která mezi lidmi umožňují spojení,
527
00:33:45,773 --> 00:33:48,151
bude mít potenciál vyvolat závislost.
528
00:33:52,780 --> 00:33:54,115
Tati, přestaň!
529
00:33:55,450 --> 00:33:58,453
Musím před večeří poslat asi tisíc snipů.
530
00:33:58,536 --> 00:34:00,872
- Snipů?
- Nevím, co je snip.
531
00:34:01,372 --> 00:34:03,207
- To voní dobře, zlato.
- Díky.
532
00:34:03,291 --> 00:34:07,712
Říkala jsem si, že bychom si dnes mohli
večeři vychutnat všemi pěti smysly.
533
00:34:07,795 --> 00:34:11,382
Tak jsem se rozhodla,
že dnes u stolu nebudou žádné mobily.
534
00:34:11,466 --> 00:34:13,301
Takže mi je dejte.
535
00:34:13,801 --> 00:34:14,635
- Vážně?
- Jo.
536
00:34:15,928 --> 00:34:18,056
- Dobře.
- Děkuju. Bene?
537
00:34:18,139 --> 00:34:19,891
- Fajn.
- Pirátka mobilů.
538
00:34:21,017 --> 00:34:21,934
- Mám ho.
- Mami!
539
00:34:22,602 --> 00:34:26,147
Tady budou v bezpečí až do konce večeře…
540
00:34:27,273 --> 00:34:31,277
a všichni se můžou uvolnit. Dobře?
541
00:34:47,418 --> 00:34:49,253
- Můžu vědět, kdo to je?
- Ne.
542
00:34:54,842 --> 00:34:56,969
Jen si vezmu další vidličku.
543
00:34:58,304 --> 00:34:59,263
Děkuju.
544
00:35:04,727 --> 00:35:06,771
Zlato, to nejde otevřít.
545
00:35:06,854 --> 00:35:09,273
Zamkla jsem to na hodinu, nech to být.
546
00:35:11,192 --> 00:35:13,111
Tak o čem si promluvíme?
547
00:35:13,486 --> 00:35:17,907
Třeba o šílených extrémních centristech,
které jsem dneska viděl.
548
00:35:17,990 --> 00:35:18,825
- Franku.
- Co?
549
00:35:18,908 --> 00:35:20,785
Nechci mluvit o politice.
550
00:35:20,868 --> 00:35:23,538
- Co je na nich špatného?
- Vidíš? Nechápe to.
551
00:35:23,621 --> 00:35:24,622
Záleží od člověka.
552
00:35:24,705 --> 00:35:27,208
Jako ptát se,
co je špatného na propagandě.
553
00:35:28,709 --> 00:35:29,710
Islo!
554
00:35:32,797 --> 00:35:33,756
Panebože.
555
00:35:37,176 --> 00:35:38,386
- Mám…
- Jo.
556
00:35:41,973 --> 00:35:43,933
Mám strach o své děti.
557
00:35:44,016 --> 00:35:46,686
A pokud máte děti, mám strach i o ně.
558
00:35:46,769 --> 00:35:50,189
Pomocí všech svých vědomostí a zkušeností
559
00:35:50,273 --> 00:35:54,443
se s dětmi hádám o tom,
kolik na mobilech a počítači stráví času.
560
00:35:54,527 --> 00:35:58,197
Zeptám se syna:
„Kolik hodin myslíš, že na mobilu trávíš?“
561
00:35:58,281 --> 00:36:01,075
Řekne: „Půl hodiny.
Je to maximálně půl hodiny.“
562
00:36:01,159 --> 00:36:04,453
Řekl bych, že tak hodinu, hodinu a půl.
563
00:36:04,954 --> 00:36:08,708
Když jsem se mu dívala na záznam,
byly to tři hodiny a 45 minut.
564
00:36:11,335 --> 00:36:13,629
Nemyslím, že to… Průměrně za den?
565
00:36:14,172 --> 00:36:15,506
- Jo.
- Mám to přinést?
566
00:36:15,590 --> 00:36:21,429
Není dne, kdy bych dětem nepřipomněla
rovnováhu radosti a bolesti,
567
00:36:21,846 --> 00:36:26,267
stavy nedostatku dopaminu,
riziko závislosti.
568
00:36:26,350 --> 00:36:27,310
Okamžik pravdy.
569
00:36:27,935 --> 00:36:29,687
Dvě hodiny a 50 minut denně.
570
00:36:29,770 --> 00:36:31,772
- Podívejme.
- Dnes jsem ho dost používal.
571
00:36:31,856 --> 00:36:33,357
- Poslední týden.
- Tím to bude.
572
00:36:33,441 --> 00:36:37,153
Instagram, šest hodin, 13 minut.
Dobře, můj Instagram je horší.
573
00:36:39,572 --> 00:36:43,201
Mám úplně rozbitou obrazovku. Díky, Cass.
574
00:36:44,410 --> 00:36:45,453
Jak to myslíš?
575
00:36:46,078 --> 00:36:49,290
Děsíš mámu ohledně telefonů,
když to není problém.
576
00:36:49,373 --> 00:36:51,167
U večeře mobily nepotřebujeme.
577
00:36:51,250 --> 00:36:53,878
Chápu, co říkáš.
Ale není to takový problém.
578
00:36:56,047 --> 00:36:58,382
Když je to tak, týden ho nepoužívej.
579
00:37:01,135 --> 00:37:06,349
Jo. Vlastně když ho odložíš na celý týden…
580
00:37:07,725 --> 00:37:09,268
Koupím ti novou obrazovku.
581
00:37:11,062 --> 00:37:12,396
- Od teď?
- Od teď.
582
00:37:15,274 --> 00:37:16,859
Dobře. Platí.
583
00:37:16,943 --> 00:37:18,569
Ale musíš ho tu nechat.
584
00:37:19,862 --> 00:37:20,988
Dobře, zapojím ho.
585
00:37:22,531 --> 00:37:25,743
- Zapište si, že ho tu nechávám.
- Dobře.
586
00:37:27,703 --> 00:37:29,413
- Odpočet začíná.
- Týden.
587
00:37:31,582 --> 00:37:34,043
- Myslíš, že to dá?
- Nevím, uvidíme.
588
00:37:35,086 --> 00:37:36,128
Jen jez, jo?
589
00:37:44,178 --> 00:37:45,471
Dobrá rodinná večeře!
590
00:37:47,807 --> 00:37:49,809
Tyto technologie nenavrhli
591
00:37:49,892 --> 00:37:53,646
dětští psychologové, kteří se snažili
děti chránit a vychovávat.
592
00:37:53,980 --> 00:37:56,148
Prostě byly navrženy algoritmy,
593
00:37:56,232 --> 00:37:58,859
které jsou dobré
v doporučovaní dalších videí
594
00:37:58,943 --> 00:38:02,029
nebo vás snadno přinutí
vyfotit se s filtrem.
595
00:38:03,072 --> 00:38:05,449
DVĚMA LIDEM SE TO LÍBÍ
596
00:38:13,291 --> 00:38:15,126
OPRAVDU CHCETE FOTKU VYMAZAT?
NE
597
00:38:15,209 --> 00:38:16,210
ANO
598
00:38:16,752 --> 00:38:20,172
Nejde jen o to,
že to ovládá, čemu věnují pozornost.
599
00:38:21,173 --> 00:38:26,304
Sociální média začínají pronikat
hlouběji do mozkového kmene
600
00:38:26,387 --> 00:38:29,765
a ovládají dětské vnímání
vlastní hodnoty a identity.
601
00:38:42,069 --> 00:38:43,112
HEZKÉ!
602
00:38:43,195 --> 00:38:44,822
OMG JSI KRÁSNÁ
603
00:38:44,905 --> 00:38:46,490
JSI FAKT SKVĚLÁ
604
00:38:46,574 --> 00:38:48,200
UŠI SI ZVĚTŠIT NEUMÍŠ?
605
00:38:52,496 --> 00:38:55,499
Vyvinuli jsme se tak,
aby nám záleželo na tom…
606
00:38:55,583 --> 00:38:56,584
VYPADÁŠ DOBŘE!
607
00:38:56,667 --> 00:38:59,462
…co si o nás lidi myslí,
protože je to důležité.
608
00:38:59,837 --> 00:39:01,505
Ale vyvinuli jsme se k tomu,
609
00:39:01,589 --> 00:39:04,550
abychom věděli,
co si o nás myslí 10 000 lidí?
610
00:39:04,633 --> 00:39:06,302
Nevyvinuli jsme se k tomu,
611
00:39:06,385 --> 00:39:10,348
abychom dostávali společenské uznání
každých pět minut.
612
00:39:10,431 --> 00:39:13,142
Na to vůbec nejsme stavěni.
613
00:39:15,394 --> 00:39:19,982
Naše životy se točí
kolem viditelné dokonalosti,
614
00:39:20,733 --> 00:39:25,154
protože nás odměňují krátkodobé signály,
srdíčka, lajky, palce nahoru.
615
00:39:25,237 --> 00:39:28,324
A spojujeme si to s hodnotou a s pravdou.
616
00:39:29,825 --> 00:39:33,120
A ve skutečnosti to je
jen falešná křehká popularita…
617
00:39:33,913 --> 00:39:37,458
která je krátkodobá a která vás zanechá,
přiznejte si to,
618
00:39:37,541 --> 00:39:39,919
s ještě prázdnějším pocitem než předtím.
619
00:39:41,295 --> 00:39:43,381
Dostane vás to do bludného kruhu,
620
00:39:43,464 --> 00:39:46,967
kdy si říkáte: „Co musím udělat dalšího?
Potřebuju to zase.“
621
00:39:48,260 --> 00:39:50,846
Znásobte si to dvěma miliardami lidí
622
00:39:50,930 --> 00:39:54,767
a pak pomyslete na to,
jak lidi reagují na své vnímání druhých.
623
00:39:54,850 --> 00:39:58,020
Je to prostě… Je to vážně špatné.
624
00:40:00,856 --> 00:40:06,529
U amerických teenagerů došlo
k nárůstu případů deprese a úzkosti.
625
00:40:06,612 --> 00:40:10,699
Začalo ta asi mezi roky 2011 a 2013.
626
00:40:11,033 --> 00:40:14,370
Množství děvčat ze 100 000,
627
00:40:14,453 --> 00:40:17,081
které ročně v této zemi
přijali do nemocnice
628
00:40:17,164 --> 00:40:19,625
kvůli řezání nebo jinému sebepoškozování,
629
00:40:20,042 --> 00:40:23,587
toto číslo bylo až do roku 2010, 2011
dost stabilní
630
00:40:24,004 --> 00:40:25,756
a pak začalo rapidně stoupat.
631
00:40:28,759 --> 00:40:32,471
U starších děvčat stouplo o 62 %.
632
00:40:33,889 --> 00:40:38,310
U mladších děvčat stouplo o 189 %.
Skoro trojnásobek.
633
00:40:40,312 --> 00:40:43,107
Ještě horší je to,
že to samé se týká sebevražd.
634
00:40:44,817 --> 00:40:47,570
U starších děvčat, ve věku 15 až 19 let,
635
00:40:47,653 --> 00:40:51,449
došlo oproti předešlému desetiletí
ke zvýšení o 70 %.
636
00:40:52,158 --> 00:40:55,077
U mladších děvčat,
u kterých bývaly počty nízké,
637
00:40:55,161 --> 00:40:57,538
došlo ke zvýšení o 151 %.
638
00:40:58,831 --> 00:41:01,709
A tento vzorec ukazuje
směrem k sociálním médiím.
639
00:41:01,792 --> 00:41:04,044
SOCIÁLNÍ MÉDIA K DISPOZICI V MOBILU
640
00:41:04,128 --> 00:41:07,214
Generace Z, děti narozeny
zhruba po roce 1996,
641
00:41:07,298 --> 00:41:11,469
se jako první generace v dějinách
dostala na sociální média
642
00:41:11,552 --> 00:41:12,636
na základní škole.
643
00:41:15,973 --> 00:41:17,099
Jak tráví svůj čas?
644
00:41:19,727 --> 00:41:22,271
Přijdou ze školy a jsou na telefonech.
645
00:41:24,315 --> 00:41:29,195
Celá generace je zranitelnější,
víc trpí úzkostmi a depresemi.
646
00:41:30,613 --> 00:41:33,282
Jsou mnohem méně ochotni riskovat.
647
00:41:34,408 --> 00:41:37,119
Dostávají řidičské průkazy
v nižších počtech.
648
00:41:39,079 --> 00:41:44,126
Rapidně klesá počet těch, kteří měli rande
nebo romantickou interakci.
649
00:41:47,505 --> 00:41:49,715
Za jednu generaci je to velká změna.
650
00:41:53,177 --> 00:41:56,931
A pamatujte si,
že každá jedna hospitalizace
651
00:41:57,348 --> 00:42:00,309
za sebou zanechá
traumatizovanou a zděšenou rodinu.
652
00:42:00,392 --> 00:42:02,394
„Bože, co se s našimi dětmi děje?“
653
00:42:19,411 --> 00:42:21,038
Připadá mi to zřejmé.
654
00:42:22,873 --> 00:42:28,128
Tyto služby lidi zabíjejí a způsobují,
že lidé páchají sebevraždy.
655
00:42:29,088 --> 00:42:33,759
Neznám žádného rodiče, který říká:
„Chci, aby mé děti vyrůstaly s pocitem,
656
00:42:33,842 --> 00:42:36,554
že je designéři technologií manipulují,
657
00:42:36,971 --> 00:42:39,723
manipulují jim pozorností,
znemožňují dělání úkolů,
658
00:42:39,807 --> 00:42:43,060
nutí je srovnávat se
s nerealistickými standardy krásy.“
659
00:42:43,143 --> 00:42:44,687
To nechce nikdo.
660
00:42:45,104 --> 00:42:45,980
Nikdo.
661
00:42:46,438 --> 00:42:48,399
Mívali jsme ochranná opatření.
662
00:42:48,482 --> 00:42:52,778
Když děti v sobotu ráno sledovaly pohádky,
záleželo nám na jejich ochraně.
663
00:42:52,861 --> 00:42:56,574
Řekli jsme: „Dětem tohoto věku
tyto reklamy ukazovat nesmíte.“
664
00:42:57,366 --> 00:42:58,993
Ale pak přišel YouTube Kids
665
00:42:59,076 --> 00:43:02,454
a zabral celou danou část
ekonomiky pozornosti
666
00:43:02,538 --> 00:43:04,915
a teď všechny děti sledují YouTube Kids.
667
00:43:04,999 --> 00:43:07,418
A všechna opatření a nařízení jsou pryč.
668
00:43:10,296 --> 00:43:17,261
ČAS BEZ MOBILU
669
00:43:18,304 --> 00:43:22,141
Celou novou generaci lidí
trénujeme a formujeme k tomu,
670
00:43:23,434 --> 00:43:28,814
že když se cítíme nepříjemně,
osaměle, nejistě nebo vystrašeně,
671
00:43:29,231 --> 00:43:31,775
máme digitální dudlík,
672
00:43:32,568 --> 00:43:36,488
kvůli kterému naše schopnost
se s těmi pocity vypořádat zakrňuje.
673
00:43:54,048 --> 00:43:58,886
Photoshop neměl tisíc inženýrů,
kteří používali oznámení, vaše přátele,
674
00:43:58,969 --> 00:44:00,763
umělou inteligenci, která zjistí,
675
00:44:00,846 --> 00:44:03,515
jak u vás vyvolat závislost,
jak vás zmanipulovat,
676
00:44:03,599 --> 00:44:07,853
nedovolili inzerentům
testovat 60 000 variací fontů a barev,
677
00:44:07,936 --> 00:44:10,939
aby zjistili,
jak dokonale zmanipulovat vaši mysl.
678
00:44:11,231 --> 00:44:14,985
Tohle je úplně nový druh moci a vlivu.
679
00:44:16,070 --> 00:44:19,114
Znovu bych řekl, že metody,
680
00:44:19,198 --> 00:44:22,993
které zneužívají lidského sklonu
k závislosti a ovlivnitelnosti
681
00:44:23,077 --> 00:44:25,204
teď mohou být a nejspíš jsou jiné.
682
00:44:25,287 --> 00:44:28,749
Byly jiné, když vznikly noviny a tisk,
683
00:44:28,832 --> 00:44:34,004
a byly jiné, když vznikla televize
a byly tři velké televizní společnosti a…
684
00:44:34,463 --> 00:44:36,423
- Tehdy.
- Tehdy, to říkám.
685
00:44:36,507 --> 00:44:42,054
Ale narážím na to, že máme nový stupeň
a že nový stupeň už přišel mnohokrát.
686
00:44:42,137 --> 00:44:45,099
Tohle je jen
nejnovější nový stupeň pro nás.
687
00:44:45,182 --> 00:44:48,727
Existuje názor, že si na to zvykneme.
688
00:44:48,811 --> 00:44:53,315
Naučíme se s těmito přístroji žít,
jako jsme se to naučili při všem ostatním.
689
00:44:53,899 --> 00:44:56,694
Ten názor zapomíná,
že tohle je něco odlišného.
690
00:44:57,528 --> 00:45:00,322
Možná nejnebezpečnější
z toho všeho je fakt,
691
00:45:00,406 --> 00:45:04,410
že to řídí technologie,
které se exponenciálně zlepšují.
692
00:45:05,994 --> 00:45:09,081
Zhruba od 60. let po dnešek,
693
00:45:09,832 --> 00:45:13,043
se výpočetní výkonnost počítačů
asi bilionkrát zvýšila.
694
00:45:13,794 --> 00:45:18,340
Nic jiného z toho, co máme,
se nezlepšilo v takovém měřítku.
695
00:45:18,424 --> 00:45:22,177
Auta jsou asi dvakrát rychlejší.
696
00:45:22,261 --> 00:45:25,264
A skoro všechno ostatní je zanedbatelné.
697
00:45:25,347 --> 00:45:27,182
A možná nejdůležitější je to,
698
00:45:27,266 --> 00:45:31,353
že naše lidská fyziologie,
naše mozky se dál nevyvinuly vůbec.
699
00:45:31,854 --> 00:45:35,232
ČAS BEZ MOBILU
700
00:45:37,609 --> 00:45:41,488
Lidské bytosti
se na psychické a fyzické úrovni
701
00:45:41,947 --> 00:45:43,824
zásadně nezmění.
702
00:45:56,837 --> 00:46:00,924
V budoucnu můžeme genetickým inženýrstvím
vytvořit nové druhy lidí,
703
00:46:01,008 --> 00:46:05,220
ale realisticky řečeno,
žijete uvnitř hardwaru, mozku,
704
00:46:05,304 --> 00:46:06,930
který je starý miliony let.
705
00:46:07,347 --> 00:46:10,559
A pak je tu obrazovka
a na její opačné straně
706
00:46:10,642 --> 00:46:15,773
jsou tisíce inženýrů a superpočítačů,
kteří mají jiné cíle, než jsou ty vaše.
707
00:46:16,190 --> 00:46:19,693
A kdo tedy tuto hru vyhraje? Kdo vyhraje?
708
00:46:25,657 --> 00:46:26,617
Proč prohráváme?
709
00:46:27,159 --> 00:46:29,828
- Nevím.
- Kde je? Tohle není normální.
710
00:46:29,912 --> 00:46:32,080
Bylo toho obsahu od přátel a rodiny moc?
711
00:46:32,164 --> 00:46:34,082
- Asi.
- Možná to bylo reklamami.
712
00:46:34,166 --> 00:46:37,795
Ne. Něco je špatně.
Přepneme na režim vzkříšení.
713
00:46:39,713 --> 00:46:44,051
Když si představíte umělou inteligenci,
která zničí svět,
714
00:46:44,134 --> 00:46:47,221
představíte si Terminátora
a Arnolda Schwarzeneggera…
715
00:46:47,638 --> 00:46:48,722
Já se vrátím.
716
00:46:48,806 --> 00:46:52,643
…vidíte drony, říkáte si:
„S umělou inteligencí zabijeme lidstvo.“
717
00:46:53,644 --> 00:46:59,399
A lidé zapomínají, že umělá inteligence
už teď řídí moderní svět.
718
00:46:59,900 --> 00:47:03,237
Když se mluví o „umělé inteligenci“,
je to jen metafora.
719
00:47:03,320 --> 00:47:09,451
Ve společnostech, jako je Google,
jsou obrovské místnosti.
720
00:47:10,327 --> 00:47:13,121
Některé jsou pod zemí, jiné pod vodou.
721
00:47:13,205 --> 00:47:14,498
Jen s počítači.
722
00:47:14,581 --> 00:47:17,543
S tunami počítačů, kam jen oko dohlédne.
723
00:47:18,460 --> 00:47:22,923
Jsou vzájemně propojené a běží na nich
extrémně komplikované programy,
724
00:47:23,006 --> 00:47:26,009
pořád si mezi sebou
tam a zpátky posílají informace.
725
00:47:26,844 --> 00:47:30,806
Běží na nich mnoho různých programů,
mnoho různých produktů.
726
00:47:31,431 --> 00:47:33,976
Některé algoritmy lze nazvat jednoduchými,
727
00:47:34,059 --> 00:47:37,521
některé jsou tak složité,
že byste je nazvali inteligencí.
728
00:47:40,148 --> 00:47:43,777
Ráda říkám, že algoritmy
jsou názory vložené do kódu.
729
00:47:45,070 --> 00:47:47,656
A že algoritmy nejsou objektivní.
730
00:47:48,365 --> 00:47:51,577
Jsou optimalizovány
podle nějaké definice úspěchu.
731
00:47:52,244 --> 00:47:53,662
Když si představíte,
732
00:47:53,745 --> 00:47:57,124
že nějaký obchodní podnik
sestaví algoritmus
733
00:47:57,207 --> 00:47:59,293
podle své definice úspěchu,
734
00:47:59,835 --> 00:48:01,211
je to obchodní zájem.
735
00:48:01,587 --> 00:48:02,796
Většinou jde o zisk.
736
00:48:03,130 --> 00:48:07,009
Stanovíte pro počítač cíl
„chci tento výsledek“
737
00:48:07,551 --> 00:48:12,347
a počítač se sám učí, jak jej dosáhnout.
Z toho pochází termín „strojové učení“.
738
00:48:12,681 --> 00:48:16,977
A každý den se trochu zlepší
ve vybírání příspěvků ve správném pořadí,
739
00:48:17,060 --> 00:48:19,438
takže u produktu trávíte pořád víc času.
740
00:48:19,521 --> 00:48:23,442
A nikdo pořádně nechápe,
co počítač dělá, aby tohoto cíle dosáhl.
741
00:48:23,984 --> 00:48:28,238
Algoritmus má svou vlastní mysl,
takže i když ho napíše člověk,
742
00:48:28,947 --> 00:48:30,657
je napsán tak,
743
00:48:31,074 --> 00:48:34,661
že postavíte stroj
a ten pak sám sebe mění.
744
00:48:35,120 --> 00:48:40,000
V těchto společnostech je jen pár lidí,
ve Facebooku, Twitteru a dalších firmách…
745
00:48:40,083 --> 00:48:43,795
Je jen pár lidí, kteří chápou,
jak ty systémy fungují,
746
00:48:43,879 --> 00:48:46,715
a ani oni nemusí úplně chápat,
747
00:48:46,798 --> 00:48:49,301
co se stane s určitou částí obsahu.
748
00:48:49,968 --> 00:48:55,474
Takže jako lidé jsme nad těmito systémy
skoro ztratili kontrolu,
749
00:48:55,891 --> 00:48:59,353
protože ovládají informace, které vidíme.
750
00:48:59,686 --> 00:49:02,105
Víc ovládají ony nás, než ovládáme my je.
751
00:49:03,732 --> 00:49:07,361
Srovnávám ho s podobnými jedinci
z jeho geografické zóny.
752
00:49:07,444 --> 00:49:09,571
S jeho psychometrickými dvojníky.
753
00:49:09,655 --> 00:49:13,700
V této oblasti je 13 694 lidí,
kteří se chovají jako on.
754
00:49:13,784 --> 00:49:16,119
- Na co se dívají?
- K řádnému vzkříšení
755
00:49:16,203 --> 00:49:19,373
to chce něco dobrého,
když obvyklé věci nefungují.
756
00:49:20,082 --> 00:49:21,875
Ani ta hezká holka ze školy.
757
00:49:22,334 --> 00:49:25,420
Podle analýzy
má politický obsah extrémních centristů
758
00:49:25,504 --> 00:49:28,256
62,3% šanci na dlouhodobou interakci.
759
00:49:28,340 --> 00:49:29,299
To není špatné.
760
00:49:30,384 --> 00:49:32,010
Pro začátek to nestačí.
761
00:49:32,386 --> 00:49:35,305
Zkusili jsme upozornění
na označení na fotkách,
762
00:49:35,389 --> 00:49:39,017
pozvánky, aktuální zprávy,
dokonce i zprávu od Rebeccy.
763
00:49:39,101 --> 00:49:44,648
- Ale co uživatel 01265923010?
- Jo, líbily se mu všechny její příspěvky.
764
00:49:44,731 --> 00:49:47,442
Celé měsíce se mu líbily všechny
a pak nic.
765
00:49:47,859 --> 00:49:51,780
Odhaduji 92,3% šanci na vzkříšení
díky oznámení o Aně.
766
00:49:53,907 --> 00:49:55,993
NOVÝ VZTAH
767
00:49:56,451 --> 00:49:57,703
A jejím novém příteli.
768
00:49:58,495 --> 00:50:04,001
ČAS BEZ TELEFONU
769
00:50:24,354 --> 00:50:26,148
VAŠE BÝVALÁ JE V NOVÉM VZTAHU!
770
00:50:26,231 --> 00:50:27,357
To si děláš srandu.
771
00:50:35,741 --> 00:50:36,616
Dobře.
772
00:50:37,576 --> 00:50:38,785
ANA A LUIZ JSOU VE VZTAHU
773
00:50:38,869 --> 00:50:39,703
Cože?
774
00:50:42,122 --> 00:50:44,499
- Jsme zpátky!
- Zpět k vydělávání peněz.
775
00:50:44,583 --> 00:50:46,334
A ke spojení s celým světem.
776
00:50:46,418 --> 00:50:49,087
Dám mu přístup
ke všem informacím, které chce.
777
00:50:49,755 --> 00:50:53,717
Hele, přemýšleli jste někdy nad tím,
jestli je to pro Bena dobré?
778
00:50:57,220 --> 00:50:58,055
- Ne.
- Ne.
779
00:51:17,532 --> 00:51:19,076
Začarovala jsem tě.
780
00:51:25,040 --> 00:51:26,374
Protože jsi můj.
781
00:51:34,508 --> 00:51:36,593
Přestaň s tím, co děláš.
782
00:51:41,181 --> 00:51:42,265
Já nelžu.
783
00:51:42,349 --> 00:51:44,893
A/B TESTOVÁNÍ
EXTRÉMNÍ CENTRISTÉ
784
00:51:44,976 --> 00:51:46,686
Ne, já nelžu.
785
00:51:49,981 --> 00:51:51,817
Víš, že nesnesu,
786
00:51:53,026 --> 00:51:54,611
když pobíháš kolem.
787
00:51:55,612 --> 00:51:57,239
Dobře to víš, taťko.
788
00:51:58,782 --> 00:52:02,077
Nesnesu to, protože mě shazuješ.
789
00:52:06,456 --> 00:52:08,375
Začarovala jsem tě.
790
00:52:12,379 --> 00:52:14,840
Protože jsi můj.
791
00:52:18,718 --> 00:52:19,845
Jsi můj…
792
00:52:20,929 --> 00:52:24,015
Představte si, že jste na Facebooku...
793
00:52:24,766 --> 00:52:29,312
a v podstatě hrajete
proti umělé inteligenci,
794
00:52:29,396 --> 00:52:31,314
která o vás ví všechno,
795
00:52:31,398 --> 00:52:34,568
umí předvídat váš další krok
a vy o ní nevíte nic kromě toho,
796
00:52:34,651 --> 00:52:37,112
že tam jsou kočičí videa a narozeniny.
797
00:52:37,821 --> 00:52:39,656
To není férový boj.
798
00:52:41,575 --> 00:52:43,869
Bene a Jerry, je čas jít, kamaráde!
799
00:52:51,126 --> 00:52:51,960
Bene?
800
00:53:02,679 --> 00:53:03,513
Bene.
801
00:53:05,182 --> 00:53:06,057
No tak.
802
00:53:07,225 --> 00:53:08,810
Škola volá. Jdeme.
803
00:53:13,231 --> 00:53:16,735
CENTRUM PRO HUMÁNNÍ TECHNOLOGIE
804
00:53:31,374 --> 00:53:33,543
- Jak se máš?
- Jsem nervózní.
805
00:53:33,627 --> 00:53:34,502
- Vážně?
- Jo.
806
00:53:37,380 --> 00:53:39,049
Dáváme pozor, kdy přijde chvíle,
807
00:53:39,132 --> 00:53:42,969
kdy technologie přemůže
lidskou sílu a inteligenci.
808
00:53:43,053 --> 00:53:47,015
Kdy dosáhne singularity, nahradí nás
v práci, bude chytřejší než my?
809
00:53:48,141 --> 00:53:50,101
Ale je i mnohem dřívější chvíle…
810
00:53:50,977 --> 00:53:55,565
kdy technologie překoná
a ovládne lidské slabosti.
811
00:53:57,484 --> 00:54:01,613
Překročení tohoto bodu
má za následek závislost,
812
00:54:02,113 --> 00:54:06,368
polarizaci, radikalizaci,
zvýšenou pobouřenost, marnivost, všechno.
813
00:54:07,702 --> 00:54:09,913
Válcuje to lidskou přirozenost
814
00:54:10,538 --> 00:54:13,500
a představuje to vítězství nad lidstvem.
815
00:54:30,558 --> 00:54:31,434
Promiň.
816
00:54:41,736 --> 00:54:44,656
Když se snažím lidem vysvětlit,
817
00:54:45,198 --> 00:54:51,454
jak jsou místa jako Facebook špatná,
řeknu jim, ať si představí Wikipedii.
818
00:54:52,956 --> 00:54:56,042
Když jdete na stránku,
vidíte to, co ostatní.
819
00:54:56,584 --> 00:55:00,297
Je to jedna z mála věcí,
která je pro nás na internetu společná.
820
00:55:00,380 --> 00:55:03,425
Teď si představte, že by Wikipedie řekla:
821
00:55:03,508 --> 00:55:07,095
„Každému dáme
jinou definici přizpůsobenou na míru
822
00:55:07,178 --> 00:55:09,264
a lidé nám za to budou platit.“
823
00:55:09,681 --> 00:55:13,435
Takže Wikipedie by vás
špehovala a odhadovala by:
824
00:55:13,518 --> 00:55:17,188
„Co můžu udělat,
abych tohoto člověka trochu změnila
825
00:55:17,272 --> 00:55:19,899
ve jménu obchodního zájmu?“
826
00:55:19,983 --> 00:55:21,818
A pak by pozměnila článek.
827
00:55:22,444 --> 00:55:26,823
Umíte si to představit? Měli byste,
protože tohle se děje na Facebooku.
828
00:55:26,906 --> 00:55:28,992
Přesně tohle se děje na YouTubu.
829
00:55:29,075 --> 00:55:31,786
Když do Googlu zadáte „změna klimatu je“,
830
00:55:31,870 --> 00:55:34,998
uvidíte různé výsledky
podle toho, kde bydlíte.
831
00:55:35,081 --> 00:55:36,082
ZMĚNA KLIMATU JE
832
00:55:36,166 --> 00:55:38,460
V některých městech to Google dokončí
833
00:55:38,543 --> 00:55:40,462
jako „změna klimatu je hoax.“
834
00:55:40,545 --> 00:55:42,047
Jinde uvidíte
835
00:55:42,130 --> 00:55:44,841
„změna klimatu způsobuje zničení přírody.“
836
00:55:44,924 --> 00:55:48,428
Při této funkci nejde o poskytování pravdy
o změně klimatu,
837
00:55:48,511 --> 00:55:51,097
ale jde o to, z jakého místa googlujete
838
00:55:51,181 --> 00:55:53,600
a co Google ví o vašich zájmech.
839
00:55:55,185 --> 00:56:00,190
Dokonce i dva blízcí přátelé,
kteří mají skoro stejné přátele,
840
00:56:00,273 --> 00:56:02,817
a kteří si myslí:
„Kouknu na Facebooku na zprávy.
841
00:56:02,901 --> 00:56:06,738
Uvidím ty samé novinky.“
Ale tak to vůbec není.
842
00:56:06,821 --> 00:56:08,406
Vidí úplně jiné světy,
843
00:56:08,490 --> 00:56:12,035
které vycházejí z výpočtů toho,
co je pro každého ideální.
844
00:56:14,371 --> 00:56:18,416
Představte si to
jako 2,7 miliard verzí Truman Show.
845
00:56:18,500 --> 00:56:21,336
Každý člověk má
svou vlastní realitu s vlastními…
846
00:56:22,754 --> 00:56:23,671
fakty.
847
00:56:23,755 --> 00:56:27,008
Proč myslíte,
že Truman až dosud nezjistil,
848
00:56:27,092 --> 00:56:30,095
jaká je pravá podstata světa,
ve kterém žije?
849
00:56:31,054 --> 00:56:34,140
Přijímáme tu realitu,
která nám je předložena.
850
00:56:34,224 --> 00:56:35,141
Je to prosté.
851
00:56:36,476 --> 00:56:41,064
Časem nabudete falešného pocitu,
že s vámi každý souhlasí,
852
00:56:41,147 --> 00:56:44,067
protože všichni na sociálních sítích
zní jako vy.
853
00:56:44,651 --> 00:56:49,072
A když jste v tomto stavu,
je snadné vás zmanipulovat.
854
00:56:49,155 --> 00:56:51,741
Stejně jako by to udělal kouzelník.
855
00:56:51,825 --> 00:56:55,370
Předvádí karetní trik, řekne:
„Vyberte si jakoukoli kartu.“
856
00:56:55,453 --> 00:56:57,872
Neuvědomíte si, že to předem připravil,
857
00:56:58,415 --> 00:57:00,583
a vyberete kartu,
kterou chce, abyste vybrali.
858
00:57:00,667 --> 00:57:03,128
A takto funguje Facebook. Říká vám:
859
00:57:03,211 --> 00:57:06,172
„Vy si vybíráte přátele a odkazy,
které sledujete.“
860
00:57:06,256 --> 00:57:08,716
Ale to je nesmysl. Dělá to, co kouzelník.
861
00:57:08,800 --> 00:57:10,885
Facebook řídí, jaké zprávy uvidíte.
862
00:57:11,386 --> 00:57:14,514
Všichni pracujeme
s rozdílnými sbírkami faktů.
863
00:57:14,597 --> 00:57:16,474
Když se to stane ve velkém,
864
00:57:16,558 --> 00:57:20,770
už víc nedovedete brát v úvahu
nebo dokonce přijímat informace,
865
00:57:20,854 --> 00:57:23,690
které jsou v rozporu
s vaším názorem na svět.
866
00:57:23,773 --> 00:57:28,027
To znamená, že ve skutečnosti nejsme
objektivní a konstruktivní.
867
00:57:28,778 --> 00:57:32,449
Otevřete oči, nevěřte lžím!
868
00:57:32,532 --> 00:57:35,160
A pak se podíváte na druhou stranu
869
00:57:35,243 --> 00:57:38,746
a začnete si říkat:
„Jak mohou být ti lidé tak hloupí?
870
00:57:38,830 --> 00:57:42,125
Podívejte se na všechny ty informace,
které pořád vidím.
871
00:57:42,208 --> 00:57:44,586
Jak můžou tyto informace nevidět?“
872
00:57:44,669 --> 00:57:47,297
Odpověď zní,
že oni nevidí ty samé informace.
873
00:57:47,380 --> 00:57:52,010
Otevřete oči, nevěřte lžím!
874
00:57:52,093 --> 00:57:53,678
Jací jsou republikáni?
875
00:57:53,761 --> 00:57:55,472
Lidi, kteří nic nevědí.
876
00:57:55,555 --> 00:57:58,933
Demokrati jsou zločinci,
ne skutečná politická strana.
877
00:57:59,017 --> 00:58:03,146
Velká nová studie zkoumala
10 000 dospělých Američanů a zjistila,
878
00:58:03,229 --> 00:58:05,315
že jsme rozděleni víc než kdy dřív.
879
00:58:05,398 --> 00:58:09,152
Osobní a politická polarizace
dosáhla dvacetiletého maxima.
880
00:58:11,821 --> 00:58:14,199
Víc než třetina republikánů říká,
881
00:58:14,282 --> 00:58:16,826
že Demokratická strana
je hrozbou pro národ,
882
00:58:16,910 --> 00:58:20,580
víc než čtvrtina demokratů
říká totéž o republikánech.
883
00:58:20,663 --> 00:58:24,417
Mnoho problémů, o kterých mluvíme,
třeba politická polarizace,
884
00:58:24,501 --> 00:58:28,046
z velké části existuje
v rámci kabelové televize.
885
00:58:28,129 --> 00:58:31,007
Média mají úplně stejný problém.
886
00:58:31,090 --> 00:58:35,762
Jejich obchodní model spočívá v tom,
že naši pozornost prodávají inzerentům.
887
00:58:35,845 --> 00:58:38,890
Internet to jen dělá
novým a efektivnějším způsobem.
888
00:58:40,391 --> 00:58:44,145
Pracoval jsem na systému
doporučených videí na YouTubu.
889
00:58:44,229 --> 00:58:47,315
Znepokojuje mě,
že algoritmus, na němž jsem pracoval,
890
00:58:47,398 --> 00:58:50,109
zvyšuje polarizaci společnosti.
891
00:58:50,485 --> 00:58:53,196
Ale z hlediska
času stráveného sledováním videí
892
00:58:53,279 --> 00:58:57,617
dokáže polarizace velmi efektivně
udržet lidi na internetu.
893
00:58:58,785 --> 00:59:02,664
Učitelé nás to učí jen proto,
že jim za to platí. Je to absurdní.
894
00:59:02,747 --> 00:59:03,915
Čau, Benji.
895
00:59:04,916 --> 00:59:06,292
Nemáš dnes fotbal?
896
00:59:06,376 --> 00:59:08,545
Mám. Jen se dívám na zprávy.
897
00:59:08,962 --> 00:59:11,464
Informujte se.
Vše, co odbočí od centrismu…
898
00:59:11,548 --> 00:59:14,008
Tohle bych zrovna zprávami nenazvala.
899
00:59:15,468 --> 00:59:18,638
Pořád mluvíš o tom,
jak je všechno špatně. Oni taky.
900
00:59:19,305 --> 00:59:21,140
Ale to je jen propaganda.
901
00:59:21,224 --> 00:59:24,060
Ani jedno není pravda.
Jde o to, co dává smysl.
902
00:59:24,852 --> 00:59:28,147
Myslím to vážně. Tohle ti uškodí.
Měl bys jít na trénink.
903
00:59:35,154 --> 00:59:37,490
Mluvím o tom, protože mi na tom záleží.
904
00:59:37,574 --> 00:59:41,077
Záleží mi na tom,
že vám někdo lže a to není správný.
905
00:59:41,160 --> 00:59:42,036
Lidé si myslí,
906
00:59:42,120 --> 00:59:46,499
že algoritmus jim má dát to,
co opravdu chtějí, ale tak to není.
907
00:59:46,916 --> 00:59:48,960
Algoritmus se snaží najít
908
00:59:49,043 --> 00:59:52,589
pár lákavých králičích nor,
do kterých můžete spadnout,
909
00:59:52,672 --> 00:59:55,967
snaží se zjistit,
která z nich je nejbližší vašim zájmům.
910
00:59:56,342 --> 00:59:59,262
A když se začnete dívat na jedno z videí,
911
00:59:59,846 --> 01:00:02,223
bude vám je doporučovat znovu a znovu.
912
01:00:02,682 --> 01:00:04,475
Nikdo nechce, aby se to dělo.
913
01:00:05,101 --> 01:00:07,812
Ale systém doporučování tohle dělá.
914
01:00:07,895 --> 01:00:11,691
Do takové míry,
že slavný basketbalista Kyrie Irving řekl,
915
01:00:11,774 --> 01:00:15,778
že věří, že Země je plochá.
Pak se omluvil a dal to za vinu YouTubu.
916
01:00:16,487 --> 01:00:21,534
Znáte to, klikáte na YouTubu a říkáte si:
„Jak je ta králičí nora hluboká?“
917
01:00:21,618 --> 01:00:23,369
V rozhovoru v rádiu pak řekl:
918
01:00:23,453 --> 01:00:25,955
„Omlouvám se, nechtěl jsem lidi zavádět.“
919
01:00:26,039 --> 01:00:29,667
A žáci ve škole během ankety řekli:
„Dostali ho kulatozemci.“
920
01:00:31,044 --> 01:00:37,634
Algoritmus konspiraci o ploché Zemi
doporučil stamilionkrát.
921
01:00:37,717 --> 01:00:43,890
Je snadné se domnívat,
že to přesvědčí jen pár hloupých lidí,
922
01:00:43,973 --> 01:00:46,893
ale algoritmus je každým dnem chytřejší.
923
01:00:46,976 --> 01:00:50,104
Takže dnes lidi přesvědčuje,
že Země je plochá,
924
01:00:50,188 --> 01:00:53,816
ale zítra může o jiné falešné informaci
přesvědčit vás.
925
01:00:54,317 --> 01:00:57,820
Sedmého listopadu
se zrodil hashtag „Pizzagate“.
926
01:00:58,321 --> 01:00:59,155
Pizzagate…
927
01:01:00,823 --> 01:01:01,658
Páni.
928
01:01:03,159 --> 01:01:06,913
Pořád si nejsem stoprocentně jistá,
jak to původně vzniklo,
929
01:01:06,996 --> 01:01:09,791
ale šlo o představu,
že když si objednáte pizzu,
930
01:01:09,874 --> 01:01:12,377
objednáváte si oběť obchodování s lidmi.
931
01:01:12,460 --> 01:01:15,046
Jak tyto skupiny na Facebooku rostly,
932
01:01:15,129 --> 01:01:19,467
Facebook začal
běžným uživatelům doporučovat,
933
01:01:19,550 --> 01:01:21,761
aby se přidali do skupin o Pizzagate.
934
01:01:21,844 --> 01:01:27,392
Takže když byl uživatel třeba
proti očkování nebo věřil v chemtrails
935
01:01:27,475 --> 01:01:33,398
nebo algoritmu Facebooku nějako naznačil,
že má sklon uvěřit konspiračním teoriím,
936
01:01:33,481 --> 01:01:36,859
Facebook mu doporučil skupiny o Pizzagate.
937
01:01:36,943 --> 01:01:41,072
Nakonec to vyvrcholilo tím,
že se jeden muž se zbraní rozhodl,
938
01:01:41,155 --> 01:01:47,036
že osvobodí děti ze suterénu pizzerie,
která suterén neměla.
939
01:01:47,120 --> 01:01:49,956
- Co jste dělal?
- Ujišťoval se, že tam nic není.
940
01:01:50,581 --> 01:01:53,793
- Co že tam není?
- Pedofilní skupina.
941
01:01:53,876 --> 01:01:55,628
Pizzagate. Mluví o Pizzagate.
942
01:01:55,962 --> 01:02:00,216
Toto je příklad konspirační teorie,
943
01:02:00,299 --> 01:02:03,469
která se šířila
na všech sociálních sítích.
944
01:02:03,761 --> 01:02:07,974
Sociální síť
toto dobrovolně doporučí lidem,
945
01:02:08,057 --> 01:02:10,643
kteří výraz „Pizzagate“
v životě nehledali.
946
01:02:12,478 --> 01:02:14,439
Existuje studie od MIT o tom,
947
01:02:14,522 --> 01:02:16,482
že falešné zprávy se na Twitteru
948
01:02:16,566 --> 01:02:19,444
šíří šestkrát rychleji
než skutečné zprávy.
949
01:02:19,902 --> 01:02:21,404
Jak bude svět vypadat,
950
01:02:21,946 --> 01:02:24,866
když jedny mají proti druhým
šestinásobnou výhodu?
951
01:02:25,283 --> 01:02:27,326
Představte si, že tyto věci
952
01:02:27,410 --> 01:02:31,539
naklánějí podlahu,
na které stojí lidské chování.
953
01:02:31,831 --> 01:02:34,709
Některé druhy chování
stěžují a jiné usnadňují.
954
01:02:34,792 --> 01:02:38,796
A vždy můžete vyšplhat nahoru,
ale málo lidí to udělá.
955
01:02:38,880 --> 01:02:43,634
Takže ve velkém měřítku
opravdu nakláníte podlahu a měníte to,
956
01:02:43,718 --> 01:02:45,970
jak miliardy lidí myslí a co dělají.
957
01:02:46,053 --> 01:02:52,018
Vytvořili jsme systém,
který upřednostňuje falešné informace.
958
01:02:52,643 --> 01:02:54,437
Ne proto, že to chceme,
959
01:02:54,520 --> 01:02:58,816
ale protože falešné informace
společnostem vydělávají víc peněz
960
01:02:59,400 --> 01:03:01,194
než pravda. Pravda je nudná.
961
01:03:01,986 --> 01:03:04,489
Je to obchodní model
výnosných dezinformací.
962
01:03:04,906 --> 01:03:08,159
Vyděláváte peníze tím,
že za nejlepší cenu dovolíte,
963
01:03:08,618 --> 01:03:11,329
aby se neregulované zprávy
dostaly ke komukoli.
964
01:03:11,662 --> 01:03:16,751
Protože změna klimatu? Jo.
Je to hoax. Jo, je skutečná. O to jde.
965
01:03:16,834 --> 01:03:20,004
Čím víc o tom mluví,
tím víc nás rozdělují,
966
01:03:20,087 --> 01:03:22,423
tím větší mají moc, tím větší kontrolu.
967
01:03:22,507 --> 01:03:25,468
Na Facebooku jsou
biliony příspěvků se zprávami.
968
01:03:26,552 --> 01:03:29,180
Nemohou vědět,
co je skutečná, co je pravda…
969
01:03:29,972 --> 01:03:33,476
A proto je rozhodující,
abychom o tom mluvili teď.
970
01:03:33,810 --> 01:03:37,021
Covid-19 není to jediné,
co se rychle šíří.
971
01:03:37,104 --> 01:03:40,066
Na internetu je o viru
záplava dezinformací.
972
01:03:40,149 --> 01:03:43,694
Tvrzení, že zvýšené pití vody
vám koronavirus vyplaví z těla,
973
01:03:43,778 --> 01:03:47,490
je jedním z mnoha mýtů,
které cirkulují na sociálních médiích.
974
01:03:47,573 --> 01:03:50,451
Vláda tuto událost naplánovala,
vytvořila virus
975
01:03:50,535 --> 01:03:53,454
a měla simulaci toho,
jak budou země reagovat.
976
01:03:53,955 --> 01:03:55,581
Koronavirus je hoax.
977
01:03:56,165 --> 01:03:57,959
SARS, koronavirus.
978
01:03:58,459 --> 01:04:01,045
A podívejte, kdy to bylo vyrobeno. 2018.
979
01:04:01,128 --> 01:04:03,798
Myslím, že to začala americká vláda.
980
01:04:04,215 --> 01:04:09,095
Nikdo není nemocný.
Nikdo nikoho nemocného nezná.
981
01:04:09,512 --> 01:04:12,557
Možná vláda používá
koronavirus jako výmluvu,
982
01:04:12,640 --> 01:04:15,643
abychom zůstali uvnitř,
protože se děje něco jinýho.
983
01:04:15,726 --> 01:04:20,940
Lidi nezabíjí koronavirus,
ale radiace z 5G, kterou produkují.
984
01:04:21,023 --> 01:04:22,525
SKÁCELI A SPÁLILI 5G VĚŽE
985
01:04:22,608 --> 01:04:24,569
Jsme bombardováni fámami.
986
01:04:25,403 --> 01:04:28,823
Lidé vyhazují do vzduchu telefonní věže.
987
01:04:28,906 --> 01:04:32,201
Vidíme, že Rusko a Čína
šíří fámy a konspirační teorie.
988
01:04:32,285 --> 01:04:35,246
Panika a protesty
na Ukrajině dnes ráno…
989
01:04:35,329 --> 01:04:38,916
Lidé netuší, co je pravda,
a teď je to otázka života a smrti.
990
01:04:40,001 --> 01:04:42,628
Zdroje, které šíři
dezinformace o koronaviru,
991
01:04:42,712 --> 01:04:45,798
nashromáždily kolem 52 milionů interakcí.
992
01:04:45,882 --> 01:04:50,094
Říkáte, že roztok stříbra by zabral.
993
01:04:50,177 --> 01:04:54,140
Nebylo to testováno
na tomto kmenu koronaviru, ale…
994
01:04:54,223 --> 01:04:57,226
To, co vidíme při covidu,
je extrémnější verzí toho,
995
01:04:57,310 --> 01:05:00,354
co se už děje v informačním ekosystému.
996
01:05:00,938 --> 01:05:05,401
Sociální média zesilují exponenciální fámy
a informace z doslechu natolik,
997
01:05:05,484 --> 01:05:08,779
že nevíme, co je pravda,
bez ohledu na to, co nás zajímá.
998
01:05:26,130 --> 01:05:27,131
Jsi pořád v týmu?
999
01:05:30,468 --> 01:05:34,430
Dobře, jdu se před tréninkem najíst,
pokud se chceš přidat.
1000
01:05:37,642 --> 01:05:38,476
To je jedno.
1001
01:05:45,066 --> 01:05:47,526
Devět z deseti lidí je teď nespokojených.
1002
01:05:47,610 --> 01:05:50,613
EC jsou jako
každé politické hnutí v dějinách.
1003
01:05:50,696 --> 01:05:54,492
Odporujeme a jsme…
Postavíme se proti tomu.
1004
01:05:54,575 --> 01:05:57,036
Jste moji lidé. Důvěřuju vám.
1005
01:05:59,246 --> 01:06:02,583
- Obsah extrémních centristů je geniální.
- Zbožňuje ho.
1006
01:06:02,667 --> 01:06:03,626
Spouštím aukci.
1007
01:06:04,627 --> 01:06:08,547
Máme 843 zájemců, prodali jsme ho
za 4,35 centů výrobci zbraní.
1008
01:06:08,631 --> 01:06:10,591
Ukážeme mu pár z těchto událostí.
1009
01:06:10,883 --> 01:06:13,511
Nadcházející srazy
v jeho geografické zóně.
1010
01:06:13,594 --> 01:06:15,179
Mám taky nového vloggera.
1011
01:06:17,890 --> 01:06:22,979
Upřímně vám říkám, že jsem ochotný
udělat všechno, co bude potřeba.
1012
01:06:23,062 --> 01:06:24,939
A tím myslím všechno.
1013
01:06:32,154 --> 01:06:33,489
- Přihlaste se…
- Bene?
1014
01:06:33,572 --> 01:06:35,950
k odběru a vraťte se, protože vám říkám,
1015
01:06:36,659 --> 01:06:40,162
blíží se velký věci. Fakt velký věci.
1016
01:06:40,788 --> 01:06:45,292
Jedním z problémů Facebooku je,
že jako přesvědčovací nástroj
1017
01:06:45,793 --> 01:06:47,920
je to možná nejlepší vynález vůbec.
1018
01:06:48,004 --> 01:06:52,508
Představte si, co by to znamenalo
v rukou diktátora nebo autoritáře.
1019
01:06:53,718 --> 01:06:57,638
Pokud chcete ovládat obyvatele své země,
neexistuje nástroj,
1020
01:06:57,722 --> 01:07:01,308
který by byl tak efektivní jako Facebook.
1021
01:07:04,937 --> 01:07:07,398
Některými z nejhorších důsledků
1022
01:07:07,481 --> 01:07:10,985
zneužití sociálních médií
vládami a škodlivými činiteli
1023
01:07:11,610 --> 01:07:13,696
bylo to, že došlo ke skutečné újmě.
1024
01:07:13,779 --> 01:07:17,658
Asi nejvýznamnějším příkladem je to,
co se stalo v Myanmaru.
1025
01:07:19,160 --> 01:07:22,913
Když se v Myanmaru řekne internet,
lidé si představí Facebook.
1026
01:07:22,997 --> 01:07:25,916
A často se stává,
že když si lidé koupí mobil,
1027
01:07:26,000 --> 01:07:31,505
majitel prodejny za ně do mobilu
stáhne Facebook a založí jim účet.
1028
01:07:31,589 --> 01:07:34,884
A když lidé dostanou svůj telefon,
první, co otevřou,
1029
01:07:34,967 --> 01:07:37,303
a jediné, co otevřít umí, je Facebook.
1030
01:07:38,179 --> 01:07:41,432
Šokující vyšetřování
odhalilo boj Facebooku
1031
01:07:41,515 --> 01:07:43,809
proti nenávistným projevům v Myanmaru.
1032
01:07:46,103 --> 01:07:49,190
Facebook dal armádě
a dalším škodlivým činitelům
1033
01:07:49,273 --> 01:07:51,776
nový způsob manipulace veřejného mínění
1034
01:07:51,859 --> 01:07:55,529
a pomohl podnítit
násilí vůči muslimským Rohingyům,
1035
01:07:55,613 --> 01:07:59,867
které zahrnovalo masové zabíjení,
vypalování vesnic,
1036
01:07:59,950 --> 01:08:03,704
masová znásilnění
a další vážné zločiny proti lidskosti,
1037
01:08:03,788 --> 01:08:07,333
které vedly k tomu,
že 700 000 muslimských Rohingyů
1038
01:08:07,416 --> 01:08:08,375
ze země uprchlo.
1039
01:08:11,170 --> 01:08:16,550
Vysoce motivovaní propagandisté
sice existovali i dřív,
1040
01:08:16,634 --> 01:08:19,762
ale tyto platformy jim umožňují
1041
01:08:19,845 --> 01:08:23,724
šířit manipulativní rétoriku
s ohromnou lehkostí
1042
01:08:23,808 --> 01:08:25,434
a za velmi málo peněz.
1043
01:08:25,518 --> 01:08:27,812
Jestli chci zmanipulovat volby,
1044
01:08:27,895 --> 01:08:30,564
můžu jít do konspirační skupiny
na Facebooku
1045
01:08:30,648 --> 01:08:34,443
a najdu stovku lidí,
kteří věří, že Země je úplně plochá
1046
01:08:34,860 --> 01:08:37,488
a že přistání na Měsíci je jen konspirace,
1047
01:08:37,863 --> 01:08:41,450
a můžu Facebooku říct:
„Dej mi takovýchto uživatelů tisíc.“
1048
01:08:42,118 --> 01:08:46,080
Facebook mi s radostí pošle
tisíc uživatelů, kteří vypadají stejně,
1049
01:08:46,163 --> 01:08:49,208
kterým můžu předložit
další konspirační teorie.
1050
01:08:51,168 --> 01:08:52,837
Prodáno za 3,4 centu.
1051
01:08:53,379 --> 01:08:56,257
- Nové video o EC.
- Další reklama je připravena.
1052
01:08:58,509 --> 01:09:02,138
Algoritmy a manipulativní politici
začínají být skvělí v tom,
1053
01:09:02,221 --> 01:09:04,056
jak nás vyprovokovat,
1054
01:09:04,140 --> 01:09:08,352
daří se jim tvořit falešné zprávy,
které přijímáme jako realitu,
1055
01:09:08,435 --> 01:09:10,813
a matou nás, abychom těm lžím věřili.
1056
01:09:10,896 --> 01:09:14,150
Jako bychom pořád méně ovládali,
kým jsme a čemu věříme.
1057
01:09:31,458 --> 01:09:34,879
…tak si volí strany.
Lži jsou tady a lži jsou tam.
1058
01:09:34,962 --> 01:09:39,967
Aby si mohli udržet moc
a ovládat úplně všechno.
1059
01:09:40,050 --> 01:09:46,390
Mohou ovládat naše myšlenky,
aby si mohli chránit svá tajemství.
1060
01:09:48,475 --> 01:09:50,895
Představte si svět,
kde nikdo nevěří pravdě.
1061
01:09:52,897 --> 01:09:54,940
Všichni věří, že jim vláda lže.
1062
01:09:56,317 --> 01:09:58,110
Všechno je konspirační teorie.
1063
01:09:58,569 --> 01:10:00,946
„Nikomu nevěřím.
Nesnáším druhou stranu.“
1064
01:10:01,280 --> 01:10:02,698
K tomu to vše míří.
1065
01:10:02,781 --> 01:10:06,160
Politická zemětřesení
nadále otřásají Evropou,
1066
01:10:06,243 --> 01:10:08,412
tentokrát v Itálii a Španělsku.
1067
01:10:08,495 --> 01:10:11,999
Tradiční evropská centristická koalice
ztratila většinu
1068
01:10:12,082 --> 01:10:15,002
a krajně pravicové
a levicové populistické strany sílí.
1069
01:10:17,588 --> 01:10:19,048
STŘED
1070
01:10:19,757 --> 01:10:20,591
Zpátky.
1071
01:10:21,675 --> 01:10:22,509
Dobrá, jdeme.
1072
01:10:28,390 --> 01:10:31,268
Tyto účty se záměrně a cíleně snažily
1073
01:10:31,352 --> 01:10:33,896
v Hongkongu zasít politické neshody.
1074
01:10:38,609 --> 01:10:39,610
Tak jo, Bene.
1075
01:10:42,863 --> 01:10:48,410
Jak to vypadá, když zemi živí
pouze Facebook a sociální média?
1076
01:10:48,953 --> 01:10:51,830
Demokracie se rychle rozpadla.
Za šest měsíců.
1077
01:10:51,914 --> 01:10:57,044
Po chaosu v Chicagu
a násilných střetech odpůrců a zastánců…
1078
01:10:58,003 --> 01:11:01,632
Demokracie čelí krizi důvěry.
1079
01:11:01,715 --> 01:11:04,343
Vidíme globální útok na demokracii.
1080
01:11:05,052 --> 01:11:09,723
Většina zasažených zemí jsou země,
kde se konávají demokratické volby.
1081
01:11:10,641 --> 01:11:12,351
Tohle se děje ve velkém.
1082
01:11:12,601 --> 01:11:15,312
Státní činitelé
a lidé s miliony dolarů řeknou:
1083
01:11:15,396 --> 01:11:18,607
„Chci destabilizovat Keňu.
Chci destabilizovat Kamerun.
1084
01:11:18,691 --> 01:11:20,651
Angola? To bude stát jen tolik.“
1085
01:11:20,734 --> 01:11:23,362
V neděli byly v Brazílii mimořádné volby.
1086
01:11:23,445 --> 01:11:25,823
S kampaní poháněnou sociálními médii.
1087
01:11:31,036 --> 01:11:33,956
V technologickém průmyslu
jsme vytvořili nástroje,
1088
01:11:34,039 --> 01:11:37,418
které podkopávají a ničí
fungování společnosti
1089
01:11:37,501 --> 01:11:40,254
v každé zemi najednou, všude.
1090
01:11:40,337 --> 01:11:44,174
Máte to v Německu, Španělsku,
Francii, Brazílii, Austrálii.
1091
01:11:44,591 --> 01:11:49,221
Jedny z nejrozvinutějších národů světa
se hroutí.
1092
01:11:49,305 --> 01:11:50,556
A co mají společného?
1093
01:11:51,974 --> 01:11:52,808
Věříte teď,
1094
01:11:52,891 --> 01:11:55,936
že Facebook ovlivnil
výsledky voleb v roku 2016?
1095
01:11:56,854 --> 01:11:58,188
To je těžká otázka.
1096
01:11:58,897 --> 01:11:59,773
Víte, je to…
1097
01:12:01,275 --> 01:12:04,653
Skutečnost je taková,
že na ně působilo mnoho různých sil.
1098
01:12:04,737 --> 01:12:08,115
Zástupci Facebooku, Twitteru
a Google jsou v Capitol Hill,
1099
01:12:08,198 --> 01:12:12,578
aby druhý den svědčili
o ruském zásahu do voleb v roce 2016.
1100
01:12:12,661 --> 01:12:17,291
Manipulace třetí stranou není hackerství.
1101
01:12:18,500 --> 01:12:21,211
Rusi se nenabourali do Facebooku.
1102
01:12:21,545 --> 01:12:24,965
Použili nástroje, které Facebook vytvořil
1103
01:12:25,049 --> 01:12:30,095
pro legitimní inzerenty a uživatele,
a využili je k nekalému cíli.
1104
01:12:31,972 --> 01:12:34,183
Je to jako válka na dálkové ovládání.
1105
01:12:34,475 --> 01:12:38,979
Jedna země může zmanipulovat druhou,
aniž by překročila její fyzické hranice.
1106
01:12:39,605 --> 01:12:43,317
Vidíme násilné záběry.
Zdá se, že strkají do popelnice…
1107
01:12:43,400 --> 01:12:45,527
Nešlo o to, koho jste chtěli volit.
1108
01:12:46,362 --> 01:12:50,574
Šlo o zasetí naprostého chaosu
a o rozdělení společnosti.
1109
01:12:50,657 --> 01:12:53,035
Tento pochod byl v Huntington Beach…
1110
01:12:53,118 --> 01:12:56,413
Šlo o vytvoření dvou stran,
které se nemohly poslouchat,
1111
01:12:56,497 --> 01:12:59,875
které se už nechtěly poslouchat,
které si už nedůvěřovaly.
1112
01:12:59,958 --> 01:13:02,711
Tohle je město,
kde se odkryla nenávist
1113
01:13:03,295 --> 01:13:05,464
a proměnila se v rasové násilí.
1114
01:13:05,547 --> 01:13:07,591
NAPĚTÍ VE VIRGINII
ZEMŘELI TŘI LIDÉ
1115
01:13:20,145 --> 01:13:20,979
Bene!
1116
01:13:21,605 --> 01:13:22,439
Cassandro!
1117
01:13:22,981 --> 01:13:23,816
- Cass!
- Bene!
1118
01:13:23,899 --> 01:13:25,484
Pojď sem!
1119
01:13:27,486 --> 01:13:31,156
Ruce vzhůru. Na kolena. Teď.
1120
01:13:36,120 --> 01:13:37,204
- Klid…
- Bene!
1121
01:13:37,287 --> 01:13:38,330
Hej! Ruce vzhůru!
1122
01:13:39,623 --> 01:13:41,291
Otoč se. Na zem.
1123
01:13:56,807 --> 01:13:59,643
Chceme ten systém
prodat za nejvyšší nabídku?
1124
01:14:01,437 --> 01:14:05,399
Aby byla demokracie na prodej
a abychom měli dosah na každou mysl,
1125
01:14:05,482 --> 01:14:10,237
mohli vytvořit lež pro konkrétní populaci
a začít kulturní války? Tohle chceme?
1126
01:14:14,825 --> 01:14:16,076
Jsme národem lidí,
1127
01:14:17,286 --> 01:14:18,662
kteří už spolu nemluví.
1128
01:14:19,830 --> 01:14:20,914
Jsme národem lidí,
1129
01:14:20,998 --> 01:14:25,127
kteří se přestali přátelit s lidmi
kvůli tomu, koho ve volbách volili.
1130
01:14:25,836 --> 01:14:28,088
Jsme národem lidí, kteří se izolovali,
1131
01:14:28,172 --> 01:14:30,883
a sledují jen kanály,
které jim dají za pravdu.
1132
01:14:32,259 --> 01:14:36,638
Chci vám vzkázat, že skupinovost nás ničí.
1133
01:14:37,389 --> 01:14:39,016
Trhá naši zemi.
1134
01:14:40,267 --> 01:14:42,686
Takto rozumní dospělí nejednají.
1135
01:14:43,687 --> 01:14:45,355
Když má každý vlastní fakta,
1136
01:14:45,439 --> 01:14:49,276
není třeba dělat kompromisy,
není třeba se scházet.
1137
01:14:49,359 --> 01:14:51,695
Není ani třeba, aby spolu lidé mluvili.
1138
01:14:52,321 --> 01:14:56,617
Potřebujeme mít
nějaké společné chápání reality.
1139
01:14:57,367 --> 01:14:58,410
Jinak nejsme země.
1140
01:14:58,952 --> 01:15:02,998
Dlouhodobým řešením je vytvořit
víc nástrojů s umělou inteligencí,
1141
01:15:03,081 --> 01:15:08,128
které hledají vzory v používání služeb,
což by skutečný člověk nedělal.
1142
01:15:08,212 --> 01:15:11,840
Umožňujeme technologům,
aby to prezentovali jako problém,
1143
01:15:11,924 --> 01:15:13,842
který jsou schopni vyřešit.
1144
01:15:15,135 --> 01:15:16,386
To je lež.
1145
01:15:17,554 --> 01:15:21,099
Lidé o umělé inteligenci mluví,
jako by uměla rozeznat pravdu.
1146
01:15:21,683 --> 01:15:24,102
Umělá inteligence tyto problémy nevyřeší.
1147
01:15:24,186 --> 01:15:27,189
Nedokáže vyřešit
problém s falešnými zprávami.
1148
01:15:28,649 --> 01:15:30,609
Google nemá možnost říct:
1149
01:15:31,109 --> 01:15:36,240
„Je to konspirace? Je to pravda?“
Protože neví, co je pravda.
1150
01:15:36,823 --> 01:15:40,410
Nemá nic,
co pravdu zastupuje lépe než kliknutí.
1151
01:15:41,870 --> 01:15:45,123
Když se neshodneme na pravdě
1152
01:15:45,207 --> 01:15:47,584
nebo na tom, že něco takového existuje,
1153
01:15:48,293 --> 01:15:49,294
je s námi konec.
1154
01:15:49,753 --> 01:15:54,424
Tohle je ten nejhlavnější problém,
protože když se neshodneme na pravdě,
1155
01:15:55,092 --> 01:15:57,803
nebudeme moct vyřešit
žádné další problémy.
1156
01:16:05,435 --> 01:16:07,729
Ukažme mu fotbalový tým Plochá Země.
1157
01:16:07,813 --> 01:16:10,190
Žádné sportovní zprávy. Nereaguje na ně.
1158
01:16:39,970 --> 01:16:42,764
Spousta lidí v Silicon Valley
se hlásí k teorii,
1159
01:16:42,848 --> 01:16:45,225
že stavíme nějaký globální supermozek
1160
01:16:45,309 --> 01:16:48,020
a naši uživatelé
jsou jen zaměnitelné neurony,
1161
01:16:48,103 --> 01:16:49,771
z nichž žádný není důležitý.
1162
01:16:50,230 --> 01:16:53,150
A staví to lidi do zvláštní podřadné role,
1163
01:16:53,233 --> 01:16:56,028
ve které jste
jen malými prvky počítače
1164
01:16:56,111 --> 01:16:58,822
a my vás programujeme
pomocí manipulace chování
1165
01:16:58,905 --> 01:17:02,409
pro účely tohoto velkého mozku,
zatímco na vás nám nezáleží.
1166
01:17:02,492 --> 01:17:06,455
Nedostanete zaplaceno, nebudete bráni
na vědomí, nejste nezávislí.
1167
01:17:06,538 --> 01:17:10,709
Jen vás zmanipulujeme, protože jste uzel,
tak vás musíme naprogramovat,
1168
01:17:10,792 --> 01:17:12,336
protože to se s uzly dělá.
1169
01:17:20,093 --> 01:17:20,927
Ach jo.
1170
01:17:21,928 --> 01:17:25,390
Když přemýšlíte o technologii
jako o existenční hrozbě,
1171
01:17:25,474 --> 01:17:27,726
je to silné tvrzení a…
1172
01:17:29,603 --> 01:17:33,982
je snadné si myslet:
„Fajn, jsem na mobilu…
1173
01:17:35,609 --> 01:17:39,112
scrolluju, klikám, používám ho.
Kde je ta existenční hrozba?
1174
01:17:40,280 --> 01:17:43,950
Na druhé straně obrazovky
je superpočítač namířen na můj mozek,
1175
01:17:44,409 --> 01:17:47,537
přiměl mě zhlédnout další video.
Kde je ta hrozba?“
1176
01:17:54,252 --> 01:17:59,341
Existenční hrozbu
nepředstavuje technologie.
1177
01:18:04,429 --> 01:18:08,850
Jde o to, že technologie probouzí
tu nejhorší stránku společnosti
1178
01:18:09,559 --> 01:18:13,522
a nejhorší stránka společnosti
je existenční hrozbou.
1179
01:18:13,605 --> 01:18:15,899
SENÁT SPOJENÝCH STÁTŮ
1180
01:18:18,819 --> 01:18:24,533
Pokud technologie vyvolává masový chaos,
pobouření, nezdvořilost,
1181
01:18:24,616 --> 01:18:26,326
nedostatek vzájemné důvěry,
1182
01:18:27,452 --> 01:18:30,622
osamělost, odcizenost, vyšší polarizaci,
1183
01:18:30,706 --> 01:18:33,417
víc hackerských zásahů do voleb,
víc populismu,
1184
01:18:33,917 --> 01:18:36,962
větší odvádění pozornosti
od skutečných problémů…
1185
01:18:37,879 --> 01:18:39,423
na vině je jen společnost.
1186
01:18:40,340 --> 01:18:46,388
A společnost se teď nedovede zotavit
1187
01:18:46,471 --> 01:18:48,515
a jen se mění v chaos.
1188
01:18:51,977 --> 01:18:54,938
Týká se to všech,
i když ty produkty nepoužíváte.
1189
01:18:55,021 --> 01:18:57,524
Stali se z nich digitální Frankensteini,
1190
01:18:57,607 --> 01:19:00,068
kteří přetvářejí svět ke svému obrazu,
1191
01:19:00,152 --> 01:19:04,489
ať už jde o duševní zdraví dětí,
o naši politiku a politický diskurz,
1192
01:19:04,573 --> 01:19:07,492
ale nepřevzali
za veřejnou diskusi odpovědnost.
1193
01:19:07,576 --> 01:19:10,579
- Odvíjí se to…
- Kdo je podle vás za to zodpovědný?
1194
01:19:10,662 --> 01:19:13,582
Myslím, že zodpovědnost
by měly nést platformy.
1195
01:19:13,665 --> 01:19:17,627
Když převezmou volební propagaci,
odpovídají za ochranu voleb.
1196
01:19:17,711 --> 01:19:19,838
Když si přisvojí duševní zdraví dětí
1197
01:19:19,921 --> 01:19:22,716
a sobotní pohádky,
odpovídají za jejich ochranu.
1198
01:19:23,717 --> 01:19:27,929
Souboj o udržení pozornosti lidí nezmizí.
1199
01:19:28,388 --> 01:19:31,850
Technologie se nám do životů
budou začleňovat víc, ne méně.
1200
01:19:31,933 --> 01:19:34,603
Umělá inteligence
se zlepší v předvídání toho,
1201
01:19:34,686 --> 01:19:37,105
co nás udrží u obrazovek, nezhorší se.
1202
01:19:38,940 --> 01:19:42,027
Je mi 62 let,
1203
01:19:42,110 --> 01:19:47,365
každou minutou této konverzace stárnu,
ale řeknu vám, že…
1204
01:19:48,700 --> 01:19:54,331
Až tohle všechno vyvrcholí,
asi už budu mrtvý a budu za to vděčný.
1205
01:19:54,790 --> 01:19:59,586
Protože myslím, že toto mě k smrti děsí.
1206
01:20:01,129 --> 01:20:03,048
Vidíte to stejně?
1207
01:20:03,548 --> 01:20:06,927
Nebo reaguji přehnaně na situaci,
o které toho dost nevím?
1208
01:20:09,930 --> 01:20:11,306
Čeho se bojíte nejvíc?
1209
01:20:15,519 --> 01:20:18,480
Myslím, že v nejbližším časovém období…
1210
01:20:19,523 --> 01:20:20,440
občanské války.
1211
01:20:24,444 --> 01:20:29,908
Když bude současný status quo
pokračovat, řekněme, dalších 20 let…
1212
01:20:31,117 --> 01:20:34,579
nejspíš civilizaci
zničíme umíněnou nevědomostí.
1213
01:20:34,663 --> 01:20:37,958
Nejspíš se nám
nepodaří čelit změnám klimatu.
1214
01:20:38,041 --> 01:20:42,087
Nejspíš znehodnotíme světové demokracie,
1215
01:20:42,170 --> 01:20:46,132
takže upadnou
v bizarní autokratickou dysfunkci.
1216
01:20:46,216 --> 01:20:48,426
Nejspíš zničíme globální ekonomiku.
1217
01:20:49,177 --> 01:20:52,013
Nejspíš nepřežijeme.
1218
01:20:52,347 --> 01:20:54,808
Vážně to považuju za existenční.
1219
01:21:02,524 --> 01:21:04,985
Je tohle poslední generace lidí,
1220
01:21:05,068 --> 01:21:08,488
kteří budou vědět,
jaké to bylo, než tato iluze přišla?
1221
01:21:11,074 --> 01:21:14,327
Jak se probudíte z Matrixu,
když nevíte, že v něm jste?
1222
01:21:17,747 --> 01:21:21,167
„Zda to bude utopie, nebo zapomnění
1223
01:21:21,251 --> 01:21:27,424
se ukáže až v poslední chvíli
tohoto nejistého štafetového závodu…“
1224
01:21:27,507 --> 01:21:30,510
Hodně z toho, co říkáme, zní jen jako…
1225
01:21:31,511 --> 01:21:33,680
jednostranná zkáza a beznaděj.
1226
01:21:33,763 --> 01:21:38,059
„Bože, technologie ničí svět
a škodí dětem.“
1227
01:21:38,143 --> 01:21:39,269
A tak to není.
1228
01:21:40,228 --> 01:21:45,567
Je to matoucí,
protože je to zároveň utopie i antiutopie.
1229
01:21:45,942 --> 01:21:50,447
Můžu na mobilu zmáčknout tlačítko
a za 30 vteřin se objeví auto
1230
01:21:50,530 --> 01:21:52,699
a já můžu jet tam, kam potřebuju.
1231
01:21:52,782 --> 01:21:55,619
To je magie. Je to úžasné.
1232
01:21:56,161 --> 01:22:01,499
Tlačítkem „To se mi líbí“ jsme chtěli
ve světě šířit pozitivitu a lásku.
1233
01:22:01,583 --> 01:22:06,296
Představa, že dnes bude nedostatek lajků
u teenagerů způsobovat deprese,
1234
01:22:06,379 --> 01:22:09,883
že to může vést k politické polarizaci,
nás vůbec nenapadla.
1235
01:22:09,966 --> 01:22:12,344
Myslím, že se nerozhodli, že budou zlí.
1236
01:22:13,511 --> 01:22:15,472
Problém je v obchodním modelu.
1237
01:22:15,847 --> 01:22:20,226
Můžete službu ukončit a zničit
1238
01:22:20,310 --> 01:22:24,522
asi 20 miliard dolarů hodnoty
akciových podílů a nechat se zažalovat…
1239
01:22:24,606 --> 01:22:27,108
Ale v praxi nemůžete
vrátit džina do lahve.
1240
01:22:27,192 --> 01:22:29,903
Můžete udělat pár malých úprav,
ale nakonec
1241
01:22:30,487 --> 01:22:34,032
vám musí v každém kvartálu
růst tržby a míra používání.
1242
01:22:34,741 --> 01:22:37,285
Čím je to větší, tím těžší bude to změnit.
1243
01:22:38,495 --> 01:22:43,458
Já vidím skupinu lidí,
kterým svazuje ruce obchodní model,
1244
01:22:43,541 --> 01:22:46,169
ekonomické podněty a nátlak akcionářů,
1245
01:22:46,252 --> 01:22:48,922
což téměř znemožňuje udělat něco jiného.
1246
01:22:49,005 --> 01:22:53,176
Musíme přijmout, že je v pořádku,
že firmy chtějí vydělávat peníze.
1247
01:22:53,259 --> 01:22:57,055
Ale není v pořádku, že neexistují
předpisy, pravidla a konkurence
1248
01:22:57,138 --> 01:23:00,850
a že společnosti
fakticky jednají jako vlády.
1249
01:23:00,934 --> 01:23:03,353
A pak říkají:
„Můžeme se regulovat sami.“
1250
01:23:03,436 --> 01:23:05,563
To je prostě lež. Je to absurdní.
1251
01:23:06,064 --> 01:23:09,150
Finanční pobídky v podstatě řídí svět,
1252
01:23:09,234 --> 01:23:15,573
takže každé řešení tohoto problému
musí finanční pobídky zreorganizovat.
1253
01:23:16,199 --> 01:23:21,329
Firmy nemají fiskální důvod ke změně.
Proto si myslím, že potřebujeme směrnice.
1254
01:23:21,413 --> 01:23:24,416
Telefonická společnost
má mnoho vašich citlivých dat
1255
01:23:24,499 --> 01:23:27,544
a máme spoustu zákonů,
díky kterým jich nezneužije.
1256
01:23:27,627 --> 01:23:31,506
Třeba ohledně digitálního soukromí
nemáme skoro žádné zákony.
1257
01:23:31,589 --> 01:23:34,426
Šlo by zavést
daň ze shromažďování a zpracování dat.
1258
01:23:34,509 --> 01:23:39,723
Stejně, jako vy platíte účty za vodu,
protože se sleduje její spotřeba,
1259
01:23:39,806 --> 01:23:43,226
se budou zdaňovat společnosti
podle datových aktiv, které mají.
1260
01:23:43,309 --> 01:23:47,856
Dává jim to fiskální důvod,
aby nezískaly všechna data na planetě.
1261
01:23:47,939 --> 01:23:50,567
Zákon za těmito věcmi velmi zaostává,
1262
01:23:50,650 --> 01:23:55,864
ale vím, že současná situace
neexistuje proto, aby chránila uživatele,
1263
01:23:55,947 --> 01:23:58,700
ale aby chránila práva a privilegia
1264
01:23:58,783 --> 01:24:01,453
obrovských
a nesmírně bohatých společností.
1265
01:24:02,245 --> 01:24:05,832
Budeme se vždy podřizovat
nejbohatším a nejmocnějším lidem?
1266
01:24:05,915 --> 01:24:07,417
Nebo jednoho dne řekneme:
1267
01:24:07,959 --> 01:24:12,047
„V některých případech
jde o národní zájem,
1268
01:24:12,130 --> 01:24:17,302
v některých případech
jsou zájmy lidí a uživatelů důležitější
1269
01:24:18,011 --> 01:24:21,097
než zisky někoho, kdo už je miliardářem.“
1270
01:24:21,890 --> 01:24:26,144
Tyto trhy podrývají demokracii a svobodu
1271
01:24:26,686 --> 01:24:28,396
a měly by být zakázány.
1272
01:24:29,147 --> 01:24:33,943
Toto není radikální návrh.
Existují trhy, které jsou zakázané.
1273
01:24:34,277 --> 01:24:36,571
Zakazujeme trh s lidskými orgány.
1274
01:24:37,072 --> 01:24:39,491
Zakazujeme trh s lidskými otroky.
1275
01:24:39,949 --> 01:24:44,037
Protože mají nevyhnutelné ničivé následky.
1276
01:24:44,537 --> 01:24:45,830
Žijeme ve světě,
1277
01:24:45,914 --> 01:24:50,001
ve kterém je strom finančně cennější,
když je mrtvý, než když je živý,
1278
01:24:50,085 --> 01:24:53,838
ve kterém je velryba
cennější mrtvá než živá.
1279
01:24:53,922 --> 01:24:58,134
Dokud bude naše ekonomika takto fungovat
a korporace nebudou regulovány,
1280
01:24:58,218 --> 01:25:00,678
budou nadále ničit stromy,
1281
01:25:00,762 --> 01:25:06,101
zabíjet velryby,
těžit ze země suroviny a ropu,
1282
01:25:06,184 --> 01:25:08,394
i když víme, že to ničí planetu
1283
01:25:08,478 --> 01:25:12,148
a že to zanechá
horší svět budoucím generacím.
1284
01:25:12,232 --> 01:25:13,858
Tohle je krátkodobé myšlení
1285
01:25:13,942 --> 01:25:16,694
založené na náboženství
zisku za každou cenu,
1286
01:25:16,778 --> 01:25:21,950
jako by sobecké jednání každé korporace
mělo magicky přinést nejlepší výsledek.
1287
01:25:22,033 --> 01:25:24,494
Životní prostředí to ovlivňuje už dlouho.
1288
01:25:24,577 --> 01:25:29,207
To, co je děsivé
a co nám snad jako civilizaci ukáže,
1289
01:25:29,290 --> 01:25:31,709
jak je tato teorie od začátku chybná,
1290
01:25:31,793 --> 01:25:35,004
je skutečnost,
že stromem a velrybou jsme teď my.
1291
01:25:35,088 --> 01:25:37,048
Těží naši pozornost.
1292
01:25:37,132 --> 01:25:39,134
Korporace z nás mají větší zisk,
1293
01:25:39,217 --> 01:25:41,594
když trávíme čas u obrazovky
1294
01:25:41,678 --> 01:25:45,890
a zíráme na reklamu, než když své životy
žijeme plnohodnotným způsobem.
1295
01:25:45,974 --> 01:25:47,559
A tak vidíme výsledky.
1296
01:25:47,642 --> 01:25:50,687
Vidíme, jak korporace
využívají umělé inteligence,
1297
01:25:50,770 --> 01:25:55,150
aby nás přechytračily a přesměrovaly
naši pozornost k tomu, co chtějí,
1298
01:25:55,233 --> 01:25:59,237
pryč od věcí, které jsou v souladu
s našimi cíli, hodnotami a životy.
1299
01:26:02,991 --> 01:26:04,450
DNEŠNÍ HLAVNÍ MYŠLENKA
1300
01:26:05,535 --> 01:26:06,911
Počítač je pro mě…
1301
01:26:06,995 --> 01:26:10,290
nejmimořádnějším nástrojem,
který jsme kdy vytvořili.
1302
01:26:11,124 --> 01:26:13,877
Je obdobou bicyklu pro mysl.
1303
01:26:15,628 --> 01:26:20,091
Oblast Silicon Valley vznikla
díky myšlence humánní technologie.
1304
01:26:21,050 --> 01:26:25,638
A ztratili jsme ji z dohledu,
protože se začalo dělat to, co je cool,
1305
01:26:25,722 --> 01:26:27,265
místo toho, co je správné.
1306
01:26:27,348 --> 01:26:29,726
Internet byl kdysi divné a šílené místo.
1307
01:26:29,809 --> 01:26:31,394
Byl experimentální.
1308
01:26:31,477 --> 01:26:34,731
Vznikaly na něm kreativní věci,
pořád vznikají,
1309
01:26:34,814 --> 01:26:38,276
ale dnes to spíš připomíná
obří nákupní centrum.
1310
01:26:38,693 --> 01:26:44,157
Říkáte si: „Bože, musí v tom být
přece něco víc než jen tohle.“
1311
01:26:46,701 --> 01:26:48,077
Asi jsem jen optimista.
1312
01:26:48,494 --> 01:26:52,457
Myslím, že můžeme změnit,
jak sociální média vypadají, co znamenají.
1313
01:26:54,083 --> 01:26:57,921
Způsob, jakým technologie funguje,
není daný fyzikálním zákonem.
1314
01:26:58,004 --> 01:27:02,175
Je to výsledek rozhodnutí,
která udělaly lidské bytosti jako já.
1315
01:27:02,759 --> 01:27:05,345
A lidé tyto technologie mohou změnit.
1316
01:27:06,971 --> 01:27:09,974
A otázkou je, zda jsme ochotni přiznat,
1317
01:27:10,475 --> 01:27:15,438
že tyto špatné věci
jsou přímým produktem naší práce.
1318
01:27:21,027 --> 01:27:24,864
Tyto věci jsme postavili my
a je naší povinností je změnit.
1319
01:27:37,210 --> 01:27:42,298
Model získávání pozornosti není způsob,
jakým se chceme chovat k lidským bytostem.
1320
01:27:46,261 --> 01:27:47,804
Je to mnou, nebo…
1321
01:27:49,847 --> 01:27:50,682
Chudák.
1322
01:27:51,391 --> 01:27:53,393
Zdraví společnosti závisí od toho,
1323
01:27:53,476 --> 01:27:56,396
že se tohoto zničujícího
obchodního modelu vzdáme.
1324
01:28:04,696 --> 01:28:08,074
Můžeme požadovat,
aby byly tyto produkty navrženy humánně.
1325
01:28:09,367 --> 01:28:13,454
Můžeme žádat, aby se k nám nechovali
jako ke zdroji, z nějž lze těžit.
1326
01:28:15,164 --> 01:28:18,334
Záměrem by mohlo být:
„Jak uděláme svět lepším?“
1327
01:28:20,461 --> 01:28:23,798
Pokaždé, když se v průběhu dějin
něco zlepšilo,
1328
01:28:23,881 --> 01:28:28,428
stalo se to, protože někdo řekl:
„Tohle je blbost. Umíme to i lépe.“
1329
01:28:29,178 --> 01:28:32,557
Zlepšení mají na svědomí kritici.
1330
01:28:33,141 --> 01:28:35,393
Právě oni jsou skuteční optimisté.
1331
01:28:38,271 --> 01:28:39,105
Ahoj.
1332
01:28:46,279 --> 01:28:51,534
Zní to trochu šíleně, co?
Základní design těchto věcí…
1333
01:28:53,036 --> 01:28:54,704
nejde dobrým směrem.
1334
01:28:55,288 --> 01:28:56,873
Všechno jako celek.
1335
01:28:56,956 --> 01:29:00,626
Takže zní šíleně říct,
že to musíme vše změnit,
1336
01:29:01,169 --> 01:29:02,795
ale právě to musíme udělat.
1337
01:29:04,339 --> 01:29:05,840
Myslíte, že to zvládneme?
1338
01:29:07,383 --> 01:29:08,217
Musíme.
1339
01:29:21,314 --> 01:29:24,776
Působíte velmi optimisticky.
1340
01:29:26,194 --> 01:29:27,195
Tak že zním?
1341
01:29:27,653 --> 01:29:30,114
Nevěřím, že to říkáte,
1342
01:29:30,198 --> 01:29:33,409
protože povídám:
„Mám pocit, že směřujeme k dystopii.
1343
01:29:33,493 --> 01:29:37,497
Řítíme se k dystopii a bude nutný zázrak,
abychom se z toho dostali.“
1344
01:29:37,914 --> 01:29:40,416
A tím zázrakem je samozřejmě
společná vůle.
1345
01:29:41,000 --> 01:29:47,048
Jsem optimistka a myslím, že to vyřešíme,
ale podle mě to potrvá velmi dlouho.
1346
01:29:47,131 --> 01:29:50,385
Protože ne každý si uvědomuje,
že je to problém.
1347
01:29:50,468 --> 01:29:55,890
Myslím, že velkým selháním v oboru je to,
1348
01:29:55,973 --> 01:29:58,643
že skutečně selhává vedení,
1349
01:29:58,726 --> 01:30:02,980
vedeme málo otevřených konverzací
o věcech, které…
1350
01:30:03,439 --> 01:30:08,194
Nejen o úspěchu, ale i o nedokonalostech,
aby někdo mohl vytvořit něco nového.
1351
01:30:08,277 --> 01:30:11,614
Změna tohoto systému nenastane,
1352
01:30:11,697 --> 01:30:14,617
dokud nepřijde obrovský tlak
ze strany veřejnosti.
1353
01:30:14,700 --> 01:30:18,204
Díky těmto rozhovorům
a vyjadřování názorů,
1354
01:30:18,287 --> 01:30:21,082
v některých případech
pomocí těchto technologií,
1355
01:30:21,165 --> 01:30:24,252
můžeme začít změnu,
můžeme začít měnit diskusi.
1356
01:30:24,335 --> 01:30:27,004
Možná to zní divně,
ale je to můj svět, má komunita.
1357
01:30:27,088 --> 01:30:29,715
Necítím nenávist,
nechci ublížit Googlu a Facebooku.
1358
01:30:29,799 --> 01:30:32,635
Chci jejich reformu,
aby nezničily svět. Chápete?
1359
01:30:32,969 --> 01:30:37,723
Odinstaloval jsem tunu aplikací,
které jen plýtvaly mým časem.
1360
01:30:37,807 --> 01:30:42,520
Všechny aplikace sociálních médií, zpráv.
A vypnul jsem upozornění na všem,
1361
01:30:42,603 --> 01:30:45,815
co mi vibrovalo na noze,
pokud to neobsahuje informace,
1362
01:30:45,898 --> 01:30:51,279
které jsou pro mě v tuto chvíli důležité.
Ze stejného důvodu nemám v kapse sušenky.
1363
01:30:51,362 --> 01:30:53,197
Snižte počet upozornění.
1364
01:30:53,281 --> 01:30:54,449
Vypněte upozornění.
1365
01:30:54,532 --> 01:30:55,950
Vypněte všechna upozornění.
1366
01:30:56,033 --> 01:30:58,536
Už nepoužívám Google, používám Qwant,
1367
01:30:58,619 --> 01:31:01,497
který neukládá historii vyhledávání.
1368
01:31:01,581 --> 01:31:04,459
Nikdy nepřijímejte video
doporučené od YouTubu.
1369
01:31:04,542 --> 01:31:07,003
Vždy si vybírejte. I tak lze bojovat.
1370
01:31:07,086 --> 01:31:12,133
Existuje spousta rozšíření Chromu,
která odstraňují doporučení.
1371
01:31:12,216 --> 01:31:14,177
Líbí se mi, že doporučujete něco,
1372
01:31:14,260 --> 01:31:16,220
- co odstraňuje váš výtvor.
- Jo.
1373
01:31:16,929 --> 01:31:21,642
Než něco sdílíte, ověřte to,
prověřte zdroj, vygooglujte si to.
1374
01:31:21,726 --> 01:31:25,104
Když se zdá, že je to navrženo,
aby vám to zasáhlo emoce,
1375
01:31:25,188 --> 01:31:26,314
asi to tak bude.
1376
01:31:26,397 --> 01:31:30,359
V podstatě pomocí klikání volíte.
Kliknutím na clickbait
1377
01:31:30,443 --> 01:31:33,779
tvoříte finanční pobídku,
která tento systém udržuje.
1378
01:31:33,863 --> 01:31:37,909
Ujistěte se, že máte ve svém životě
spoustu druhů různých informací.
1379
01:31:37,992 --> 01:31:40,995
Na Twitteru sleduju lidi,
se kterými nesouhlasím,
1380
01:31:41,078 --> 01:31:44,207
protože chci být vystavena
různým úhlům pohledu.
1381
01:31:44,624 --> 01:31:49,045
Všimněte si, že mnoho lidí z našeho oboru
tato zařízení svým dětem nedává.
1382
01:31:49,128 --> 01:31:51,214
Mé děti sociální média nepoužívají.
1383
01:31:51,964 --> 01:31:54,509
- Je to pravidlo, nebo…
- To je pravidlo.
1384
01:31:55,092 --> 01:31:58,804
Jsme fanatici. Jsme šílení.
1385
01:31:59,305 --> 01:32:05,269
A nedovolíme dětem,
aby u obrazovek trávily jakýkoli čas.
1386
01:32:05,686 --> 01:32:08,564
Vymyslel jsem tři jednoduchá pravidla,
1387
01:32:08,648 --> 01:32:12,235
která rodinám život usnadňují
a jsou odůvodněna výzkumem.
1388
01:32:12,610 --> 01:32:17,281
První pravidlo zní, od určitého času večer
jdou všechna zařízení z ložnice pryč.
1389
01:32:17,365 --> 01:32:20,535
Od jakéhokoli času,
třeba půl hodiny před spaním.
1390
01:32:20,618 --> 01:32:24,038
Druhé pravidlo zní,
do střední školy žádná sociální média.
1391
01:32:24,121 --> 01:32:26,374
Podle mě by to mělo být od 16.
1392
01:32:26,457 --> 01:32:28,960
Druhý stupeň je už tak těžký.
Až na střední.
1393
01:32:29,043 --> 01:32:32,964
A třetí pravidlo zní,
promluvte si s dětmi o množství času.
1394
01:32:33,047 --> 01:32:34,757
Když se jich zeptáte:
1395
01:32:34,840 --> 01:32:39,637
„Kolik hodin denně chceš být na mobilu,
kolik je podle tebe vhodné číslo?“
1396
01:32:39,720 --> 01:32:41,597
Často navrhnou něco rozumného.
1397
01:32:42,056 --> 01:32:44,642
Hele, moc dobře vím,
1398
01:32:44,725 --> 01:32:48,563
že nepřinutím všechny,
aby si smazali účty na sociálních médiích,
1399
01:32:48,646 --> 01:32:50,106
ale pár lidí možná ano.
1400
01:32:50,523 --> 01:32:54,402
A na těch pár lidech
se smazanými účty velmi záleží,
1401
01:32:54,485 --> 01:32:58,406
protože to vytváří prostor pro diskusi,
1402
01:32:58,489 --> 01:33:00,908
protože chci,
aby ve společnosti bylo dost lidí,
1403
01:33:00,992 --> 01:33:05,204
kteří jsou osvobozeni od manipulace
a jsou schopni společenské diskuse,
1404
01:33:05,288 --> 01:33:07,540
která tou manipulací není omezena.
1405
01:33:07,623 --> 01:33:10,126
Tak do toho! Dostaňte se ze systému.
1406
01:33:10,209 --> 01:33:12,753
Jo, smažte to.
Osvoboďte se od těch blbostí.
1407
01:33:13,546 --> 01:33:16,507
Svět je krásný.
Koukejte, je to tam super.
1408
01:33:18,467 --> 01:33:20,052
SLEDUJTE NÁS NA SOCIÁLNÍCH MÉDIÍCH!
1409
01:33:20,136 --> 01:33:21,887
TO BYL VTIP.
1410
01:33:21,971 --> 01:33:27,476
PROMLUVME SI O ŘEŠENÍ.
1411
01:33:32,440 --> 01:33:35,192
Překlad titulků: Červenková Daniela