1 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.MX 2 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.MX 3 00:00:19,340 --> 00:00:22,235 - TikTok se ha convertido en un medio 4 00:00:22,260 --> 00:00:23,700 para que la generación joven 5 00:00:23,740 --> 00:00:25,640 se exprese en todos los sentidos. 6 00:00:27,153 --> 00:00:29,716 Puedes ser tú mismo, estás en casa, estás filmando, 7 00:00:29,740 --> 00:00:31,626 y siempre habrá millones 8 00:00:31,650 --> 00:00:33,076 de personas mirándote. 9 00:00:33,580 --> 00:00:35,242 Me gusta éste. Mirad y veréis. 10 00:00:35,422 --> 00:00:37,294 Nunca sabes cuándo podrías alcanzar la fama. 11 00:00:41,490 --> 00:00:43,076 - Creo que el sueño de todos los jóvenes 12 00:00:43,100 --> 00:00:45,087 es tener éxito en línea. 13 00:00:45,570 --> 00:00:47,366 La plataforma china de redes sociales, 14 00:00:47,390 --> 00:00:50,003 TikTok, cambió la Internet. 15 00:00:51,110 --> 00:00:52,408 Se ha convertido en la 16 00:00:52,432 --> 00:00:54,386 aplicación más popular del mundo. 17 00:00:54,410 --> 00:00:56,206 - Hay videos de pesca, de cocina. 18 00:00:56,230 --> 00:00:58,096 Podéis hacer parodias, cantar, bailar. 19 00:00:58,120 --> 00:01:00,867 Literalmente, todo lo que podáis pensar, TikTok lo tiene. 20 00:01:05,500 --> 00:01:07,347 - Para ellos, ya no es una aplicación en sus teléfonos. 21 00:01:07,371 --> 00:01:08,396 Es su medio de vida. 22 00:01:08,420 --> 00:01:10,206 Es la forma de comunicarse con sus compañeros. 23 00:01:10,230 --> 00:01:11,676 Es la forma en que ven su mundo. 24 00:01:11,700 --> 00:01:14,016 Es una parte a la que creo que no 25 00:01:14,040 --> 00:01:15,313 todos se han adaptado todavía. 26 00:01:17,100 --> 00:01:18,887 - Estamos realmente en riesgo de 27 00:01:18,911 --> 00:01:20,586 tener generaciones de jóvenes 28 00:01:20,610 --> 00:01:23,546 que han formado identidades en respuesta a algo 29 00:01:23,570 --> 00:01:25,475 que una plataforma tecnológica 30 00:01:25,499 --> 00:01:27,723 establece como la nueva normalidad. 31 00:01:29,290 --> 00:01:31,146 Detrás de los brillantes videos de baile, 32 00:01:31,170 --> 00:01:34,713 la plataforma lleva a la gente por caminos peligrosos. 33 00:01:36,170 --> 00:01:37,956 - Quisiera pensar que no habría luchado 34 00:01:37,980 --> 00:01:40,389 con un desorden alimenticio si no hubiese descargado TikTok. 35 00:01:41,880 --> 00:01:43,146 - Mi reclamo hacia TikTok 36 00:01:43,170 --> 00:01:45,166 es que están recolectando grandes 37 00:01:45,190 --> 00:01:47,186 cantidades de datos ilegalmente, 38 00:01:47,210 --> 00:01:49,592 sin el consentimiento de los niños ni de sus padres. 39 00:01:51,030 --> 00:01:52,786 - Si miras TikTok de forma aislada, 40 00:01:52,810 --> 00:01:54,046 parece inofensiva. 41 00:01:54,070 --> 00:01:56,916 Pero en realidad forma parte de un contexto mucho más amplio 42 00:01:56,940 --> 00:01:59,461 de recopilación de datos, de inteligencia artificial, 43 00:01:59,486 --> 00:02:01,029 y un verdadero esfuerzo por parte de los chinos 44 00:02:01,053 --> 00:02:04,523 para consolidar su influencia en la región y en todo el mundo. 45 00:02:06,189 --> 00:02:08,595 - Esta noche en Four Corners, TikTok. 46 00:02:08,620 --> 00:02:11,296 En una investigación conjunta con Hack en Triple J, 47 00:02:11,320 --> 00:02:13,096 bajaremos por la madriguera del conejo 48 00:02:13,120 --> 00:02:15,216 para revelar el lado oscuro de esta aplicación. 49 00:02:15,240 --> 00:02:17,726 Cómo la plataforma censura los contenidos políticos 50 00:02:17,750 --> 00:02:20,086 y recopila datos de los niños. 51 00:02:20,110 --> 00:02:23,926 Y cómo su potente algoritmo expone a las personas 52 00:02:23,950 --> 00:02:26,813 a la desinformación y a contenido peligroso. 53 00:02:35,700 --> 00:02:37,496 - Hola, mi nombre es Rory Eliza. 54 00:02:37,520 --> 00:02:38,965 Y, ¿entonces qué? 55 00:02:40,456 --> 00:02:42,116 ¿Qué hacéis? 56 00:02:42,140 --> 00:02:43,888 - Soy una TikToker a tiempo completo. 57 00:02:53,290 --> 00:02:54,666 Me despierto por la mañana, 58 00:02:54,690 --> 00:02:55,986 tal vez a las ocho o a las nueve. 59 00:02:56,010 --> 00:02:57,266 Reviso mi teléfono 60 00:02:57,290 --> 00:02:58,961 para comprobar si mis videos han ido bien, 61 00:02:58,986 --> 00:03:00,584 RORY ELIZA @roryeliza, 5,1MILLONES DE SEGUIDORES 62 00:03:00,608 --> 00:03:02,282 o ver cómo reaccionan mis seguidores 63 00:03:02,307 --> 00:03:04,358 al contenido que acabo de publicar. 64 00:03:07,100 --> 00:03:09,780 Honestamente, en TikTok recibo mucho amor. 65 00:03:09,810 --> 00:03:12,176 Es muy extraño, porque es mi mayor plataforma, 66 00:03:12,200 --> 00:03:13,776 con 5 millones de seguidores. 67 00:03:13,800 --> 00:03:16,366 Es una locura pensar que esos 5 millones 68 00:03:16,390 --> 00:03:18,416 no son sólo un número. 69 00:03:18,440 --> 00:03:20,256 Si realmente lo pensáis, son 5 millones de personas 70 00:03:20,280 --> 00:03:21,643 que pulsaron el botón de seguiros. 71 00:03:23,270 --> 00:03:24,532 Todos son muy amables y 72 00:03:24,556 --> 00:03:25,696 son como vuestra familia. 73 00:03:25,720 --> 00:03:27,523 Es raro, no conocierais a esa gente 74 00:03:27,547 --> 00:03:29,256 pero ellas saben tanto de ti 75 00:03:29,280 --> 00:03:31,521 que os tratan como a un miembro de la familia. 76 00:03:43,790 --> 00:03:46,803 Y en ese sentido, bienvenida la nueva Rory Eliza. 77 00:03:47,940 --> 00:03:49,836 Rory Eliza es una de los millones 78 00:03:49,860 --> 00:03:51,267 de jóvenes australianos que 79 00:03:51,279 --> 00:03:53,066 prácticamente graban cada momento 80 00:03:53,090 --> 00:03:55,706 de sus vidas para hacerse famosos en TikTok. 81 00:03:55,730 --> 00:03:57,506 - Preparaos conmigo para una cita. 82 00:03:57,530 --> 00:03:58,956 Elegiré un atuendo, venga. 83 00:03:58,980 --> 00:04:00,726 Transformación, vale. 84 00:04:00,750 --> 00:04:02,526 Creo que el sueño de todos los jóvenes 85 00:04:02,550 --> 00:04:04,816 es, ya sabéis, tener éxito en internet. 86 00:04:04,840 --> 00:04:08,156 Y definitivamente creo que hay un grupo 87 00:04:08,180 --> 00:04:10,164 de ellos que quieren ser influencers 88 00:04:10,189 --> 00:04:11,947 porque es algo así como lo que está de moda ahorita. 89 00:04:11,971 --> 00:04:13,574 Y pienso que es por TikTok. 90 00:04:14,380 --> 00:04:15,740 TikTok ha sido descargada 91 00:04:15,750 --> 00:04:18,703 más de 3.000 millones de veces en todo el mundo. 92 00:04:21,750 --> 00:04:23,757 Se ha convertido en un fenómeno cultural. 93 00:04:23,782 --> 00:04:24,813 Tengo 21 años y acabo de 94 00:04:24,838 --> 00:04:26,163 aprender a lavar mi propia ropa. 95 00:04:26,250 --> 00:04:28,576 Algunos tomates y algo de queso. 96 00:04:28,600 --> 00:04:31,360 Tío, no, tenéis que iros como, oye. 97 00:04:32,420 --> 00:04:33,593 Oh, vale, vale. Vale. 98 00:04:38,510 --> 00:04:40,610 Todo es cuestión de volverse viral. 99 00:04:41,890 --> 00:04:43,446 Un baile, iniciado por alguien 100 00:04:43,470 --> 00:04:46,178 en la sala de su casa y subido a TikTok, 101 00:04:47,760 --> 00:04:49,916 puede convertirse en un estadio lleno de gente, 102 00:04:49,940 --> 00:04:51,626 interpretándolo al unísono. 103 00:04:58,205 --> 00:05:00,136 - Me gusta lo creativo que podéis ser con esto. 104 00:05:00,160 --> 00:05:02,333 Es muy divertido ir a la aplicación 105 00:05:02,357 --> 00:05:04,178 y simplemente expresar vuestro verdadero yo. 106 00:05:14,010 --> 00:05:16,666 Rory comenzó a publicar sketches cómicos en TikTok 107 00:05:16,690 --> 00:05:18,193 y sus seguidores se multiplicaron. 108 00:05:19,130 --> 00:05:21,867 - No os preocupéis. Os escanearé ese ahora mismo. 109 00:05:22,740 --> 00:05:24,476 Este fue su primer video viral. 110 00:05:24,500 --> 00:05:26,786 Consiguió casi 14 millones de visitas. 111 00:05:31,090 --> 00:05:33,677 - ¿Qué tal un poco de pato pekinés? 112 00:05:33,910 --> 00:05:36,856 Vale, pero en realidad no tenemos el pato pekinés. 113 00:05:36,880 --> 00:05:38,626 Pero tenemos este ganso furtivo. 114 00:05:38,650 --> 00:05:40,142 Qué nombre más raro. 115 00:05:40,166 --> 00:05:42,796 Es bastante normal para un libro. 116 00:05:42,820 --> 00:05:46,056 En 2019, Rory decidió dejar la escuela 117 00:05:46,080 --> 00:05:48,206 para convertirse en una TikToker a tiempo completo. 118 00:05:48,630 --> 00:05:50,663 - Esperad, esperad, ¿esto es una biblioteca? 119 00:05:51,550 --> 00:05:53,790 La escuela era una de esas cosas que no se me daban bien. 120 00:05:54,360 --> 00:05:57,196 Decidí dejarla cuando estaba en el 11º año 121 00:05:57,220 --> 00:05:58,576 Realmente nunca estaba allí, ya sabéis. 122 00:05:58,600 --> 00:06:00,376 Siempre estaba en Sydney haciendo reuniones 123 00:06:00,400 --> 00:06:02,566 o presentaciones para TikTok. 124 00:06:02,590 --> 00:06:04,616 Simplemente no estaba allí. Y cuando iba 125 00:06:04,640 --> 00:06:06,516 no tenía ni idea de lo que estábamos haciendo, 126 00:06:06,540 --> 00:06:09,133 porque, ya sabéis, había estado fuera durante un montón de días. 127 00:06:10,378 --> 00:06:12,966 No os preocupéis. Gracias por venir a nuestra biblioteca. 128 00:06:12,991 --> 00:06:14,842 - A la escuela podéis volver y hacerla en la TAFE. 129 00:06:14,866 --> 00:06:15,938 Podéis regresar en cualquier 130 00:06:15,962 --> 00:06:17,137 momento y hacerla si lo necesitáis. 131 00:06:17,161 --> 00:06:19,146 Pero esta oportunidad, puede que nunca volvías a tenerla. 132 00:06:19,170 --> 00:06:21,296 Por eso creímos que valía la pena que dejara la escuela 133 00:06:21,320 --> 00:06:22,891 y aprovechara todas las oportunidades de negocio 134 00:06:22,915 --> 00:06:24,019 mientras estaban allí para ella. 135 00:06:24,043 --> 00:06:25,150 - No os preocupéis en absoluto. 136 00:06:25,174 --> 00:06:26,609 Gracias por venir a nuestra biblioteca. 137 00:06:26,633 --> 00:06:28,688 - ¿Qué os parece el hecho de que 5 millones de personas estén 138 00:06:28,712 --> 00:06:30,486 viendo vuestros contenidos? 139 00:06:30,510 --> 00:06:31,967 - Es increíble. Incluso, cuando sale 140 00:06:31,991 --> 00:06:33,487 en vivo. Hubo una vez que estaba en vivo 141 00:06:33,511 --> 00:06:34,671 DANIEL - PADRE DE RORY 142 00:06:34,696 --> 00:06:36,411 en su habitación y había 22.000 personas mirándola, 143 00:06:36,435 --> 00:06:39,303 y mi mente se remontó a un concierto de Elton John aquí. 144 00:06:39,327 --> 00:06:40,796 Ella tenía más gente mirándola 145 00:06:40,820 --> 00:06:42,476 que la que había en el concierto de Elton John. 146 00:06:42,500 --> 00:06:44,266 Fue algo descabellado lo que sucedió 147 00:06:44,290 --> 00:06:46,376 en la habitación de mi hija en ese momento. 148 00:06:46,400 --> 00:06:49,889 Vale, fue un poco diferente. 149 00:06:50,152 --> 00:06:51,392 PREPÁRAOS CONMIGO PARA CELEBRAR 150 00:06:54,170 --> 00:06:56,306 - Grandes marcas de moda y cosmética 151 00:06:56,330 --> 00:06:59,166 comenzaron a notar el éxito de Rory en TikTok 152 00:06:59,190 --> 00:07:01,593 y quisieron aprovechar su creciente audiencia. 153 00:07:07,189 --> 00:07:09,346 Las empresas patrocinan a influencers como ella 154 00:07:09,370 --> 00:07:13,123 y le pagan a TikTok para anunciarse en la plataforma. 155 00:07:14,720 --> 00:07:16,204 Esto es fundamental para el lucrativo 156 00:07:16,216 --> 00:07:17,593 modelo de negocio de la aplicación. 157 00:07:19,150 --> 00:07:21,266 - En esta industria, siendo un influencer, 158 00:07:21,290 --> 00:07:23,476 tenéis que presentaros como una marca. 159 00:07:23,500 --> 00:07:25,606 Ya no somos realmente personas, somos marcas. 160 00:07:25,630 --> 00:07:26,966 Vendemos productos para marcas, 161 00:07:26,990 --> 00:07:28,790 así que tenéis que lucir el papel. 162 00:07:32,110 --> 00:07:34,534 El dinero que te genera es suficiente para vivir. 163 00:07:34,558 --> 00:07:36,875 Es una cantidad bastante justa. 164 00:07:36,900 --> 00:07:38,456 Estoy más o menos en el rango medio-alto 165 00:07:38,480 --> 00:07:39,966 de ingresos en Australia. 166 00:07:39,990 --> 00:07:41,589 Así que vale. Muy, muy bueno. 167 00:07:42,640 --> 00:07:44,286 - Venga, es difícil no estar celoso a veces, 168 00:07:44,310 --> 00:07:46,056 porque, miráis nuestras vidas, 169 00:07:46,080 --> 00:07:48,630 nos levantamos, vamos a trabajar y volvemos a casa. 170 00:07:49,945 --> 00:07:51,286 Mientras que ella puede ganar en minutos 171 00:07:51,310 --> 00:07:53,736 un dinero que a nosotros nos puede llevar días ganar. 172 00:07:53,761 --> 00:07:54,807 HABLANDO EN PROFUNDIDAD 173 00:07:54,831 --> 00:07:56,566 - Me encontré conduciendo y llorando, 174 00:07:56,590 --> 00:07:58,706 teniendo un colapso total. 175 00:07:58,730 --> 00:07:59,896 Y me encontré teniendo 176 00:07:59,920 --> 00:08:02,246 algunos pensamientos bastante desagradables y… 177 00:08:02,270 --> 00:08:05,470 - Rory comparte su vida con 5 millones de personas. 178 00:08:05,495 --> 00:08:07,309 Incluso en sus momentos más bajos. 179 00:08:07,406 --> 00:08:09,052 - ¿Por qué estoy destinada a estar en esta tierra? 180 00:08:09,076 --> 00:08:11,666 ¿Por qué no le gusto a nadie? 181 00:08:11,690 --> 00:08:13,303 ¿Por qué no tengo amigos? 182 00:08:14,670 --> 00:08:17,499 Pero la mayoría de los días se siente muy sola. 183 00:08:17,523 --> 00:08:19,290 - Vale. Existe un nombre antiguo para, 184 00:08:19,315 --> 00:08:22,181 Definitivamente, estar lejos de la gente es solitario. 185 00:08:22,206 --> 00:08:24,142 Grabo cuatro videos al día. 186 00:08:24,167 --> 00:08:25,786 Esas son unas buenas tres horas de mi día. 187 00:08:25,810 --> 00:08:27,091 Y luego, me quedan otras ocho horas 188 00:08:27,115 --> 00:08:28,461 y pienso, ¿qué diablos voy a hacer 189 00:08:28,486 --> 00:08:30,262 el resto del día? No puedo llamar a mis colegas 190 00:08:30,286 --> 00:08:31,457 y decirles "¿quieren salir por ahí?" 191 00:08:31,481 --> 00:08:32,616 porque ellos están en sus trabajos. 192 00:08:32,640 --> 00:08:34,346 Así que definitivamente, a veces uno se siente solo. 193 00:08:34,370 --> 00:08:35,763 Y, ya sabéis, en ocasiones, si lees 194 00:08:35,788 --> 00:08:38,044 los comentarios de odio y la carga de estrés, 195 00:08:38,069 --> 00:08:39,426 puede ser mucho para vuestro cuerpo 196 00:08:39,450 --> 00:08:41,896 y os sentís abrumado y solo. 197 00:08:41,920 --> 00:08:43,957 Así que eso también puede llevar a la depresión. 198 00:08:43,982 --> 00:08:45,352 - Catherine no ha tenido ninguna pregunta. 199 00:08:45,376 --> 00:08:47,993 Me alegro de volver contigo, pero mantengamos la cortesía. 200 00:08:48,018 --> 00:08:49,018 ¿Andrew? 201 00:08:50,900 --> 00:08:51,900 Catherine. 202 00:08:52,528 --> 00:08:54,208 POV TENEIS 6 AÑOS 203 00:08:55,900 --> 00:08:58,146 Con la gente atrapada en casa por la pandemia, 204 00:08:58,170 --> 00:08:59,936 desesperados por entretenimiento, 205 00:08:59,960 --> 00:09:01,925 TikTok se convirtió en la aplicación 206 00:09:01,937 --> 00:09:03,700 más descargada del mundo en 2020. 207 00:09:07,050 --> 00:09:09,819 Y ha manteniendo ese título desde entonces. 208 00:09:13,212 --> 00:09:17,456 - En 2020, TikTok experimentó en Australia el mismo tipo 209 00:09:17,480 --> 00:09:19,703 de auge que en otras partes del mundo. 210 00:09:23,320 --> 00:09:24,603 Se estima que para octubre de ese año 211 00:09:24,615 --> 00:09:26,014 había 2,5 millones de usuarios en TikTok, 212 00:09:26,038 --> 00:09:27,076 lo que supone un crecimiento del 213 00:09:27,088 --> 00:09:28,160 50% respecto a principios de año. 214 00:09:28,184 --> 00:09:30,064 DR BONDY KAYE - INVESTIGADOR DE MEDIOS DIGITALES 215 00:09:41,903 --> 00:09:43,563 De las aplicaciones populares de redes sociales, 216 00:09:43,587 --> 00:09:45,585 TikTok es la más adictiva. 217 00:09:46,070 --> 00:09:47,505 Los datos publicitarios filtrados 218 00:09:47,517 --> 00:09:49,006 de TikTok muestran que los usuarios 219 00:09:49,030 --> 00:09:50,654 invierten diariamente un promedio 220 00:09:50,666 --> 00:09:52,253 de hora y media en la aplicación. 221 00:09:54,310 --> 00:09:55,558 - Sabéis, en un momento son como las 222 00:09:55,570 --> 00:09:56,728 8:00 PM y estoy mirando y mirando, 223 00:09:56,752 --> 00:09:59,256 y después miráis el reloj y ya son las 2:00 AM. 224 00:09:59,474 --> 00:10:01,436 Y me pregunto, ¿a dónde demonios se fueron esas horas? 225 00:10:01,460 --> 00:10:03,420 Es porque esta página "Para ti" es muy adictiva. 226 00:10:03,430 --> 00:10:05,214 Es muy acertada. 227 00:10:09,188 --> 00:10:11,988 El algoritmo de TikTok es su activo más valioso. 228 00:10:14,650 --> 00:10:17,336 Está diseñado para determinar vuestros intereses 229 00:10:17,360 --> 00:10:19,446 y enviaros contenidos personalizados, 230 00:10:19,470 --> 00:10:22,126 para manteneros en la aplicación el mayor tiempo posible. 231 00:10:22,150 --> 00:10:23,226 - Iba a visitar a mi mamá, 232 00:10:23,250 --> 00:10:25,266 y fui a arreglarme el pelo, sólo para... 233 00:10:25,290 --> 00:10:28,696 - TikTok funciona recomendándote contenidos 234 00:10:28,720 --> 00:10:31,016 de acuerdo a vuestra actividad en la aplicación. 235 00:10:31,040 --> 00:10:33,546 Así que, mientras más os desplacéis por ella, 236 00:10:33,570 --> 00:10:35,216 las recomendaciones estarán mejor adaptadas 237 00:10:35,240 --> 00:10:36,823 a vuestros intereses específicos. 238 00:10:37,890 --> 00:10:40,846 En lugar de seleccionar el contenido que queréis ver, 239 00:10:40,870 --> 00:10:43,271 como lo haríais en YouTube o Netflix, 240 00:10:43,640 --> 00:10:47,256 en TikTok básicamente accedéis al contenido a través de una 241 00:10:47,280 --> 00:10:49,225 fuente principal llamada página "Para ti", 242 00:10:49,490 --> 00:10:51,976 que en esencia se trata de un flujo de videos seleccionados 243 00:10:52,000 --> 00:10:55,306 algorítmicamente, que se desplaza sin cesar y 244 00:10:55,330 --> 00:10:57,583 se actualiza cada vez que se abre la aplicación. 245 00:10:58,987 --> 00:11:00,736 En cuanto os registráis en TikTok, 246 00:11:00,760 --> 00:11:02,516 la aplicación comienza a recopilar vuestros datos 247 00:11:02,540 --> 00:11:05,716 ubicación, sexo y edad, 248 00:11:05,740 --> 00:11:08,766 y también vuestros datos faciales, para saber quién sois 249 00:11:08,790 --> 00:11:10,903 y qué tipo de videos queréis ver. 250 00:11:11,770 --> 00:11:13,571 - vuestra cara es una forma de información biométrica, 251 00:11:13,595 --> 00:11:17,343 y puede ser analizado para distinguir una variedad 252 00:11:17,368 --> 00:11:19,415 de rasgos demográficos y de personalidad. 253 00:11:19,440 --> 00:11:20,633 DR NIELS WOUTERS - INVESTIGADOR DE 254 00:11:20,645 --> 00:11:21,885 LA INTERACCIÓN PERSONA-ORDENADOR 255 00:11:24,630 --> 00:11:26,376 Cada vez que hacéis un video o utilizáis un filtro 256 00:11:26,400 --> 00:11:27,789 en la aplicación, TikTok 257 00:11:27,801 --> 00:11:29,786 recopila vuestros datos faciales. 258 00:11:29,810 --> 00:11:31,876 Inclusive puede acceder a las fotos y 259 00:11:31,888 --> 00:11:33,856 videos guardados en vuestro teléfono 260 00:11:33,880 --> 00:11:35,970 aunque no se estén utilizando en la plataforma. 261 00:11:36,720 --> 00:11:38,772 Para entender cómo una aplicación 262 00:11:38,784 --> 00:11:40,726 como ésta interpreta esos datos, 263 00:11:40,750 --> 00:11:42,696 los científicos de Melbourne han desarrollado 264 00:11:42,720 --> 00:11:44,746 lo que se llama un espejo biométrico. 265 00:11:45,200 --> 00:11:46,906 - Entonces, el espejo biométrico, por ejemplo, 266 00:11:46,930 --> 00:11:49,526 se entrena mediante inteligencia artificial 267 00:11:49,550 --> 00:11:51,506 para distinguir qué tan inteligente, 268 00:11:51,530 --> 00:11:54,636 atractivo, extraño, responsable 269 00:11:54,660 --> 00:11:57,763 y emocionalmente inestable sois. 270 00:11:58,940 --> 00:12:00,406 Lo interesante es, por supuesto, 271 00:12:00,430 --> 00:12:02,796 que este espejo basa sus suposiciones 272 00:12:02,828 --> 00:12:05,155 en una única imagen instantánea de vuestra cara. 273 00:12:05,180 --> 00:12:07,976 Así que todas las suposiciones se generan en base 274 00:12:08,000 --> 00:12:10,646 a la apariencia exacta de vuestra cara 275 00:12:10,670 --> 00:12:13,693 en ese microsegundo específico en que se tomó la foto. 276 00:12:14,874 --> 00:12:17,396 El algoritmo de TikTok podría leer vuestra cara 277 00:12:17,420 --> 00:12:19,946 y pensar que estáis lidiando 278 00:12:19,970 --> 00:12:22,496 con un problema de salud mental importante. 279 00:12:22,520 --> 00:12:25,386 Es posible que os presenten videos 280 00:12:25,410 --> 00:12:27,766 creados por usuarios que atraviesan 281 00:12:27,790 --> 00:12:29,986 una situación similar en ese momento, 282 00:12:30,010 --> 00:12:31,859 y realmente os podría crearte 283 00:12:31,871 --> 00:12:34,116 una visión muy colorida del mundo 284 00:12:34,140 --> 00:12:35,556 en la que es realmente difícil lidiar 285 00:12:35,580 --> 00:12:37,756 con vuestro problema de salud mental en ese momento. 286 00:12:45,020 --> 00:12:47,676 Lauren Hemings está estudiando para ser comadrona. 287 00:12:47,700 --> 00:12:49,584 Solía pasar sus descansos universitarios 288 00:12:49,608 --> 00:12:51,305 desplazándose por TikTok. 289 00:12:51,920 --> 00:12:53,936 - Creo que fue el aburrimiento de la cuarentena 290 00:12:53,960 --> 00:12:56,903 lo que me motivó a descargarlo. 291 00:12:57,990 --> 00:12:59,316 Realmente era una esperanza bastante 292 00:12:59,340 --> 00:13:01,416 inocente de conseguir una buena risa. 293 00:13:01,440 --> 00:13:03,466 Ya sabéis, conseguir videos divertidos 294 00:13:03,490 --> 00:13:05,673 y ver lo que había en eso. 295 00:13:06,910 --> 00:13:08,176 Nunca tuve la intención 296 00:13:08,200 --> 00:13:09,756 de hacer TikToks o compartirlos. 297 00:13:09,780 --> 00:13:13,085 Era algo más bien desde el punto de vista de un espectador. 298 00:13:13,860 --> 00:13:15,086 Lauren comenzó a seguir 299 00:13:15,110 --> 00:13:17,719 a una popular influencer de fitness en la aplicación. 300 00:13:20,140 --> 00:13:24,476 - Hay una mujer que tenía un tipo de cuerpo bastante similar 301 00:13:24,500 --> 00:13:28,526 al mío y había expresado que era infeliz 302 00:13:28,550 --> 00:13:29,633 con ese tipo de cuerpo, 303 00:13:30,810 --> 00:13:31,981 y que durante la cuarentena había 304 00:13:31,993 --> 00:13:33,176 empezado a controlar las calorías, 305 00:13:33,200 --> 00:13:36,043 y había perdido una cantidad muy, muy significativa de peso. 306 00:13:36,204 --> 00:13:38,270 VERANO 2021 HIIT BABY ¡VAMOS! 307 00:13:39,300 --> 00:13:41,346 Entonces, el algoritmo inundó su feed 308 00:13:41,370 --> 00:13:44,277 con contenido que promovía la pérdida de peso poco saludable. 309 00:13:44,441 --> 00:13:45,441 DÍA 16 310 00:13:46,356 --> 00:13:47,364 - Ya no veía videos de bailes 311 00:13:47,376 --> 00:13:48,556 divertidos ni nada por el estilo. 312 00:13:48,580 --> 00:13:50,776 Estaba enfocada por completo 313 00:13:50,800 --> 00:13:54,903 en ese objetivo del fitness y el estilo de vida saludable. 314 00:13:55,015 --> 00:13:56,152 MANTENERLA 30 SEGUNDOS 315 00:13:56,177 --> 00:13:57,451 ELEVACIONES DE PIERNAS: 30 DE CADA LADO 316 00:13:57,475 --> 00:13:58,779 PASTA CREMOSA DE POLLO: 529 CALORÍAS 317 00:13:58,803 --> 00:14:01,406 - TikTok empujó a Lauren a la tendencia popular 318 00:14:01,430 --> 00:14:03,401 de hacer un seguimiento meticuloso de 319 00:14:03,413 --> 00:14:05,343 las calorías diarias que se consumen. 320 00:14:06,330 --> 00:14:07,921 Algo que los investigadores advierten 321 00:14:07,933 --> 00:14:09,493 que promueve el desorden alimenticio. 322 00:14:09,518 --> 00:14:10,693 202 CALORÍAS 323 00:14:10,890 --> 00:14:12,786 El hashtag "Lo que como en un día" 324 00:14:12,810 --> 00:14:15,705 tiene más de 7 mil millones de visitas en TikTok. 325 00:14:15,730 --> 00:14:17,001 GRAN ENSALADA 326 00:14:17,204 --> 00:14:18,496 PAPAS FRITAS QUE ESTABAN MUY RICAS 327 00:14:18,520 --> 00:14:20,096 - Eso se convirtió en una obsesión 328 00:14:20,120 --> 00:14:23,536 y sentía que no podía comer nada 329 00:14:23,560 --> 00:14:26,566 sin saber cuántas calorías contenía 330 00:14:26,590 --> 00:14:28,836 y sin cumplir, ya sabéis, mi número objetivo 331 00:14:28,860 --> 00:14:30,376 de calorías a lo largo del día. 332 00:14:30,400 --> 00:14:32,556 Hubo unos meses en los que no puse nada 333 00:14:32,580 --> 00:14:34,713 en mi boca que no hubiese pesado antes. 334 00:14:34,974 --> 00:14:36,166 PARTERÍA 335 00:14:36,190 --> 00:14:38,396 Cuatro meses después de descargar TikTok, 336 00:14:38,420 --> 00:14:40,676 Lauren admitió ante su familia y amigos 337 00:14:40,700 --> 00:14:42,377 que tenía un trastorno alimenticio. 338 00:14:43,040 --> 00:14:44,846 - Quisiera pensar que no habría luchado 339 00:14:44,870 --> 00:14:47,196 con un desorden alimenticio si no hubiese descargado TikTok. 340 00:14:47,220 --> 00:14:48,276 Creo que TikTok fue el 341 00:14:48,300 --> 00:14:51,706 principal contribuyente al desarrollo de eso. 342 00:14:51,733 --> 00:14:53,486 ¿ALGUIEN TIENE ALGÚN CONSEJO PARA EL AYUNO DE AGUA? 343 00:14:53,510 --> 00:14:56,196 Los usuarios jóvenes recurren cada vez más a TikTok 344 00:14:56,220 --> 00:14:58,359 para encontrar y difundir información 345 00:14:58,371 --> 00:15:00,126 sobre cómo restringir la comida 346 00:15:00,151 --> 00:15:02,673 y ocultarle a sus familias sus desórdenes alimenticios. 347 00:15:02,698 --> 00:15:04,308 ¿ALGUIEN QUIERE HACER UN AYUNO DE 3 DÍAS CONMIGO? 348 00:15:04,332 --> 00:15:06,956 - Lo que hacen es compartir contenidos 349 00:15:06,980 --> 00:15:10,216 de lo que han pasado y hecho durante el día 350 00:15:10,240 --> 00:15:11,953 en la fascinación por adelgazar. 351 00:15:12,605 --> 00:15:14,091 Comparten recetas. 352 00:15:14,116 --> 00:15:15,896 DR SUKU SUKUNESAN - INVESTIGADOR DE MEDIOS SOCIALES 353 00:15:15,920 --> 00:15:17,699 Comparten planes de dieta. 354 00:15:17,724 --> 00:15:19,995 Comparten cómo necesitas ser disciplinado. 355 00:15:20,020 --> 00:15:23,660 Y alguien vulnerable y desesperado 356 00:15:23,690 --> 00:15:26,326 seguiría el consejo de cualquiera. 357 00:15:26,350 --> 00:15:28,346 Ninguno de estos consejos es realmente bueno. 358 00:15:28,370 --> 00:15:31,436 Algunos son cosas como: lamed una calabaza 359 00:15:31,460 --> 00:15:33,851 para vuestro almuerzo, pero no la comáis. 360 00:15:34,640 --> 00:15:37,013 Bebed un litro de agua y estaréis bien. 361 00:15:37,940 --> 00:15:40,086 - Estaba súper indecisa de entrar en TikTok 362 00:15:40,110 --> 00:15:41,846 porque había oído que era un espacio muy malo 363 00:15:41,870 --> 00:15:43,400 para las personas con trastornos alimenticios. 364 00:15:43,424 --> 00:15:45,045 Porque el algoritmo lo sabe todo, 365 00:15:45,070 --> 00:15:46,956 y entonces seleccionaría vuestro contenido 366 00:15:46,980 --> 00:15:48,660 para que te intereses en ese tipo de cosas. 367 00:15:49,480 --> 00:15:51,946 Claire Benstead ha estado entrando y saliendo del hospital 368 00:15:51,970 --> 00:15:54,544 por anorexia, durante más de cinco años. 369 00:15:54,630 --> 00:15:56,386 Decidió descargar TikTok 370 00:15:56,410 --> 00:15:58,322 para encontrar apoyo y promocionar 371 00:15:58,334 --> 00:15:59,653 su negocio de zarcillos. 372 00:16:00,130 --> 00:16:01,776 - Quieres ese apoyo 373 00:16:01,800 --> 00:16:03,366 porque es una enfermedad muy aislante. 374 00:16:03,390 --> 00:16:04,806 Y hay mucha gente en mi vida 375 00:16:04,830 --> 00:16:06,966 que no entiende ni comprende eso. 376 00:16:06,990 --> 00:16:09,326 Claire dice que el algoritmo de TikTok identificó 377 00:16:09,350 --> 00:16:11,596 que tenía un trastorno alimenticio. Ella notó 378 00:16:11,620 --> 00:16:15,340 un cambio inmediato en el tipo de videos de vuestro contenido. 379 00:16:15,365 --> 00:16:16,726 - Pasó de ser, ya sabéis, mi algoritmo 380 00:16:16,750 --> 00:16:18,766 era humor australiano, humor del teatro musical, 381 00:16:18,790 --> 00:16:21,576 y todo ese tipo de cosas, y pasó a ser 382 00:16:21,600 --> 00:16:25,386 sólo contenido sobre desorden alimenticio todo el tiempo. 383 00:16:25,410 --> 00:16:28,370 Y a medida que me enfermaba y me volvía más obsesiva, 384 00:16:28,880 --> 00:16:30,786 todo lo que hacía era revisar mi teléfono 385 00:16:30,810 --> 00:16:33,732 y mirar esas imágenes. 386 00:16:34,246 --> 00:16:36,939 Pasaba horas en eso y simplemente me obsesioné. 387 00:16:36,964 --> 00:16:38,252 No me estaba recuperando en absoluto. 388 00:16:38,276 --> 00:16:39,869 Estaba recayendo activamente. 389 00:16:40,560 --> 00:16:42,296 Claire fue ingresada en el hospital. 390 00:16:42,320 --> 00:16:44,054 Como parte de su tratamiento, sus 391 00:16:44,066 --> 00:16:45,606 psicólogos trabajaron con ella 392 00:16:45,630 --> 00:16:47,389 para eliminar el contenido tóxico 393 00:16:47,401 --> 00:16:49,016 de vuestro contenido de TikTok, 394 00:16:49,040 --> 00:16:52,366 dejando de seguir cuentas y denunciando videos. 395 00:16:52,390 --> 00:16:54,476 ¿Cuánto tiempo os ha llevado deshaceros de 396 00:16:54,500 --> 00:16:55,579 ese contenido sobre desorden 397 00:16:55,591 --> 00:16:56,915 alimenticio de vuestro algoritmo? 398 00:16:57,842 --> 00:16:58,850 Siglos. 399 00:16:58,875 --> 00:17:00,118 Prácticamente estando en el hospital, 400 00:17:00,142 --> 00:17:01,166 así que probablemente me llevó 401 00:17:01,190 --> 00:17:02,535 dos meses cambiar el algoritmo. 402 00:17:03,240 --> 00:17:04,836 Cuando navegáis de esta manera... 403 00:17:04,860 --> 00:17:06,808 - Incluso mientras Claire me mostraba 404 00:17:06,832 --> 00:17:08,476 vuestro contenido limpio de TikTok, 405 00:17:08,500 --> 00:17:11,699 empezaron a reaparecer videos sobre trastornos alimenticios. 406 00:17:12,060 --> 00:17:14,061 Ahí vamos. Aquí hay uno justo ahora. 407 00:17:14,520 --> 00:17:17,226 Sólo cada cinco o seis videos. 408 00:17:17,251 --> 00:17:19,385 Y bueno, estoy en un buen momento 409 00:17:19,410 --> 00:17:20,964 en el que esto no me dispara. 410 00:17:20,989 --> 00:17:22,624 - Así que, aunque digáis que no estáis interesada 411 00:17:22,648 --> 00:17:23,671 ¿siguen apareciendo? 412 00:17:23,696 --> 00:17:24,699 Siguen apareciendo. 413 00:17:24,724 --> 00:17:27,126 Cuando reportáis los videos de TikTok, la compañía dice que 414 00:17:27,150 --> 00:17:30,086 sus moderadores luego deciden si los prohíben, 415 00:17:30,110 --> 00:17:31,526 lo que a su vez supone 416 00:17:31,550 --> 00:17:34,041 enseñarle al algoritmo a dejar de presentarlos. 417 00:17:34,066 --> 00:17:35,869 - Yo simplemente digo que no estoy interesada en eso... 418 00:17:35,893 --> 00:17:37,287 - Las políticas de TikTok establecen 419 00:17:37,299 --> 00:17:38,716 que la aplicación prohíbe contenido 420 00:17:38,740 --> 00:17:40,585 que promueva, normalice o glorifique 421 00:17:40,597 --> 00:17:42,003 los trastornos alimenticios. 422 00:17:42,020 --> 00:17:43,620 - Y puedes decir que es ofensivo... 423 00:17:43,628 --> 00:17:45,006 Pero cuando usuarios como Claire 424 00:17:45,030 --> 00:17:47,716 han denunciado esos videos, ellos argumentan 425 00:17:47,740 --> 00:17:50,066 que no están infringiendo ninguna directriz. 426 00:17:50,090 --> 00:17:51,986 - Se podría pensar que, ya sabéis, algo tan serio 427 00:17:52,010 --> 00:17:53,516 y con la mayor tasa de mortalidad 428 00:17:53,540 --> 00:17:55,496 de cualquier enfermedad mental, 429 00:17:55,520 --> 00:17:57,096 sería algo que podríais reportar. 430 00:17:57,120 --> 00:17:58,596 Porque está promoviendo esos comportamientos 431 00:17:58,620 --> 00:18:00,415 y lo está empeorando. 432 00:18:05,980 --> 00:18:07,198 TikTok también dice que 433 00:18:07,220 --> 00:18:09,336 prohíbe los hashtags a favor de desórdenes alimenticios 434 00:18:09,360 --> 00:18:11,816 para que los usuarios no puedan buscar esos videos, 435 00:18:11,840 --> 00:18:13,536 y que si lo intentan, automáticamente 436 00:18:13,560 --> 00:18:15,396 aparece el número de la Fundación Butterfly, que es 437 00:18:15,420 --> 00:18:18,796 un servicio de apoyo a ese tipo de trastornos. 438 00:18:18,820 --> 00:18:20,863 Pero los usuarios encuentran formas de evadirlo. 439 00:18:21,830 --> 00:18:25,526 - Pero el problema es que ahora está en constante evolución. 440 00:18:25,550 --> 00:18:27,876 Como si ahora hubiese un hashtag que usan las 441 00:18:27,900 --> 00:18:29,396 personas con desórdenes alimenticios, 442 00:18:29,420 --> 00:18:31,146 y que tú nunca adivinarías 443 00:18:31,170 --> 00:18:33,136 que es un hashtag para eso. 444 00:18:33,160 --> 00:18:34,760 Como si se tratara de un cantante famoso. 445 00:18:36,740 --> 00:18:40,086 Simplemente lo disfrazan para que parezca que no tiene 446 00:18:40,110 --> 00:18:42,590 absolutamente ninguna relación con los trastornos alimentarios. 447 00:18:42,710 --> 00:18:44,426 Y por eso ahora es tan difícil escapar. 448 00:18:44,450 --> 00:18:46,536 Y creo que es muy difícil para TikTok 449 00:18:46,560 --> 00:18:47,858 seguir el ritmo de todo eso. 450 00:18:48,400 --> 00:18:51,106 - Existen mecanismos para 451 00:18:51,130 --> 00:18:52,486 filtrar parte de ese contenido. 452 00:18:52,510 --> 00:18:55,686 Pero mucho de esto también depende de la moderación humana, 453 00:18:55,710 --> 00:18:58,066 y si tenemos en cuenta la cantidad de videos 454 00:18:58,090 --> 00:19:00,079 y el volumen que se está subiendo a TikTok, 455 00:19:00,103 --> 00:19:02,216 es una tarea muy difícil imaginar 456 00:19:02,240 --> 00:19:04,140 que los moderadores humanos puedan captar todo. 457 00:19:09,566 --> 00:19:12,326 El año pasado, TikTok estableció un consejo 458 00:19:12,350 --> 00:19:14,406 de expertos externos para asesorar 459 00:19:14,430 --> 00:19:16,813 a la empresa sobre la moderación de contenidos. 460 00:19:17,770 --> 00:19:19,593 David Polgar es uno de ellos. 461 00:19:20,980 --> 00:19:22,004 - Como sabemos, un gran poder 462 00:19:22,016 --> 00:19:23,266 conlleva una gran responsabilidad. 463 00:19:23,290 --> 00:19:25,606 Hay mucho poder en el algoritmo de TikTok. 464 00:19:25,630 --> 00:19:28,236 Por lo tanto, tenéis que estar constantemente atento 465 00:19:28,260 --> 00:19:31,876 a cómo está impactando a otros individuos 466 00:19:31,907 --> 00:19:33,308 y comunidades. 467 00:19:33,578 --> 00:19:35,038 Creo que comparativamente hablando 468 00:19:35,063 --> 00:19:36,198 DAVID POLGAR - TÉCNICO ÉTICO Y 469 00:19:36,222 --> 00:19:37,907 MIEMBRO DEL CONSEJO ASESOR DE CONTENIDOS DE TIKTOK 470 00:19:37,931 --> 00:19:39,926 TikTok ha hecho un trabajo bastante decente 471 00:19:39,950 --> 00:19:44,056 al ser más reflexivo sobre estos dilemas 472 00:19:44,080 --> 00:19:48,026 y cómo pueden afectar a las personas. 473 00:19:48,050 --> 00:19:50,874 Pero al mismo tiempo, estáis lidiando 474 00:19:50,886 --> 00:19:53,050 con el comportamiento humano. 475 00:19:53,220 --> 00:19:55,696 Estáis tratando con malos actores. 476 00:19:55,720 --> 00:19:58,146 Os enfrentáis a grandes diferencias 477 00:19:58,170 --> 00:20:00,632 en cuanto a lo que la gente define 478 00:20:00,644 --> 00:20:02,693 como apropiado o inapropiado. 479 00:20:02,830 --> 00:20:04,146 Y tenemos este complicado tipo 480 00:20:04,170 --> 00:20:07,053 de equilibrio sucediendo constantemente. 481 00:20:09,740 --> 00:20:13,420 - El modelo de negocio de TikTok se basa en la creación de una 482 00:20:13,450 --> 00:20:16,396 versión divertida, brillante y glamorosa del mundo. 483 00:20:16,420 --> 00:20:17,981 Y se ha descubierto que la empresa 484 00:20:17,993 --> 00:20:19,566 controla estrictamente el contenido 485 00:20:19,590 --> 00:20:21,486 que no encaja con esa imagen. 486 00:20:21,510 --> 00:20:23,353 En marzo del año pasado, se filtraron 487 00:20:23,365 --> 00:20:24,976 documentos de políticas de TikTok 488 00:20:25,000 --> 00:20:26,289 que mostraban que los moderadores de 489 00:20:26,301 --> 00:20:27,496 contenido recibieron instrucciones 490 00:20:27,520 --> 00:20:29,836 de suprimir las publicaciones de creadores 491 00:20:29,860 --> 00:20:32,703 considerados feos, pobres o discapacitados. 492 00:20:36,500 --> 00:20:38,328 Los documentos decían: "Los videos que incluyan 493 00:20:38,352 --> 00:20:40,826 personas gordas u obesas, 494 00:20:40,850 --> 00:20:42,136 con un aspecto facial feo 495 00:20:42,160 --> 00:20:44,986 como demasiadas arrugas o deformidades faciales, 496 00:20:45,010 --> 00:20:47,846 y otras discapacidades, deben ser excluidos". 497 00:20:47,870 --> 00:20:51,443 TikTok dijo que ya no realiza estas prácticas. 498 00:20:55,604 --> 00:20:56,958 - No quiero admitirlo, pero la apariencia 499 00:20:56,982 --> 00:20:58,079 tiene mucho que ver con eso. 500 00:20:58,103 --> 00:21:00,459 Y, sabéis, todos somos secretamente un poco vanidosos. 501 00:21:00,484 --> 00:21:02,150 Por mucho que no quisierais admitirlo, 502 00:21:02,175 --> 00:21:04,539 os gusta más la buena apariencia. 503 00:21:04,564 --> 00:21:05,809 Creo que definitivamente la apariencia 504 00:21:05,833 --> 00:21:06,875 tiene mucho que ver con eso. 505 00:21:06,899 --> 00:21:09,466 Y si os fijáis en todos los grandes influencers, 506 00:21:09,490 --> 00:21:10,586 todos son hermosos. 507 00:21:10,610 --> 00:21:12,299 Todos son impresionantes, 508 00:21:12,323 --> 00:21:14,416 como si no hubiese nada malo en ellos. 509 00:21:14,440 --> 00:21:15,468 Por eso creo que el aspecto 510 00:21:15,480 --> 00:21:16,905 definitivamente tiene mucho que ver. 511 00:21:30,387 --> 00:21:32,008 Gran parte de la popularidad de TikTok 512 00:21:32,032 --> 00:21:33,636 está impulsada por las tendencias de baile, 513 00:21:33,660 --> 00:21:35,866 coreografiados por creadores negros 514 00:21:35,890 --> 00:21:38,342 y luego copiados por influencers blancos. 515 00:21:40,250 --> 00:21:41,987 Pero los creadores de contenidos negros dicen 516 00:21:42,011 --> 00:21:45,119 que la plataforma los discrimina activamente. 517 00:21:45,144 --> 00:21:46,223 CUANDO DESCUBRO QUE LOS CREADORES 518 00:21:46,247 --> 00:21:47,282 NEGROS DE TIKTOK ESTÁN EN HUELGA 519 00:21:47,306 --> 00:21:49,786 Creo que ya es hora de dejar que en esta aplicación 520 00:21:49,810 --> 00:21:52,166 las mujeres negras también sean famosas por hacer lo mínimo. 521 00:21:52,190 --> 00:21:54,876 Yo debería poder sentarme aquí en silencio 522 00:21:54,900 --> 00:21:56,271 y dejar que todos me miraran y, ya sabes, 523 00:21:56,295 --> 00:21:58,455 lo siguiente sería que tendría un millón de seguidores. 524 00:22:00,220 --> 00:22:01,580 - Petición para que los negros dejen 525 00:22:01,600 --> 00:22:03,246 de hablar durante el resto de abril. 526 00:22:03,270 --> 00:22:04,896 - Ha habido casos 527 00:22:04,920 --> 00:22:08,156 de salidas masivas lideradas por creadores negros 528 00:22:08,180 --> 00:22:09,796 desde la plataforma, llamadas Blackouts, 529 00:22:09,820 --> 00:22:11,150 en las que un determinado día 530 00:22:11,175 --> 00:22:12,826 estos creadores dejarán de utilizar la plataforma 531 00:22:12,850 --> 00:22:15,936 o instarán a otros creadores a abandonarla 532 00:22:15,960 --> 00:22:19,506 por la inacción de TikTok y su falta de respuesta 533 00:22:19,530 --> 00:22:21,736 y compromiso ante algunas de las críticas 534 00:22:21,760 --> 00:22:25,264 y el discurso que los creadores negros han planteado. 535 00:22:25,334 --> 00:22:30,909 Así que si la empresa continúa siendo reactiva y receptiva 536 00:22:31,020 --> 00:22:32,190 en lugar de ser proactiva y 537 00:22:32,202 --> 00:22:33,866 comprometerse de forma significativa, 538 00:22:33,890 --> 00:22:36,165 entonces estos problemas seguirán ocurriendo. 539 00:22:36,505 --> 00:22:37,982 ACTUALMENTE ESPERANDO QUE MI TIEMPO 540 00:22:37,994 --> 00:22:39,276 EN LA PRISIÓN DE TIKTOK TERMINE 541 00:22:39,300 --> 00:22:41,396 - A menudo, me da bastante rabia, supongo que 542 00:22:41,420 --> 00:22:42,926 porque es como con los creadores negros, 543 00:22:42,950 --> 00:22:45,566 ellos tienen talento, bailan y 544 00:22:45,590 --> 00:22:47,606 muestran de lo que son capaces. 545 00:22:47,631 --> 00:22:51,286 Así que es muy decepcionante y duro para nosotros 546 00:22:51,311 --> 00:22:52,671 UNICE WANI @unicewani, 595,7K SEGUIDORES 547 00:22:52,695 --> 00:22:54,563 estar aquí esperando tener 548 00:22:54,587 --> 00:22:56,455 todo esto para conseguir las vistas, 549 00:22:56,480 --> 00:22:57,996 los "me gusta" y los "compartir". 550 00:22:58,020 --> 00:23:00,106 Pero no importa cuánto lo intentemos, 551 00:23:00,130 --> 00:23:02,062 no vamos a conseguirlo. 552 00:23:08,660 --> 00:23:12,936 - Unice Wani es una creadora de TikTok de 18 años de Perth. 553 00:23:13,050 --> 00:23:14,840 - Me gusta éste. Mirad y veréis. 554 00:23:15,160 --> 00:23:16,496 Siento que cuanto más viral me vuelva 555 00:23:16,520 --> 00:23:20,536 más podré mostrarle a la generación más joven 556 00:23:20,560 --> 00:23:23,256 y a las chicas de color, supongo, 557 00:23:23,280 --> 00:23:27,056 o gente por ahí, que estoy bien en mi propia piel 558 00:23:27,080 --> 00:23:28,766 y que me quiero tal y como soy. 559 00:23:28,790 --> 00:23:31,276 No me importa lo que las redes sociales digan de mí. 560 00:23:31,300 --> 00:23:34,186 Lo que la gente del otro lado de la pantalla diga de mí. 561 00:23:34,210 --> 00:23:36,203 Al final del día, puedes ser tú mismo. 562 00:23:36,360 --> 00:23:37,829 Permitidme abordar esto rápidamente... 563 00:23:37,853 --> 00:23:39,366 - A medida que su número de seguidores crecía, 564 00:23:39,390 --> 00:23:41,700 también lo hacían los comentarios de odio. 565 00:23:41,725 --> 00:23:44,701 Y ella decidió afrontar el problema en la aplicación. 566 00:23:44,726 --> 00:23:45,870 - Entonces, la mayoría de vosotros 567 00:23:45,894 --> 00:23:46,960 todavía siente la necesidad 568 00:23:46,984 --> 00:23:49,457 de comentar sobre mi color de piel y sobre lo oscura que soy, 569 00:23:49,482 --> 00:23:51,848 sobre lo negra, negra, negra, negra que soy. 570 00:23:51,873 --> 00:23:52,907 Venga, ¿adivinad? 571 00:23:52,932 --> 00:23:54,776 Soy negra y estoy muy orgullosa. 572 00:23:57,931 --> 00:24:00,556 - Unice dice que a menudo sus videos son ocultados 573 00:24:00,580 --> 00:24:02,396 o silenciados del feed de TikTok, 574 00:24:02,420 --> 00:24:03,986 lo que significa que poca gente los ve. 575 00:24:04,010 --> 00:24:05,957 Una práctica conocida como Prohibición en la Sombra 576 00:24:05,981 --> 00:24:07,657 - ¿sois presionada? 577 00:24:07,681 --> 00:24:09,187 ¿Estáis molesta? 578 00:24:09,211 --> 00:24:10,638 ¿Estáis enfadada? 579 00:24:10,662 --> 00:24:11,662 ¿Estáis triste? 580 00:24:12,960 --> 00:24:14,116 Lo siento, ¿qué? 581 00:24:14,140 --> 00:24:15,572 Supongo que tiendes a recibir 582 00:24:15,584 --> 00:24:17,276 muchas prohibiciones en la sombra 583 00:24:17,300 --> 00:24:20,596 por hablar de cosas como el racismo. 584 00:24:20,620 --> 00:24:21,906 De cosas que no se pueden mencionar. 585 00:24:21,930 --> 00:24:24,516 Una palabra como “negro”, podría ser un problema 586 00:24:24,540 --> 00:24:26,916 y tu video podría recibir una prohibición disimulada. 587 00:24:26,940 --> 00:24:29,301 Entonces, cuando publicáis el 588 00:24:29,313 --> 00:24:32,340 video, sólo estará en la aplicación. 589 00:24:32,370 --> 00:24:34,576 Simplemente, no obtendréis ninguna vista por él. 590 00:24:34,600 --> 00:24:36,956 Así que podéis verlo pero las demás personas no podrán verlo 591 00:24:36,980 --> 00:24:39,326 cuando entren en vuestra cuenta. 592 00:24:39,350 --> 00:24:42,549 Así que, está ahí arriba, pero no va a conseguir ninguna vista. 593 00:24:47,310 --> 00:24:49,546 El año pasado, los creadores de TikTok se dieron cuenta 594 00:24:49,570 --> 00:24:51,816 que el algoritmo estaba suprimiendo publicaciones 595 00:24:51,840 --> 00:24:55,153 con el hashtag Black Lives Matter o George Floyd. 596 00:24:59,590 --> 00:25:04,286 - Se rumorea que TikTok prohibió 597 00:25:04,450 --> 00:25:06,209 el hashtag Black Lives Matter. 598 00:25:12,100 --> 00:25:14,372 Uno de esos creadores fue el hombre de Sydney, 599 00:25:14,397 --> 00:25:16,552 Paniora Nukunuku, que había creado 600 00:25:16,580 --> 00:25:18,940 un video con una mesa de billar 601 00:25:18,970 --> 00:25:20,770 para explicarle a los australianos 602 00:25:20,782 --> 00:25:22,336 el tema de Black Lives Matter. 603 00:25:22,360 --> 00:25:23,926 - Esta es una mesa blanca de Australia. 604 00:25:23,950 --> 00:25:25,836 Tenían casi 200 años de ventaja 605 00:25:25,860 --> 00:25:27,556 y habían establecido todo en el país. 606 00:25:27,581 --> 00:25:29,516 Así que su propuesta se ve así. 607 00:25:29,540 --> 00:25:31,140 Tío, ¿podéis conseguir la propiedad 608 00:25:31,152 --> 00:25:32,495 de una vivienda en el negocio? 609 00:25:32,540 --> 00:25:33,580 Precioso. 610 00:25:33,592 --> 00:25:35,096 Eso fue picante. 611 00:25:35,120 --> 00:25:37,202 Esa explosión de fama fue más grande de lo que yo pensaba. 612 00:25:37,226 --> 00:25:38,583 Sólo necesito poner esto aquí. 613 00:25:38,608 --> 00:25:39,754 Venga, que diablos… 614 00:25:39,779 --> 00:25:41,106 - No os preocupéis. Es un trauma, 615 00:25:41,131 --> 00:25:42,548 una injusticia y una discriminación. 616 00:25:42,573 --> 00:25:44,282 Pero dije que lo sentía, así que debería estar bien. 617 00:25:44,306 --> 00:25:45,456 Así que ve por ello, tío. 618 00:25:46,560 --> 00:25:48,566 Ese fue el video más grande que hice en su momento. 619 00:25:48,580 --> 00:25:50,100 Creo que estáis siendo perezoso, oid. 620 00:25:50,125 --> 00:25:51,636 No sé por qué. 621 00:25:51,660 --> 00:25:54,002 Sí sé por qué, porque fue bueno. 622 00:25:54,020 --> 00:25:55,401 No debería mirar a la cámara, pero estoy 623 00:25:55,425 --> 00:25:57,021 muy orgulloso en este momento. 624 00:25:57,260 --> 00:25:58,436 Con estas dos bolas blancas 625 00:25:58,460 --> 00:25:59,656 os explicaré lo que hizo 626 00:25:59,680 --> 00:26:01,176 que mi cuenta fuese bloqueada 627 00:26:01,200 --> 00:26:02,816 durante unos siete días. 628 00:26:02,840 --> 00:26:03,842 No sé por qué. 629 00:26:03,867 --> 00:26:05,250 PANIORA NUKUNUKU @pnuks, 189,6K SEGUIDORES 630 00:26:05,274 --> 00:26:06,350 Ellos alegaron que mi video 631 00:26:06,374 --> 00:26:07,781 incumplía las normas de la comunidad, 632 00:26:07,805 --> 00:26:10,921 lo cual es extremadamente vago porque no contenía insultos, 633 00:26:10,990 --> 00:26:13,119 ni lenguaje explícito. 634 00:26:13,143 --> 00:26:17,576 No había desnudos ni cosas sexuales explícitas. 635 00:26:17,600 --> 00:26:20,179 Nada de eso. Y aun así, mi cuenta fue prohibida. 636 00:26:20,940 --> 00:26:22,606 - El Black Lives Matter es tendencia en TikTok, 637 00:26:22,630 --> 00:26:25,016 lo cual es irónico teniendo en cuenta el tiempo que TikTok pasa 638 00:26:25,040 --> 00:26:26,736 silenciando las voces de los creadores negros. 639 00:26:26,760 --> 00:26:29,006 TikTok se disculpó por suprimir los hashtags 640 00:26:29,030 --> 00:26:30,826 referidos a Black Lives Matter, 641 00:26:30,889 --> 00:26:32,855 culpando a un fallo en el algoritmo. 642 00:26:33,043 --> 00:26:34,955 - Hagamos un momento de silencio por este hombre. 643 00:26:34,979 --> 00:26:37,059 - La empresa respondió con una nueva iniciativa 644 00:26:37,090 --> 00:26:38,672 para los creadores negros, llamada 645 00:26:38,684 --> 00:26:40,096 TikTok Black Creator Programme. 646 00:26:40,120 --> 00:26:42,966 Hablé con creadores a los que se les había contactado 647 00:26:42,990 --> 00:26:44,545 para ese programa, y ellos 648 00:26:44,557 --> 00:26:46,606 sintieron que era algo hipócrita. 649 00:26:46,630 --> 00:26:49,876 Que no era realmente un esfuerzo bien intencionado 650 00:26:49,900 --> 00:26:52,866 para comprometerse con las voces negras y con el discurso 651 00:26:52,890 --> 00:26:54,840 que es importante para las comunidades negras. 652 00:26:56,880 --> 00:27:00,875 Paniora tiene más de 180.000 seguidores en TikTok. 653 00:27:01,264 --> 00:27:03,760 A menudo publica sobre la vida con una discapacidad. 654 00:27:03,785 --> 00:27:05,092 - Habiendo crecido con una pierna falsa, 655 00:27:05,116 --> 00:27:06,916 siempre me metía en problemas cada vez que estacionaba 656 00:27:06,940 --> 00:27:08,256 en mi lugar para discapacitados. 657 00:27:08,280 --> 00:27:10,436 El primer video que hice fue subiendo 658 00:27:10,460 --> 00:27:13,556 a una piscina y diciéndoles a mis amigos que me grabaran 659 00:27:13,580 --> 00:27:15,080 sumergiendo mi pierna falsa en el 660 00:27:15,092 --> 00:27:16,516 agua para probar su temperatura. 661 00:27:16,540 --> 00:27:18,276 Fue una idea muy tonta, 662 00:27:18,300 --> 00:27:19,856 pero por alguna razón a la gente le encantó. 663 00:27:19,880 --> 00:27:21,646 Y en apenas ocho horas 664 00:27:21,670 --> 00:27:24,393 alcanzó unas 780.000 vistas. 665 00:27:25,230 --> 00:27:29,526 Si tenéis tantos seguidores y tantos me gusta, 666 00:27:29,550 --> 00:27:30,956 es porque sois guapo. 667 00:27:30,980 --> 00:27:33,026 Si tenéis tantos seguidores 668 00:27:33,050 --> 00:27:34,823 y la misma cantidad de me gusta, 669 00:27:38,450 --> 00:27:39,570 es porque sois muy gracioso. 670 00:27:41,320 --> 00:27:44,146 Paniora tuvo problemas con los censores de TikTok 671 00:27:44,170 --> 00:27:46,806 cuando publicó un video de un enfrentamiento 672 00:27:46,830 --> 00:27:48,336 con alguien que le decía 673 00:27:48,360 --> 00:27:50,936 que no debería tener un permiso de discapacidad. 674 00:27:50,960 --> 00:27:54,366 - Esta anciana tuvo el descaro de preguntarme 675 00:27:54,390 --> 00:27:57,103 si esta era mi tarjeta de discapacidad. 676 00:27:58,940 --> 00:28:00,226 Esta, 677 00:28:00,250 --> 00:28:02,856 me pregunto si esto es suficiente. 678 00:28:02,880 --> 00:28:04,736 El video fue retirado. 679 00:28:04,760 --> 00:28:06,494 TikTok dijo que violaba las directrices 680 00:28:06,506 --> 00:28:07,946 de la comunidad de la aplicación. 681 00:28:07,970 --> 00:28:10,646 Paniora apeló y lo volvieron a publicar. 682 00:28:10,670 --> 00:28:11,926 Pero le han eliminado otros videos 683 00:28:11,950 --> 00:28:14,496 sobre su discapacidad. 684 00:28:14,520 --> 00:28:15,836 - No tenéis que preocuparos por eso. 685 00:28:15,860 --> 00:28:18,060 El video había sido retirado y yo ni siquiera lo sabía, 686 00:28:18,070 --> 00:28:20,096 hasta que volví a mirar los hashtags 687 00:28:20,120 --> 00:28:22,426 y decidí ver cuáles videos de los que había hecho 688 00:28:22,450 --> 00:28:24,848 habían llegado a la cima, y ése no estaba. 689 00:28:25,300 --> 00:28:28,426 Apelé y no sé por qué lo quitaron. 690 00:28:28,460 --> 00:28:29,696 No volváis a hacer eso. 691 00:28:29,860 --> 00:28:31,946 ¿Siento que TikTok está siendo racista? 692 00:28:31,970 --> 00:28:32,970 No lo sé. 693 00:28:34,230 --> 00:28:36,642 ¿TikTok ha sido atacado en el pasado 694 00:28:36,700 --> 00:28:39,126 por haber dado instrucciones a los moderadores para 695 00:28:39,140 --> 00:28:44,620 que limitaran la exposición de personas discapacitadas y feas? 696 00:28:44,630 --> 00:28:46,256 Vale, se les llamó la atención sobre eso. 697 00:28:46,280 --> 00:28:47,466 ¿Está sucediendo de nuevo? 698 00:28:47,490 --> 00:28:51,056 Espero que no, pero definitivamente parece que sí. 699 00:28:51,080 --> 00:28:54,226 Sabemos que descolonizar Palestina 700 00:28:54,250 --> 00:28:56,556 significa también descolonizar… 701 00:28:56,580 --> 00:28:57,906 - Probablemente seguiré moviéndome 702 00:28:57,918 --> 00:28:59,026 para conseguir algunas tomas. 703 00:28:59,050 --> 00:29:00,056 En mayo de este año, 704 00:29:00,080 --> 00:29:03,446 Paniora publicó un video de una manifestación pro-Palestina. 705 00:29:03,470 --> 00:29:05,676 Pero el algoritmo de TikTok lo marcó. 706 00:29:05,700 --> 00:29:07,479 Y fue retirado al instante. 707 00:29:09,990 --> 00:29:11,243 Otros creadores que han 708 00:29:11,255 --> 00:29:13,126 publicado TikToks sobre Palestina 709 00:29:13,150 --> 00:29:15,895 han dicho que han experimentado lo mismo. 710 00:29:18,238 --> 00:29:20,896 - Cuando TikTok empezó a eliminar mis videos 711 00:29:20,920 --> 00:29:22,606 sobre las protestas por 712 00:29:22,630 --> 00:29:25,546 la situación palestina, me puse furioso. 713 00:29:25,570 --> 00:29:29,256 Me preguntaba, ¿por qué? No hay nada en esos videos 714 00:29:29,280 --> 00:29:33,106 que justifique una remoción. 715 00:29:33,131 --> 00:29:34,374 Realmente no lo hay. 716 00:29:34,422 --> 00:29:37,038 - Uno de los grandes problemas de TikTok 717 00:29:37,070 --> 00:29:40,355 y la naturaleza única de su algoritmo opaco, 718 00:29:40,380 --> 00:29:42,191 FERGUS RYAN, COAUTOR DEL INFORME DE CENSURA DE TIKTOK 719 00:29:42,215 --> 00:29:45,776 es que es muy difícil entender 720 00:29:45,800 --> 00:29:49,574 o reconocer cuándo se produce la censura. 721 00:29:49,580 --> 00:29:51,180 La gente se reunió para intentar… 722 00:29:51,206 --> 00:29:54,835 - Así que es posible que el contenido de la aplicación 723 00:29:54,860 --> 00:29:58,716 sea promocionado o degradado sin que nadie lo sepa. 724 00:29:58,740 --> 00:30:00,084 - Estoy muy harto y cansado de que 725 00:30:00,096 --> 00:30:01,606 todas las plataformas de redes sociales 726 00:30:01,630 --> 00:30:03,406 silencien las voces palestinas. 727 00:30:03,430 --> 00:30:05,614 - Pero también vemos pruebas de 728 00:30:05,626 --> 00:30:08,106 cómo se lleva a cabo la moderación 729 00:30:08,130 --> 00:30:09,656 de contenidos en China. 730 00:30:09,680 --> 00:30:13,846 Cómo se sigue aplicando ese tipo de pensamiento 731 00:30:13,870 --> 00:30:15,883 a TikTok fuera de China. 732 00:30:18,631 --> 00:30:21,485 TikTok es propiedad de la empresa china ByteDance, 733 00:30:21,510 --> 00:30:23,396 que se cree tiene un valor de más 734 00:30:23,408 --> 00:30:25,138 de 250.000 millones de dólares. 735 00:30:25,524 --> 00:30:28,200 Está fuertemente regulada por el gobierno chino, 736 00:30:28,230 --> 00:30:30,887 y hay un Comité Interno del Partido Comunista 737 00:30:30,912 --> 00:30:32,669 en ByteDance, que garantiza que 738 00:30:32,681 --> 00:30:34,736 los objetivos políticos del partido 739 00:30:34,760 --> 00:30:37,049 se persigan junto con los de la empresa. 740 00:30:37,323 --> 00:30:38,458 Apagadlo, por favor. 741 00:30:38,920 --> 00:30:41,016 - Debemos preocuparnos más por cómo 742 00:30:41,040 --> 00:30:45,046 las aplicaciones como TikTok pueden ser utilizadas 743 00:30:45,070 --> 00:30:47,923 como un vector de censura y vigilancia. 744 00:30:50,030 --> 00:30:52,426 - El Instituto Australiano de Política Estratégica 745 00:30:52,450 --> 00:30:54,606 hizo la primera investigación académica 746 00:30:54,630 --> 00:30:56,386 sobre la censura en TikTok, 747 00:30:56,410 --> 00:30:59,416 y concluyó que la compañía utiliza activamente el algoritmo 748 00:30:59,440 --> 00:31:01,216 para ocultar el discurso político 749 00:31:01,228 --> 00:31:02,700 que considera controvertido. 750 00:31:03,060 --> 00:31:04,364 La investigación fue financiada por 751 00:31:04,376 --> 00:31:05,656 el Departamento de Estado de EE.UU. 752 00:31:05,680 --> 00:31:08,606 Y encontró videos contra el gobierno ruso, 753 00:31:08,620 --> 00:31:12,075 así como hashtags sobre temas LGBTQI 754 00:31:12,100 --> 00:31:13,860 y la detención masiva de uigures, 755 00:31:13,900 --> 00:31:15,900 entre algunos de los que estaban siendo suprimidos. 756 00:31:18,550 --> 00:31:20,437 - La empresa ha cooperado con 757 00:31:20,449 --> 00:31:22,676 las oficinas de seguridad pública 758 00:31:22,700 --> 00:31:26,116 en toda China e incluso en Xinjiang. 759 00:31:26,140 --> 00:31:30,346 Y eso significa que trabaja 760 00:31:30,370 --> 00:31:33,216 coordinadamente con las agencias gubernamentales 761 00:31:33,240 --> 00:31:36,716 para asegurar que el espacio de información en China 762 00:31:36,740 --> 00:31:40,006 esté lleno de esta propaganda 763 00:31:40,030 --> 00:31:42,636 que muestra un panorama muy optimista 764 00:31:42,660 --> 00:31:44,524 de lo que está ocurriendo en Xinjiang. 765 00:31:48,680 --> 00:31:51,336 En 2018, el entonces director general de ByteDance 766 00:31:51,360 --> 00:31:53,406 se vio obligado a pedir disculpas públicamente, 767 00:31:53,430 --> 00:31:55,536 diciendo que una de las plataformas de la empresa 768 00:31:55,560 --> 00:31:57,486 había ido en contra de los valores 769 00:31:57,498 --> 00:31:59,436 socialistas fundamentales de China. 770 00:31:59,460 --> 00:32:03,026 - Tenemos una declaración pública muy clara 771 00:32:03,050 --> 00:32:04,806 del fundador de ByteDance, 772 00:32:04,830 --> 00:32:08,826 diciendo que esto es algo que está comprometido a hacer 773 00:32:08,850 --> 00:32:11,466 y a garantizar que la compañía ciertamente 774 00:32:11,490 --> 00:32:15,356 continúe impulsando este tipo de propaganda en China. 775 00:32:15,380 --> 00:32:18,716 Si esto se extiende al resto del mundo 776 00:32:18,740 --> 00:32:22,956 a través de aplicaciones como TikTok, es otra cuestión. 777 00:32:22,980 --> 00:32:25,223 Y es algo que vale la pena ver. 778 00:32:26,230 --> 00:32:27,666 En un comunicado, TikTok dijo 779 00:32:27,690 --> 00:32:30,256 que no modera ni elimina contenidos 780 00:32:30,280 --> 00:32:32,126 en base a sensibilidades políticas. 781 00:32:32,150 --> 00:32:34,556 Y que nunca se ha contentado con la petición 782 00:32:34,580 --> 00:32:35,946 del gobierno chino. 783 00:32:35,970 --> 00:32:38,016 También dijo que aceptaba la diversidad 784 00:32:38,040 --> 00:32:41,046 y negó discriminar a algún creador 785 00:32:41,070 --> 00:32:42,983 o comunidad en la plataforma. 786 00:32:46,718 --> 00:32:49,174 - Desde hace más de una década sabemos, 787 00:32:49,199 --> 00:32:51,136 tanto aquí en los Estados Unidos como en Australia, 788 00:32:51,160 --> 00:32:53,696 sobre las preocupaciones planteadas por la prevalencia 789 00:32:53,721 --> 00:32:55,298 de las empresas de telecomunicaciones chinas. 790 00:32:55,322 --> 00:32:56,719 Y entonces, la siguiente pregunta fue, 791 00:32:56,743 --> 00:32:58,177 venga, ¿qué pasa con todas las aplicaciones 792 00:32:58,201 --> 00:32:59,526 de empresas que tienen su sede en China? 793 00:32:59,550 --> 00:33:00,618 JAMIL JAFFER - DIRECTOR EJECUTIVO 794 00:33:00,642 --> 00:33:01,809 DEL INSTITUTO DE SEGURIDAD NACIONAL 795 00:33:01,833 --> 00:33:02,878 Ellos están recopilando enormes 796 00:33:02,902 --> 00:33:04,103 cantidades de datos de los usuarios. 797 00:33:04,127 --> 00:33:07,025 Tienen acceso a los dispositivos de los individuos. 798 00:33:07,480 --> 00:33:08,886 Jamil Jaffer es el fundador 799 00:33:08,910 --> 00:33:12,036 del Instituto de Seguridad Nacional en Washington, 800 00:33:12,060 --> 00:33:14,412 y ha asesorado al gobierno estadounidense 801 00:33:14,424 --> 00:33:16,056 en materia de ciberseguridad. 802 00:33:16,080 --> 00:33:18,516 - En China, todo es el gobierno central, 803 00:33:18,540 --> 00:33:19,546 el Partido Comunista. 804 00:33:19,570 --> 00:33:21,966 No hay separación entre las ramas. 805 00:33:21,990 --> 00:33:23,464 Entonces, cuando estas aplicaciones 806 00:33:23,476 --> 00:33:24,537 tienen todos esos datos, 807 00:33:24,562 --> 00:33:26,046 es mucho más fácil para el gobierno chino 808 00:33:26,070 --> 00:33:28,476 simplemente obtener acceso a esa información. 809 00:33:31,360 --> 00:33:32,366 - Según lo que yo entiendo, 810 00:33:32,390 --> 00:33:34,956 aproximadamente una cuarta parte de la población mundial 811 00:33:34,980 --> 00:33:37,356 es miembro de TikTok, si no me equivoco. 812 00:33:37,380 --> 00:33:39,636 Así que obviamente es una enorme cantidad de datos 813 00:33:39,660 --> 00:33:40,716 la que se está generando, 814 00:33:40,740 --> 00:33:43,046 que está siendo entregada de forma gratuita 815 00:33:43,070 --> 00:33:45,056 a esa única red social 816 00:33:45,080 --> 00:33:46,896 que tiene un control casi total 817 00:33:46,920 --> 00:33:48,916 respecto a lo que hace con ellos. 818 00:33:48,940 --> 00:33:52,915 Podría analizarlos para generar contenidos personalizados 819 00:33:52,940 --> 00:33:55,220 para ti, pero también podría utilizarlos 820 00:33:55,230 --> 00:33:58,066 para ofrecer productos y servicios tecnológicos 821 00:33:58,090 --> 00:34:01,096 a otras empresas en el futuro. 822 00:34:23,870 --> 00:34:25,516 - Hola, soy Avani, desde Sydney. 823 00:34:25,540 --> 00:34:26,766 ¿Cómo va todo? 824 00:34:26,790 --> 00:34:28,286 - Hola. 825 00:34:28,310 --> 00:34:29,876 Anne Longfield es una ex comisionada 826 00:34:29,900 --> 00:34:31,804 para la infancia en Inglaterra. 827 00:34:31,820 --> 00:34:33,690 Entrevista a Anne, toma uno. 828 00:34:33,700 --> 00:34:36,340 - Ella representa a millones de niños en TikTok, 829 00:34:36,380 --> 00:34:38,000 en el Reino Unido y Europa, en una 830 00:34:38,012 --> 00:34:39,690 demanda colectiva contra la empresa. 831 00:34:39,990 --> 00:34:43,076 - Mi reclamo hacia TikTok en este momento es que 832 00:34:43,100 --> 00:34:45,057 están recolectando grandes cantidades de datos ilegalmente, 833 00:34:45,081 --> 00:34:46,826 sin el consentimiento de los niños ni de sus padres. 834 00:34:46,850 --> 00:34:48,035 ANNE LONGFIELD - COMISIONADA PARA 835 00:34:48,047 --> 00:34:49,280 LA INFANCIA DE INGLATERRA 2015-2021 836 00:34:49,304 --> 00:34:52,096 Y no están dando el nivel adecuado 837 00:34:52,120 --> 00:34:55,056 de transparencia sobre lo que ocurre con esos datos 838 00:34:55,080 --> 00:34:58,033 o lo que realmente incluyen. 839 00:35:01,640 --> 00:35:04,191 Casi un tercio de los usuarios australianos 840 00:35:04,203 --> 00:35:06,126 de TikTok son menores de 14 años. 841 00:35:06,150 --> 00:35:07,586 Los abogados dicen que la empresa 842 00:35:07,598 --> 00:35:08,706 toma información personal, 843 00:35:08,730 --> 00:35:10,443 como números de teléfono, videos, 844 00:35:10,455 --> 00:35:11,876 ubicaciones y datos faciales 845 00:35:11,900 --> 00:35:13,936 de los niños sin su consentimiento. 846 00:35:13,960 --> 00:35:17,456 Así como las fotos y videos grabados mediante la aplicación, 847 00:35:17,480 --> 00:35:20,073 aunque no hayan sido subidos o guardados en la plataforma. 848 00:35:21,220 --> 00:35:25,256 - Dado el nivel de datos y la falta de transparencia 849 00:35:25,280 --> 00:35:27,346 al respecto, es difícil imaginar 850 00:35:27,370 --> 00:35:28,576 que esto no sea sólo un tipo de 851 00:35:28,600 --> 00:35:30,426 servicio de recopilación de información, 852 00:35:30,450 --> 00:35:32,546 que está apenas disfrazado como 853 00:35:32,558 --> 00:35:35,006 una especie de plataforma agradable 854 00:35:35,030 --> 00:35:38,046 que atrae a los niños pequeños. 855 00:35:38,070 --> 00:35:41,556 Así que, cuando lo veis en términos 856 00:35:41,580 --> 00:35:43,853 realmente fríos, el verdadero incentivo aquí 857 00:35:43,877 --> 00:35:47,636 parece ser reunir tantos datos como sea posible 858 00:35:47,660 --> 00:35:50,500 para poder realmente monetizar eso. 859 00:35:53,220 --> 00:35:55,716 TikTok ya ha sido multado con millones de dólares 860 00:35:55,740 --> 00:35:59,153 en EE.UU. y Corea del Sur por recolectar datos de niños. 861 00:36:01,330 --> 00:36:04,176 La empresa restringió el acceso de los niños a la aplicación 862 00:36:04,200 --> 00:36:06,430 y ha eliminado millones de cuentas 863 00:36:06,442 --> 00:36:08,236 de usuarios menores de edad. 864 00:36:08,260 --> 00:36:10,895 En Australia no se ha producido ninguna acción legal. 865 00:36:12,570 --> 00:36:15,196 - Creo que los gobiernos tienen la responsabilidad 866 00:36:15,220 --> 00:36:18,106 de intervenir para garantizar que los niños 867 00:36:18,130 --> 00:36:19,346 estén protegidos en cualquier tipo 868 00:36:19,358 --> 00:36:20,586 de entorno en el que se encuentren. 869 00:36:20,610 --> 00:36:23,146 Y esas protecciones y medidas se 870 00:36:23,170 --> 00:36:25,396 pueden ver en el entorno físico, 871 00:36:25,420 --> 00:36:28,416 en términos de su seguridad, ya sabéis, 872 00:36:28,440 --> 00:36:29,896 en las comunidades en las que viven, 873 00:36:29,920 --> 00:36:31,766 en los entornos en los que se encuentran. 874 00:36:31,790 --> 00:36:34,427 Pero no siempre es así en cuanto a la Internet. 875 00:36:34,460 --> 00:36:37,460 Y algunos gobiernos han 876 00:36:37,501 --> 00:36:39,569 luchado por ver lo que eso significa. 877 00:36:42,770 --> 00:36:44,294 Si el caso tiene éxito, 878 00:36:44,318 --> 00:36:45,986 TikTok podría tener que pagarles a los niños 879 00:36:46,010 --> 00:36:49,206 del Reino Unido y Europa miles de millones en indemnizaciones. 880 00:36:49,400 --> 00:36:50,866 TikTok está peleando el caso. 881 00:36:50,890 --> 00:36:52,493 En un comunicado, la empresa dijo, 882 00:36:52,517 --> 00:36:54,046 "La privacidad y la seguridad son 883 00:36:54,058 --> 00:36:55,736 las principales prioridades de TikTok 884 00:36:55,760 --> 00:36:58,066 y tenemos políticas y procesos robustos, 885 00:36:58,090 --> 00:37:01,776 y tecnologías para ayudar a proteger a todos los usuarios, 886 00:37:01,800 --> 00:37:04,096 y en particular, a nuestros usuarios adolescentes. 887 00:37:04,120 --> 00:37:05,876 Creemos que los reclamos carecen de fundamento 888 00:37:05,900 --> 00:37:07,041 y tenemos la intención de 889 00:37:07,053 --> 00:37:08,667 defender enérgicamente la acción". 890 00:37:11,670 --> 00:37:14,046 El gobierno estadounidense está revisando TikTok 891 00:37:14,070 --> 00:37:15,968 y no ha descartado una prohibición. 892 00:37:15,993 --> 00:37:17,524 - La verdadera pregunta que surge es, ¿qué 893 00:37:17,548 --> 00:37:19,198 pasa con las implicaciones de seguridad nacional? 894 00:37:19,222 --> 00:37:21,466 Así que, vale. Sí, mucha gente la está usando, ¿vale? 895 00:37:21,490 --> 00:37:22,576 Pero, ¿por qué eso es importante? 896 00:37:22,600 --> 00:37:25,026 Es importante, creo, por el acceso 897 00:37:25,050 --> 00:37:27,150 que tenéis a esa gran cantidad de datos. 898 00:37:28,330 --> 00:37:31,456 Nunca pensáis en el gobierno chino en Beijing, 899 00:37:31,480 --> 00:37:34,176 teniendo vuestros videos en vuestra casa, 900 00:37:34,200 --> 00:37:36,976 fuera de vuestra casa, en el parque con vuestros hijos, 901 00:37:37,000 --> 00:37:38,600 sabiendo con quién juegan vuestros hijos. 902 00:37:38,800 --> 00:37:40,706 Es decir, eso es lo que potencialmente tienen 903 00:37:40,730 --> 00:37:42,226 en este momento con ese conjunto de datos. 904 00:37:42,250 --> 00:37:44,556 Hemos visto dos presidentes consecutivos 905 00:37:44,580 --> 00:37:45,656 firmar órdenes ejecutivas que 906 00:37:45,680 --> 00:37:48,016 dejan claro que están muy preocupados 907 00:37:48,040 --> 00:37:50,036 por las implicaciones de la recolección de datos 908 00:37:50,060 --> 00:37:51,994 de TikTok para la seguridad nacional. 909 00:37:52,289 --> 00:37:54,065 Así como el impacto que tiene 910 00:37:54,090 --> 00:37:55,229 en la privacidad y las libertades 911 00:37:55,241 --> 00:37:56,481 civiles de los estadounidenses. 912 00:38:01,590 --> 00:38:03,614 La India anunció la prohibición de TikTok. 913 00:38:04,090 --> 00:38:06,756 Y en julio del año pasado, el primer ministro Scott Morrison 914 00:38:06,780 --> 00:38:08,340 ordenó una revisión por parte de las 915 00:38:08,352 --> 00:38:10,263 agencias de inteligencia sobre la aplicación. 916 00:38:11,531 --> 00:38:12,765 17 DE JULIO DE 2020 917 00:38:12,790 --> 00:38:16,543 Siempre tenemos en cuenta esos riesgos 918 00:38:16,567 --> 00:38:20,366 y siempre los vigilamos muy de cerca. 919 00:38:20,390 --> 00:38:22,286 Y si llegamos a considerar que hay necesidad 920 00:38:22,310 --> 00:38:24,876 de tomar más medidas de las que estamos tomando ahora, 921 00:38:24,900 --> 00:38:27,181 entonces puedo deciros que no seremos tímidos al respecto. 922 00:38:28,760 --> 00:38:31,056 - Es ciertamente una preocupación de seguridad 923 00:38:31,080 --> 00:38:33,546 que los datos de los usuarios australianos 924 00:38:33,570 --> 00:38:36,766 potencialmente terminen en Beijing. 925 00:38:37,300 --> 00:38:39,820 TikTok sostuvo que no es el caso. 926 00:38:39,850 --> 00:38:44,526 Y nuestro análisis mostró que 927 00:38:44,550 --> 00:38:46,586 ciertamente no hay una vía de contenidos 928 00:38:46,610 --> 00:38:50,056 que esté siendo enviado a Beijing. 929 00:38:50,080 --> 00:38:51,426 Pero eso no significa que, 930 00:38:51,450 --> 00:38:53,526 no se pueda acceder a ese contenido 931 00:38:53,550 --> 00:38:55,571 desde allí, si es necesario. 932 00:38:55,860 --> 00:38:56,866 ¿Cómo estáis? 933 00:38:56,914 --> 00:38:58,446 - Estoy bien, gracias. ¿Cómo estáis? 934 00:38:58,471 --> 00:39:00,775 TikTok sostiene que los datos de los usuarios australianos 935 00:39:00,800 --> 00:39:03,466 son almacenados en servidores en los EE.UU. y Singapur, 936 00:39:03,490 --> 00:39:05,496 y que nunca ha proporcionado datos 937 00:39:05,520 --> 00:39:06,963 al gobierno chino. 938 00:39:08,520 --> 00:39:11,076 Se le dijo al personal de los Departamentos de Asuntos 939 00:39:11,100 --> 00:39:14,056 Internos y Defensa que no tengan TikTok en sus teléfonos 940 00:39:14,080 --> 00:39:15,882 debido a los riesgos de seguridad. 941 00:39:16,510 --> 00:39:19,236 Pero Scott Morrison dijo que no había suficiente evidencia 942 00:39:19,260 --> 00:39:21,077 para prohibir TikTok en Australia. 943 00:39:21,820 --> 00:39:24,316 - El alcance de la investigación parece 944 00:39:24,340 --> 00:39:26,036 bastante limitado, 945 00:39:26,060 --> 00:39:31,115 y no es realmente suficiente para poder 946 00:39:31,140 --> 00:39:34,150 decirle al resto de Australia 947 00:39:34,220 --> 00:39:36,236 y a los ciudadanos australianos comunes, 948 00:39:36,260 --> 00:39:39,826 si es una buena idea que utilicen la aplicación. 949 00:39:41,190 --> 00:39:44,596 - Definitivamente debería realizarse otra revisión 950 00:39:44,620 --> 00:39:47,086 más rigurosa y larga en TikTok 951 00:39:47,110 --> 00:39:51,518 para comprender plenamente los riesgos que presenta. 952 00:39:52,340 --> 00:39:54,013 - Si miráis TikTok de forma aislada, 953 00:39:54,037 --> 00:39:55,723 dirás, venga, es sólo una aplicación, 954 00:39:55,747 --> 00:39:57,556 y son sólo niños haciendo videos de baile. 955 00:39:57,580 --> 00:39:58,876 Parece inofensiva. 956 00:39:58,900 --> 00:40:01,746 Pero en realidad forma parte de un contexto mucho más amplio 957 00:40:01,770 --> 00:40:04,526 de recopilación de datos, de inteligencia artificial, 958 00:40:04,550 --> 00:40:06,237 y un verdadero esfuerzo por parte de 959 00:40:06,249 --> 00:40:08,086 los chinos para consolidar su influencia 960 00:40:08,110 --> 00:40:09,642 en la región y en todo el mundo. 961 00:40:13,490 --> 00:40:14,982 En sólo dos años, 962 00:40:15,020 --> 00:40:17,915 TikTok se ha consolidado como la aplicación preferida 963 00:40:17,940 --> 00:40:20,056 para millones de australianos. 964 00:40:20,080 --> 00:40:22,956 - Ustedes me seguían diciendo que fuese a la Voz 2021. 965 00:40:22,980 --> 00:40:25,486 Así que lo hice. 966 00:40:25,510 --> 00:40:26,966 Existe una gran preocupación de que 967 00:40:26,990 --> 00:40:28,598 la versión divertida y hermosa 968 00:40:28,610 --> 00:40:30,446 de la realidad que muestra TikTok 969 00:40:30,470 --> 00:40:33,143 esté distorsionando la forma en que vemos el mundo. 970 00:40:34,720 --> 00:40:39,007 Y se cuestiona si sus usuarios comprenden los riesgos. 971 00:40:41,320 --> 00:40:44,176 - Estamos realmente en riesgo de tener generaciones 972 00:40:44,200 --> 00:40:46,346 de jóvenes que no han podido 973 00:40:46,370 --> 00:40:49,456 formar su propia identidad de manera natural. 974 00:40:49,480 --> 00:40:51,436 Y en cambio han formado identidades 975 00:40:51,460 --> 00:40:54,066 en respuesta a algo que una tecnología 976 00:40:54,090 --> 00:40:56,496 o una plataforma tecnológica establece 977 00:40:56,520 --> 00:40:58,515 como lo normal o la nueva normalidad. 978 00:40:58,540 --> 00:41:00,217 - La vez pasada esta señora se me acercó y me dijo, 979 00:41:00,241 --> 00:41:01,714 no parecéis lo suficientemente discapacitado. 980 00:41:01,738 --> 00:41:03,216 ¿No parezco lo suficientemente discapacitado? 981 00:41:03,240 --> 00:41:05,476 - Entiendo que TikTok se esfuerza al máximo 982 00:41:05,501 --> 00:41:07,887 para que la plataforma sea aceptable para todos 983 00:41:07,912 --> 00:41:10,365 teniendo sólo divertidos videos de 984 00:41:10,390 --> 00:41:12,925 baile y de sincronización de labios. 985 00:41:16,330 --> 00:41:18,986 Pero sé que mi contenido le da valor 986 00:41:19,010 --> 00:41:21,196 a mucha gente parecida a mí. 987 00:41:21,220 --> 00:41:23,916 Que vive la misma vida que yo. 988 00:41:23,940 --> 00:41:25,635 Que son morenos como yo. 989 00:41:33,790 --> 00:41:38,016 - Después de unos meses terminé desligándome de TikTok. 990 00:41:38,040 --> 00:41:40,226 Pero incluso con eso, como que todavía me dejó 991 00:41:40,250 --> 00:41:42,566 con el desorden alimenticio, ya sabéis. 992 00:41:42,590 --> 00:41:45,376 Es como que TikTok te lleva al desarrollo del problema 993 00:41:45,400 --> 00:41:48,963 y luego toma mucho, mucho tiempo arreglarlo. 994 00:41:50,278 --> 00:41:52,315 TikTok no está aquí para ayudar a la gente. 995 00:41:52,340 --> 00:41:53,756 No creo que viniera al mundo 996 00:41:53,780 --> 00:41:55,436 con la intención de ayudar a la gente. 997 00:41:55,460 --> 00:41:57,266 Si ellos pueden ganar dinero con algo, 998 00:41:57,290 --> 00:41:59,686 entonces ganarán dinero con algo. 999 00:42:00,160 --> 00:42:02,286 Creo que tal vez necesiten darse cuenta 1000 00:42:02,310 --> 00:42:04,210 del impacto que está teniendo en la gente.