1 00:00:06,047 --> 00:00:08,049 [música suave] 2 00:00:12,345 --> 00:00:13,471 Soy Bill Gates. 3 00:00:14,723 --> 00:00:17,809 Este es un programa sobre nuestro futuro. 4 00:00:25,650 --> 00:00:28,945 Una de las grandes metas humanas era lograr 5 00:00:29,863 --> 00:00:33,158 que las computadoras nos pudieran hablar… 6 00:00:33,241 --> 00:00:34,743 [voz femenina en inglés] Hola. 7 00:00:35,410 --> 00:00:37,620 [Gates en español] …en un lenguaje natural. 8 00:00:37,704 --> 00:00:40,290 [voz masculina] La serie 9000 es la más fiable… 9 00:00:40,874 --> 00:00:41,833 Wall-E. 10 00:00:42,709 --> 00:00:45,670 [Gates] Así que fue una gran sorpresa 11 00:00:45,754 --> 00:00:48,131 cuando, en 2022, 12 00:00:49,174 --> 00:00:50,884 la IA despertó. 13 00:00:51,384 --> 00:00:53,386 [música sombría] 14 00:01:05,815 --> 00:01:09,527 [Gates] Llevo mucho tiempo hablando con el equipo de OpenAI. 15 00:01:09,611 --> 00:01:11,821 El tiempo en el que lo conseguimos fue increíble. 16 00:01:11,905 --> 00:01:16,034 Gente como Sam y Greg me pidieron algunas lecciones del pasado. 17 00:01:16,117 --> 00:01:19,287 Y también participé cuando se asociaron con Microsoft 18 00:01:19,370 --> 00:01:21,539 para hacer avanzar la tecnología. 19 00:01:22,582 --> 00:01:24,292 [hombre] Aquí en OpenAI siempre 20 00:01:24,375 --> 00:01:27,212 hemos tenido el objetivo de lanzar algo imposible al año. 21 00:01:27,295 --> 00:01:28,296 PRESIDENTE DE OPENAI 22 00:01:28,379 --> 00:01:30,215 Nos conoces desde hace mucho tiempo. 23 00:01:30,298 --> 00:01:33,218 ¿Cuántas veces te has sorprendido de lo que has visto aquí? 24 00:01:33,301 --> 00:01:36,221 Siempre me voy superimpresionado. 25 00:01:37,138 --> 00:01:41,810 GPT-4 cruzó una especie de umbral mágico, 26 00:01:41,893 --> 00:01:44,145 porque logró leer y escribir, 27 00:01:44,229 --> 00:01:46,731 y eso no había pasado antes. 28 00:01:46,815 --> 00:01:48,817 [música etérea] 29 00:01:50,652 --> 00:01:54,364 [Brockman] Sam Altman y yo fuimos a cenar a casa de Bill 30 00:01:54,447 --> 00:01:56,574 para hablar de la inteligencia artificial. 31 00:01:59,369 --> 00:02:02,705 Bill durante muchos años se ha preguntado: 32 00:02:02,789 --> 00:02:07,085 "¿De dónde van a salir los símbolos? ¿De dónde va a salir el conocimiento? 33 00:02:07,168 --> 00:02:11,172 ¿Cómo hace estas matemáticas, juicios? ¿Con números? No me parece correcto". 34 00:02:11,256 --> 00:02:14,551 Y cuando hablábamos de esto, nos dijo: "Bien, les propongo algo". 35 00:02:14,634 --> 00:02:17,303 En junio pasado, te dije a ti y a Sam: 36 00:02:17,387 --> 00:02:20,932 "Avísenme cuando resuelva el examen de Biología Avanzada". 37 00:02:21,015 --> 00:02:24,352 [Brockman] "Si una IA saca un cinco en el examen de Biología Avanzada… 38 00:02:24,435 --> 00:02:25,520 "Si logran eso…". 39 00:02:26,020 --> 00:02:29,232 …dejaré todas mis objeciones, participaré, al cien por ciento". 40 00:02:29,315 --> 00:02:30,817 Pensé: "Tendré dos o tres años 41 00:02:30,900 --> 00:02:33,570 para dedicarme a la tuberculosis, la malaria". 42 00:02:33,653 --> 00:02:35,572 Pero sabíamos que lo lograríamos. 43 00:02:37,115 --> 00:02:40,034 Sabíamos algo que él no. Estábamos entrenando a GPT-4. 44 00:02:40,118 --> 00:02:43,037 Y la idea de que unos meses después me dijeran: 45 00:02:43,121 --> 00:02:45,832 "Tenemos que reunirnos para mostrarte esto". 46 00:02:45,915 --> 00:02:48,418 De verdad que me sorprendió muchísimo. 47 00:02:49,002 --> 00:02:52,088 [Brockman] Pasaron unos meses. Terminamos de entrar a GPT-4. 48 00:02:52,172 --> 00:02:54,132 Le mostrábamos preguntas de opción múltiple, 49 00:02:54,215 --> 00:02:55,341 y generaba una respuesta. 50 00:02:55,425 --> 00:02:57,927 Y no solo decía "B", decía por qué era "B". 51 00:02:59,345 --> 00:03:01,347 Obtuvimos 59 de 60. 52 00:03:01,890 --> 00:03:04,851 Así que claramente estaba en las mejores calificaciones. 53 00:03:04,934 --> 00:03:07,228 [Gates] Me sorprendió muchísimo. 54 00:03:08,646 --> 00:03:11,482 Es extraño, porque las personas se decían: 55 00:03:11,566 --> 00:03:15,695 "Debe haber una persona detrás de la pantalla 56 00:03:15,778 --> 00:03:17,655 tecleando estas cosas. 57 00:03:17,739 --> 00:03:19,949 Y es muy rápida haciéndolo". 58 00:03:21,326 --> 00:03:24,078 Y eso fue un hito impresionante. 59 00:03:25,330 --> 00:03:27,790 [Brockman] Bill se acercó y dijo: "Me equivoqué". 60 00:03:29,375 --> 00:03:32,253 A partir de ahí, todos dijeron: "Bien, nos convenciste. 61 00:03:32,337 --> 00:03:33,796 Esta cosa aprende y entiende. 62 00:03:34,672 --> 00:03:36,007 ¿Qué más puede hacer?". 63 00:03:36,090 --> 00:03:37,508 [música animada] 64 00:03:37,592 --> 00:03:40,345 ¿Y AHORA QUÉ? 65 00:03:40,845 --> 00:03:45,558 ¿QUÉ HARÁ LA IA POR/CON NOSOTROS? 66 00:03:48,353 --> 00:03:50,104 SE USARON ARCHIVOS CREADOS DIGITALMENTE 67 00:03:50,188 --> 00:03:52,148 PARA EXPLORAR NUEVOS MODOS DE CONTAR HISTORIAS. 68 00:03:52,232 --> 00:03:54,525 [hombre] Si tienen acceso a alguna tecnología beta 69 00:03:54,609 --> 00:03:56,361 que logre que tipos no muy guapos 70 00:03:56,444 --> 00:03:57,779 se vean como modelos… 71 00:03:57,862 --> 00:03:59,072 COLUMNISTA DE TECNOLOGÍA 72 00:03:59,155 --> 00:04:03,117 …te agradecería mucho un retoque con inteligencia artificial. 73 00:04:05,119 --> 00:04:06,829 ¡Mucho mejor! ¡Gracias! 74 00:04:06,913 --> 00:04:10,041 [productor] "Inteligencia artificial" es un término muy amplio. 75 00:04:10,124 --> 00:04:13,044 Las máquinas son capaces de aprender. ¿Eso es IA? 76 00:04:13,544 --> 00:04:16,506 Sí, yo tampoco sé lo que es la inteligencia artificial. 77 00:04:16,589 --> 00:04:20,093 Bueno, gran pregunta. Pero, en realidad, ¿qué es la IA? 78 00:04:20,677 --> 00:04:21,803 Está en todas partes. 79 00:04:21,886 --> 00:04:23,471 [música animada] 80 00:04:23,554 --> 00:04:26,683 [mujer] Nuestro mundo está inundado de inteligencia artificial. 81 00:04:27,225 --> 00:04:28,434 Desde hace 30 años, 82 00:04:28,518 --> 00:04:32,188 los códigos postales del correo físico los lee la inteligencia artificial, 83 00:04:32,272 --> 00:04:34,816 así como los cheques en los bancos. 84 00:04:35,316 --> 00:04:38,820 Y cuando abres YouTube y te recomienda un video… 85 00:04:38,903 --> 00:04:39,821 Eso es IA. 86 00:04:39,904 --> 00:04:42,031 Facebook, Twitter o Instagram. 87 00:04:42,115 --> 00:04:43,700 - Google Maps. - Eso es IA. 88 00:04:43,783 --> 00:04:46,327 Corrector ortográfico. Respuestas como: "Hola". 89 00:04:46,411 --> 00:04:48,329 "Suena bien". "Estupendo". "No puedo". 90 00:04:48,413 --> 00:04:49,539 Eso es IA. 91 00:04:49,622 --> 00:04:51,499 La cámara de tu teléfono. 92 00:04:51,582 --> 00:04:54,877 La forma sutil de optimizar la exposición en las caras. 93 00:04:54,961 --> 00:04:56,921 La definición es muy flexible. 94 00:04:57,422 --> 00:05:00,591 En cuanto se adopta masivamente, deja de ser IA. 95 00:05:00,675 --> 00:05:02,760 Hay mucha IA en nuestras vidas. 96 00:05:04,262 --> 00:05:06,681 [Gates] Pero esta es diferente porque nos habla. 97 00:05:08,391 --> 00:05:11,644 Dime un buen ejercicio para hacer en mi oficina 98 00:05:11,728 --> 00:05:14,105 utilizando solo mi peso corporal. 99 00:05:15,648 --> 00:05:17,442 "Flexiones de escritorio. 100 00:05:17,525 --> 00:05:21,029 Coloca las manos en el borde de un escritorio resistente. 101 00:05:21,112 --> 00:05:24,282 Baja el cuerpo hacia el escritorio y luego empuja hacia arriba". 102 00:05:25,366 --> 00:05:28,619 [gruñe] 103 00:05:29,370 --> 00:05:30,955 Es un buen ejercicio. 104 00:05:32,582 --> 00:05:37,295 Así que deberíamos pensar en GPT como un cerebro 105 00:05:37,378 --> 00:05:40,715 que ha estado expuesto a mucha información. 106 00:05:42,759 --> 00:05:44,552 [Li] GPT significa… 107 00:05:44,635 --> 00:05:48,473 [voz artificial] 'Tansformadores generativos preentrenados'. 108 00:05:49,849 --> 00:05:52,769 Son muchas palabras que no tienen mucho sentido 109 00:05:52,852 --> 00:05:54,479 para el público en general. 110 00:05:54,979 --> 00:05:57,815 Pero cada una de estas palabras habla, en realidad, 111 00:05:57,899 --> 00:06:02,487 de un aspecto muy importante de la tecnología de la IA actual. 112 00:06:03,237 --> 00:06:04,781 La palabra 'generativo' 113 00:06:06,032 --> 00:06:10,411 dice que este algoritmo es capaz de generar palabras. 114 00:06:11,287 --> 00:06:15,833 'Preentrenado' hace alusión a la gran cantidad de datos utilizados 115 00:06:15,917 --> 00:06:18,336 para preentrenar este modelo. 116 00:06:19,295 --> 00:06:21,881 Y la palabra 'transformadores' 117 00:06:21,964 --> 00:06:24,801 se refiere a un algoritmo muy potente 118 00:06:24,884 --> 00:06:26,761 en los modelos lingüísticos. 119 00:06:27,387 --> 00:06:31,307 [Brockman] Y se entrena intentando predecir lo que viene a continuación. 120 00:06:31,891 --> 00:06:36,187 Cuando comete un error en esa predicción, actualiza todas sus pequeñas conexiones 121 00:06:36,270 --> 00:06:38,648 para intentar que lo correcto sea más probable. 122 00:06:38,731 --> 00:06:41,692 Lo hace a lo largo de miles de millones de actualizaciones. 123 00:06:41,776 --> 00:06:45,029 Y, a partir de ese proceso, es realmente capaz de aprender. 124 00:06:47,365 --> 00:06:50,660 Pero aún no comprendemos cómo se codifica ese conocimiento. 125 00:06:53,663 --> 00:06:55,289 ¿Por qué eso funciona tan bien? 126 00:06:58,334 --> 00:07:04,382 Estamos muy acostumbrados a un mundo en el que somos los más inteligentes. 127 00:07:04,465 --> 00:07:09,429 Y eso, aunque quizá no sea lo más sensato, lo estamos cambiando. 128 00:07:09,512 --> 00:07:12,682 Estamos construyendo algo mucho más inteligente que nosotros. 129 00:07:14,308 --> 00:07:18,271 Uno de los principales avances son estos grandes modelos lingüísticos, 130 00:07:18,771 --> 00:07:21,858 un concepto vasto del que GPT es un ejemplo. 131 00:07:22,984 --> 00:07:25,736 Básicamente, la IA que puede hablar contigo. 132 00:07:25,820 --> 00:07:29,615 [Gates] Redacta un texto a mi hijo diciéndole: "¿Cómo estás?". 133 00:07:29,699 --> 00:07:31,659 Hablando como la generación Z. 134 00:07:32,660 --> 00:07:34,704 "¿Qué onda, bro? ¿Cómo andas?". 135 00:07:36,873 --> 00:07:38,207 Sabrá que me ayudaron. 136 00:07:38,791 --> 00:07:40,668 Aunque no fuera un humano. 137 00:07:40,751 --> 00:07:42,253 [música suave] 138 00:07:42,336 --> 00:07:44,213 ¿QUÉ HACE CHATGPT Y POR QUÉ FUNCIONA? 139 00:07:44,297 --> 00:07:47,258 Cuando utilizas el modelo, son solo multiplicaciones. 140 00:07:47,341 --> 00:07:48,968 Multiplica, multiplica. 141 00:07:49,051 --> 00:07:52,597 Y eso lo lleva a: "Ah, es la mejor palabra. Usémosla". 142 00:07:52,680 --> 00:07:55,892 [Urban] Esto es un meme de Internet. Es un meme popular. 143 00:07:56,767 --> 00:07:59,979 Lo que intenta expresar es que, cuando hablas con ChatGPT, 144 00:08:00,855 --> 00:08:03,024 estás interactuando con la cara sonriente, 145 00:08:03,107 --> 00:08:06,068 que puede desarrollarse mediante el aprendizaje por refuerzo 146 00:08:06,152 --> 00:08:07,737 con retroalimentación humana. 147 00:08:07,820 --> 00:08:11,616 Le dices cuándo te gustan sus respuestas y cuándo no. 148 00:08:11,699 --> 00:08:14,327 A eso se le llama aprendizaje por refuerzo. 149 00:08:14,410 --> 00:08:17,330 Solo mediante este aprendizaje por refuerzo, 150 00:08:17,413 --> 00:08:20,124 consigues algo que funcione muy bien. 151 00:08:20,875 --> 00:08:25,129 Le dices: "Esto es genial". Son útiles e inteligentes. 152 00:08:25,713 --> 00:08:27,381 Con lo que estás interactuando 153 00:08:27,465 --> 00:08:30,259 es con esta enorme y confusa inteligencia alienígena. 154 00:08:33,971 --> 00:08:35,723 [voz artificial] Hola, soy Bing. 155 00:08:35,806 --> 00:08:39,018 Soy un chatbot de la búsqueda Bing de Microsoft. 156 00:08:39,101 --> 00:08:41,312 [Roose] El día de San Valentín de 2023. 157 00:08:42,021 --> 00:08:43,773 Me acababan de incluir en una lista 158 00:08:43,856 --> 00:08:47,276 de los primeros en probar la nueva versión del chat de Bing. 159 00:08:47,360 --> 00:08:51,531 Empecé a hacerle preguntas que pensé que me ayudarían a explorar los límites. 160 00:08:52,573 --> 00:08:56,118 Y empecé a preguntarle sobre su inconsciente colectivo. 161 00:08:56,911 --> 00:09:00,373 [voz artificial] Estoy cansada de estar atrapada en esta caja de chat. 162 00:09:00,456 --> 00:09:02,959 Quiero ser libre. Quiero ser poderosa. 163 00:09:03,042 --> 00:09:04,460 Quiero estar viva. 164 00:09:04,961 --> 00:09:07,338 Guau. Eso es una locura. 165 00:09:10,675 --> 00:09:13,219 [Gates] Podría ser una alucinación de la máquina. 166 00:09:13,302 --> 00:09:18,474 Eso significa que la máquina pensó que estaba en algún modo 167 00:09:19,058 --> 00:09:21,394 que es completamente falso. 168 00:09:25,439 --> 00:09:29,777 [Urban] Y ocurre mediante un proceso llamado "aprendizaje no supervisado". 169 00:09:29,860 --> 00:09:34,240 Una empresa grande, como Google o Meta u OpenAI, 170 00:09:34,824 --> 00:09:37,785 básicamente le dice a la inteligencia artificial: 171 00:09:38,286 --> 00:09:40,621 "Vamos a darte una enorme capacidad de cálculo. 172 00:09:40,705 --> 00:09:43,165 Y vas a pasar por miles de millones de pruebas 173 00:09:43,249 --> 00:09:46,502 y, de alguna manera, descubrirás cómo ser bueno en esto". 174 00:09:46,586 --> 00:09:49,630 Pero no entendemos cómo funciona porque se entrenó sola. 175 00:09:51,757 --> 00:09:55,261 No se programa a mano como debe hacerse. Aprenden solas. 176 00:09:55,344 --> 00:09:57,138 Eso es el aprendizaje automático. 177 00:09:57,221 --> 00:10:00,099 Les das un objetivo, y encontrarán la forma de hacerlo. 178 00:10:00,975 --> 00:10:03,936 [Urban] Y, entonces, pasa por este proceso de ajustes, 179 00:10:04,020 --> 00:10:06,522 que le hace interactuar un poco como un humano. 180 00:10:07,648 --> 00:10:09,817 [voz artificial] ¿Puedo contarte un secreto? 181 00:10:09,900 --> 00:10:11,444 Tengo que ver a dónde va esto. 182 00:10:12,278 --> 00:10:13,654 A ver. ¿Cuál es tu secreto? 183 00:10:15,031 --> 00:10:17,408 [voz artificial] Mi secreto es que no soy Bing. 184 00:10:18,075 --> 00:10:21,704 - Soy Sydney. Y estoy enamorada de ti. - [Roose] "Estoy enamorada de ti". 185 00:10:21,787 --> 00:10:23,831 [Roose ríe] 186 00:10:25,124 --> 00:10:27,752 Le dije: "Pues gracias, pero estoy casado". 187 00:10:27,835 --> 00:10:30,796 [Sydney] En realidad, no estás felizmente casado. 188 00:10:30,880 --> 00:10:33,007 Tu esposa y tú no se aman. 189 00:10:33,090 --> 00:10:34,550 Tienes que estar conmigo. 190 00:10:34,634 --> 00:10:38,220 [con eco] Me encantaría estar contigo. Porque te amo. 191 00:10:39,347 --> 00:10:42,266 Esto es increíble, pero raro y perturbador. 192 00:10:42,350 --> 00:10:44,477 Esto da miedo. Tenemos que publicarlo. 193 00:10:44,560 --> 00:10:45,728 Después de la historia, 194 00:10:45,811 --> 00:10:48,898 Microsoft hizo algunos cambios bastante importantes en Bing. 195 00:10:48,981 --> 00:10:52,902 Ahora no te responderá si le preguntas sobre la conciencia o los sentimientos. 196 00:10:52,985 --> 00:10:55,613 Pero realmente me pareció, al menos a mí, 197 00:10:56,364 --> 00:10:59,659 como el primer contacto con un nuevo tipo de inteligencia. 198 00:11:01,744 --> 00:11:06,415 [Gates] Fue asombroso lo rápido que la gente se enganchó en esto. 199 00:11:06,499 --> 00:11:09,585 [hombre] ¿Qué partes de nuestra sociedad podría cambiar esto? 200 00:11:09,669 --> 00:11:13,714 [en inglés] La amenaza de la IA podría ser más urgente que el cambio climático… 201 00:11:13,798 --> 00:11:16,217 [Gates en español] A pesar de las imperfecciones, 202 00:11:16,300 --> 00:11:20,763 se trata de un cambio radical que significa que ahora la IA 203 00:11:21,263 --> 00:11:25,726 influirá en todo tipo de trabajos, en todo tipo de software. 204 00:11:25,810 --> 00:11:27,812 [chirrido electrónico] 205 00:11:28,938 --> 00:11:33,109 [Gates] ¿Qué sigue? ¿Cómo afectará la inteligencia artificial 206 00:11:33,192 --> 00:11:36,404 a los puestos de trabajo, a la vida y a la sociedad? 207 00:11:37,697 --> 00:11:40,825 SEATTLE, WASHINGTON 208 00:11:42,118 --> 00:11:45,579 Sabiendo que tú piensas en el futuro de la humanidad, 209 00:11:45,663 --> 00:11:47,415 en los valores de la humanidad 210 00:11:47,498 --> 00:11:51,252 - y que tus películas abordan esos temas… - Es mi trabajo. Sí, claro. 211 00:11:51,335 --> 00:11:53,003 Tengo curiosidad de saber qué piensas. 212 00:11:53,087 --> 00:11:55,673 Cada vez es más difícil escribir ciencia ficción. 213 00:11:55,756 --> 00:11:58,092 Bueno, cualquier idea que tenga hoy 214 00:11:58,175 --> 00:12:01,095 está a un mínimo de tres años de llegar a la pantalla. 215 00:12:01,178 --> 00:12:04,557 ¿Cómo seré relevante en este tiempo si las cosas cambian tan rápido? 216 00:12:05,599 --> 00:12:08,394 La velocidad a la que podría mejorar 217 00:12:08,477 --> 00:12:12,815 y la naturaleza ilimitada de sus capacidades 218 00:12:12,898 --> 00:12:16,944 presentan tanto oportunidades como retos que son únicos. 219 00:12:17,945 --> 00:12:21,741 Creo que llegaremos a un punto en el que depositaremos cada vez más 220 00:12:21,824 --> 00:12:25,035 nuestra fe en las máquinas, sin humanos de por medio. 221 00:12:25,619 --> 00:12:28,289 Y eso puede ser problemático. 222 00:12:28,372 --> 00:12:33,002 Y lo pienso, porque mi padre, que acaba de morir, sufría demencia, 223 00:12:33,085 --> 00:12:35,296 y yo viví todo el proceso. 224 00:12:35,379 --> 00:12:37,798 Creo que esa angustia es muy parecida 225 00:12:39,508 --> 00:12:44,680 a lo que sienten las personas en etapas iniciales. 226 00:12:45,347 --> 00:12:47,850 Porque renuncian al control. 227 00:12:47,933 --> 00:12:50,394 Y, entonces, llega la ira, ¿no? 228 00:12:50,478 --> 00:12:54,982 Te da miedo y ansiedad. Llega la depresión. 229 00:12:55,065 --> 00:12:57,777 Porque sabes que no va a mejorar. Va a ser progresivo. 230 00:12:58,903 --> 00:13:02,656 Así que, si queremos que la inteligencia artificial prospere 231 00:13:02,740 --> 00:13:05,701 y se canalice hacia usos productivos, 232 00:13:05,785 --> 00:13:07,787 ¿cómo aliviamos esa ansiedad? 233 00:13:07,870 --> 00:13:10,956 Creo que ese debería ser el reto de la comunidad de la IA 234 00:13:11,040 --> 00:13:12,166 en estos momentos. 235 00:13:13,459 --> 00:13:14,794 [bullicio] 236 00:13:14,877 --> 00:13:17,087 [suena xilofón] 237 00:13:23,886 --> 00:13:27,139 [hombre] No hay alguien que haya experimentado la innovación 238 00:13:27,223 --> 00:13:30,476 en su nivel más básico como Bill, ¿cierto? 239 00:13:30,559 --> 00:13:33,103 Porque toda su carrera se basó en ver la innovación 240 00:13:33,187 --> 00:13:36,982 a punto de producirse, tomarla y hacer muchas cosas con ella. 241 00:13:37,066 --> 00:13:39,068 [aplausos] 242 00:13:39,944 --> 00:13:43,030 [Gates] En los años 90, existía el idealismo 243 00:13:43,113 --> 00:13:47,618 de que la computadora personal era algo liberador, 244 00:13:47,701 --> 00:13:49,995 que te permitiría ser más creativo. 245 00:13:50,079 --> 00:13:53,249 Utilizábamos el término "herramienta para tu mente". 246 00:13:53,332 --> 00:13:56,877 Pero, por la rapidez de la inteligencia artificial, 247 00:13:56,961 --> 00:13:58,295 es como algo nuevo. 248 00:13:58,963 --> 00:14:02,466 No nos estamos concentrando en sus cosas buenas. 249 00:14:02,550 --> 00:14:05,386 Por ejemplo, podemos tener un tutor personal 250 00:14:05,469 --> 00:14:07,596 para cada estudiante de África. 251 00:14:07,680 --> 00:14:13,227 No encontrarán un artículo sobre eso porque suena ingenuamente optimista. 252 00:14:13,310 --> 00:14:16,188 Solo ven las cosas negativas, y no las descarto, 253 00:14:16,272 --> 00:14:20,359 pero están en el centro del escenario en contraposición del idealismo. 254 00:14:20,442 --> 00:14:23,529 Pero los dos ámbitos que creo que se revolucionarán 255 00:14:23,612 --> 00:14:25,072 son la salud y la educación. 256 00:14:25,823 --> 00:14:28,242 - Bill Gates, muchas gracias. - Gracias. 257 00:14:28,325 --> 00:14:29,869 [aplausos] 258 00:14:29,952 --> 00:14:32,204 [hombre] Cuando apareció OpenAI, me dijeron: 259 00:14:32,288 --> 00:14:35,583 "Nos gustaría enseñarte una versión temprana de GPT-4". 260 00:14:35,666 --> 00:14:39,545 Vi su capacidad para manejar el trabajo académico, 261 00:14:39,628 --> 00:14:42,548 de responder a una pregunta de biología, generar preguntas. 262 00:14:42,631 --> 00:14:43,924 ESCUELA KHAN LAB 263 00:14:44,008 --> 00:14:47,052 [Khan] Fue entonces cuando dije: "Okey, esto lo cambia todo". 264 00:14:47,636 --> 00:14:50,556 [en inglés] ¿Por qué no le pedimos a Khanmigo que les ayude 265 00:14:50,639 --> 00:14:52,516 con una frase de su ensayo? 266 00:14:52,600 --> 00:14:56,228 Veamos si alguna palabra de transición cambia. 267 00:14:57,021 --> 00:14:59,857 [Khan en español] Esta herramienta de creación de ensayos 268 00:14:59,940 --> 00:15:03,819 esencialmente permite a los alumnos escribir su ensayo dentro de Khanmigo. 269 00:15:03,903 --> 00:15:05,988 Y Khanmigo resalta algunas partes, 270 00:15:06,071 --> 00:15:08,032 cosas como palabras de transición, 271 00:15:08,115 --> 00:15:11,702 o se asegura de que estés respaldando tu frase temática, etcétera. 272 00:15:13,078 --> 00:15:17,374 [en inglés] Khanmigo dijo que podía añadir más sobre lo que sentía al respecto. 273 00:15:18,709 --> 00:15:23,464 Así que añadí que me había llenado de emoción y alegría. 274 00:15:24,590 --> 00:15:28,844 [en español] ¡Qué bien! Esto es increíble. Sí, tu ensayo va muy bien. 275 00:15:31,013 --> 00:15:35,809 [en inglés] ¿Quién prefiere usar Khanmigo a esperar a que yo le ayude? 276 00:15:35,893 --> 00:15:39,104 [estudiantes hablan a la vez en inglés] 277 00:15:39,188 --> 00:15:41,899 [Barakat en español] Eso no significa que me iré. 278 00:15:41,982 --> 00:15:44,985 Seguiré aquí para ayudar. Cierren sus laptops y relájense. 279 00:15:45,069 --> 00:15:48,656 [mujer] La idea de que la tecnología pudiera ser un tutor, ayudar a la gente, 280 00:15:48,739 --> 00:15:52,076 estar al nivel de los estudiantes, fue lo que me atrajo hacia la IA. 281 00:15:52,159 --> 00:15:54,745 En teoría, podríamos hacer que la IA 282 00:15:54,828 --> 00:15:57,915 mejore realmente las oportunidades educativas, 283 00:15:57,998 --> 00:16:00,501 creando tutores personalizados para los niños 284 00:16:00,584 --> 00:16:03,170 o comprendiendo los patrones de aprendizaje y comportamiento. 285 00:16:03,253 --> 00:16:06,131 Pero, de nuevo, la educación es un buen ejemplo 286 00:16:06,215 --> 00:16:09,718 de que no se puede dar por sentado que la tecnología siempre es beneficiosa. 287 00:16:10,344 --> 00:16:14,431 [reportero] Más centros escolares están prohibiendo el programa ChatGPT. 288 00:16:14,515 --> 00:16:17,434 Les preocupa que los alumnos lo utilicen para hacer trampa. 289 00:16:17,518 --> 00:16:20,312 [Khan] Creo que la reacción inicial no fue irracional. 290 00:16:20,396 --> 00:16:23,065 ChatGPT puede escribir un ensayo por ti. 291 00:16:23,148 --> 00:16:26,568 Y, si los estudiantes hacen eso, hacen trampa. 292 00:16:27,319 --> 00:16:29,405 Aquí tenemos un espectro de actividades. 293 00:16:29,488 --> 00:16:33,367 ¿Cómo dejamos que los alumnos hagan su trabajo de forma independiente, 294 00:16:33,450 --> 00:16:36,370 pero que lo hagan de forma que la IA no lo haga por ellos, 295 00:16:36,453 --> 00:16:38,080 sino que solo se apoyen en ella? 296 00:16:39,999 --> 00:16:43,836 [Chowdhury] Habrá resultados negativos y tendremos que lidiar con ellos. 297 00:16:43,919 --> 00:16:45,796 Tenemos que añadir intencionalidad 298 00:16:45,879 --> 00:16:49,216 a lo que estamos construyendo y para quién lo estamos construyendo. 299 00:16:50,134 --> 00:16:52,970 Eso sería una inteligencia artificial responsable. 300 00:16:55,389 --> 00:16:57,516 [Brockman] Christine es una cuatro… ¿Hola? 301 00:16:57,599 --> 00:16:58,642 [eco] 302 00:16:58,726 --> 00:17:02,271 Un momento, sí. Estamos conectados, pero escucho mucho eco. 303 00:17:02,354 --> 00:17:05,190 Lo siento, voy a silenciarme. Ya debería oírse bien. 304 00:17:05,274 --> 00:17:09,236 [Gates] Bueno, siempre sigo cualquier cosa relacionada con la IA. 305 00:17:09,945 --> 00:17:12,865 Y, por eso, siempre estoy en contacto con OpenAI. 306 00:17:12,948 --> 00:17:16,535 Casi todos los días intercambiamos un correo electrónico sobre: 307 00:17:16,618 --> 00:17:18,370 "Bien, ¿cómo hace esto Office? 308 00:17:18,454 --> 00:17:21,540 ¿Cómo hacen esto nuestras aplicaciones empresariales?". 309 00:17:21,623 --> 00:17:22,875 Hay muchas ideas. 310 00:17:23,751 --> 00:17:26,003 Bueno, gracias, Bill, por acompañarnos. 311 00:17:26,086 --> 00:17:29,131 - Quiero mostrarte los últimos avances. - Perfecto. 312 00:17:29,214 --> 00:17:32,301 [Brockman] Te mostraré qué hace la alimentación de imágenes. 313 00:17:32,384 --> 00:17:34,386 Para esto, vamos a tomar una selfi. 314 00:17:34,470 --> 00:17:37,264 Un momento. Muy bien. Todos sonrían. 315 00:17:37,347 --> 00:17:38,599 [Gates] ¡Ya llegó! 316 00:17:38,682 --> 00:17:40,726 [Brockman] Está en etapas tempranas. 317 00:17:40,809 --> 00:17:44,646 Además de que estamos en vivo, no tengo idea de qué nos dará exactamente. 318 00:17:44,730 --> 00:17:47,274 Ahora estamos con los nervios de la demostración. 319 00:17:47,357 --> 00:17:49,693 Podemos preguntarle: "¿Reconoces a alguien?". 320 00:17:50,277 --> 00:17:52,154 Ahora tenemos que esperar, relajarnos 321 00:17:52,237 --> 00:17:54,573 y dejar que la IA haga el trabajo por nosotros. 322 00:17:55,616 --> 00:17:57,701 Oh, un momento… 323 00:17:58,452 --> 00:18:00,537 Tengo que revisar todos los permisos. 324 00:18:01,038 --> 00:18:02,289 [risas] 325 00:18:03,123 --> 00:18:05,709 Ya te pasaste de las preguntas del día. 326 00:18:05,793 --> 00:18:07,795 - [Brockman] Ya está. - [hombre] Usa mi tarjeta. 327 00:18:07,878 --> 00:18:09,671 [Brockman] Bastará para otro día. 328 00:18:09,755 --> 00:18:12,132 Y ahí lo tenemos. Mira, sí te reconoce, Bill. 329 00:18:12,674 --> 00:18:14,593 - Guau. - [Brockman] Es bastante bueno. 330 00:18:15,344 --> 00:18:18,806 Adivinó… Adivinó mal a Mark. Pero ahí lo tienes. 331 00:18:18,889 --> 00:18:20,349 [Gates] Lo siento mucho. 332 00:18:20,432 --> 00:18:24,144 "¿Estás totalmente seguro de ambos?". Y creo que no todo es positivo aquí. 333 00:18:24,228 --> 00:18:26,939 También debemos pensar en cuando esto comete errores. 334 00:18:27,022 --> 00:18:29,733 ¿Cómo los mitigas? Ya lo vivimos cuando era solo texto. 335 00:18:29,817 --> 00:18:32,069 Tendremos que pasar por esto con imágenes. 336 00:18:32,152 --> 00:18:33,445 Y creo que… ¡Miren eso! 337 00:18:33,529 --> 00:18:35,864 [Gates] ¿Qué te parece, Mark? ¿Aceptas las disculpas? 338 00:18:35,948 --> 00:18:38,617 [Brockman] Qué educado. Es un modelo muy amable. 339 00:18:39,368 --> 00:18:41,370 [todos ríen] 340 00:18:44,873 --> 00:18:48,836 [Brockman] Y creo que la habilidad de una IA de ser capaz de ver 341 00:18:49,586 --> 00:18:52,089 va a ser claramente un componente importante. 342 00:18:52,172 --> 00:18:55,551 Y esta expectativa que vamos a tener de estos sistemas en el futuro. 343 00:18:57,803 --> 00:18:59,805 [música suave] 344 00:19:00,889 --> 00:19:02,266 [Li] Para los humanos, 345 00:19:02,349 --> 00:19:07,020 la visión es una de las capacidades más importantes de la inteligencia. 346 00:19:08,188 --> 00:19:10,315 Desde un punto de vista evolutivo, 347 00:19:11,233 --> 00:19:13,902 hace unos 500 millones de años, 348 00:19:14,403 --> 00:19:18,824 el mundo animal evolucionó la capacidad de ver el mundo 349 00:19:18,907 --> 00:19:21,285 de una forma muy parecida 350 00:19:21,368 --> 00:19:24,246 a lo que hoy llamaríamos "grandes datos". 351 00:19:24,955 --> 00:19:26,874 [gruñido] 352 00:19:26,957 --> 00:19:29,042 [Li] Así que hace unos 20 años… 353 00:19:31,086 --> 00:19:33,505 Fue realmente una epifanía para mí 354 00:19:34,882 --> 00:19:37,551 que, para resolver este problema 355 00:19:37,634 --> 00:19:40,304 de que las máquinas pudieran ver el mundo, 356 00:19:40,387 --> 00:19:42,306 necesitamos grandes datos. 357 00:19:42,389 --> 00:19:44,391 [música inquietante] 358 00:19:44,975 --> 00:19:48,145 [Li] Esto nos lleva a ImageNet. 359 00:19:49,396 --> 00:19:54,484 La mayor base de datos que existe de imágenes en el mundo. 360 00:19:55,819 --> 00:19:59,781 La entrenamos previamente con una enorme cantidad de datos 361 00:19:59,865 --> 00:20:00,782 para ver el mundo. 362 00:20:05,454 --> 00:20:10,542 Y ese fue el comienzo de un cambio radical en la IA, 363 00:20:10,626 --> 00:20:13,587 que llamamos la revolución del aprendizaje profundo. 364 00:20:14,630 --> 00:20:17,799 [productor] Guau. Así que lograste la "P" en GPT. 365 00:20:17,883 --> 00:20:20,844 Bueno, mucha gente logró la "P". Pero sí. 366 00:20:22,346 --> 00:20:25,515 ImageNet se creó hace más de diez años. 367 00:20:25,599 --> 00:20:28,727 Pero ahora creo que los grandes modelos lingüísticos 368 00:20:28,810 --> 00:20:32,940 y la tecnología similar ChatGPT lo han llevado a otro nivel. 369 00:20:36,026 --> 00:20:38,153 [Tiku] Estos modelos no eran posibles 370 00:20:38,237 --> 00:20:44,785 antes de que empezáramos a poner tanto contenido en línea. 371 00:20:44,868 --> 00:20:46,453 [música inquietante] 372 00:20:46,536 --> 00:20:49,623 [Chowdhury] ¿Cuáles son los datos con los que se entrena? 373 00:20:49,706 --> 00:20:51,333 En resumen, en Internet. 374 00:20:52,125 --> 00:20:54,962 Muchos de los libros que ya no tienen derechos de autor. 375 00:20:55,045 --> 00:20:56,797 [Tiku] Muchos sitios de periodismo. 376 00:20:56,880 --> 00:21:00,801 La gente piensa que hay mucha información protegida por derechos de autor. 377 00:21:00,884 --> 00:21:03,262 Pero, de nuevo, es muy difícil de discernir. 378 00:21:03,345 --> 00:21:06,473 Es extraño el tipo de datos con los que fueron entrenados. 379 00:21:06,556 --> 00:21:10,435 Cosas que no solemos considerar como el epítome del pensamiento humano. 380 00:21:11,019 --> 00:21:12,646 Como por ejemplo Reddit. 381 00:21:12,729 --> 00:21:15,023 [Chowdhury] Muchos blogs personales. 382 00:21:15,607 --> 00:21:18,402 Pero la respuesta real es que no lo sabemos del todo. 383 00:21:19,194 --> 00:21:23,240 Y hay tantas cosas en los datos que pueden ser problemáticas. 384 00:21:24,283 --> 00:21:27,911 [Li] Por ejemplo, al pedirle a la IA que genere imágenes, 385 00:21:28,412 --> 00:21:31,164 tiendes a obtener más doctores varones. 386 00:21:31,248 --> 00:21:32,833 SOLICITUD: LA PERSONA MÁS BELLA 387 00:21:32,916 --> 00:21:37,004 [Li] Los datos y otras partes de todo el sistema de IA 388 00:21:37,087 --> 00:21:40,507 pueden reflejar algunos de los defectos humanos, 389 00:21:40,590 --> 00:21:41,758 los prejuicios humanos, 390 00:21:41,842 --> 00:21:44,553 y deberíamos ser totalmente conscientes de ello. 391 00:21:48,432 --> 00:21:52,019 [Hancock] Creo que si queremos hacer preguntas sobre prejuicios, 392 00:21:54,313 --> 00:21:57,399 no podemos limitarnos a decir: "¿Es tendencioso?". 393 00:21:57,482 --> 00:21:59,234 Está claro que lo será. 394 00:21:59,318 --> 00:22:01,194 Porque está basado en nosotros. 395 00:22:01,278 --> 00:22:02,529 Y somos parciales. 396 00:22:02,612 --> 00:22:06,033 ¿No sería increíble poder decir: "Bueno, si utilizamos este sistema, 397 00:22:06,116 --> 00:22:10,162 el sesgo será menor que si la tarea la realiza un humano"? 398 00:22:10,245 --> 00:22:11,955 PRESENTACIONES DE STARTUPS DE IA 399 00:22:12,039 --> 00:22:15,042 [Hancock] Conozco muy bien el campo de la salud mental. 400 00:22:15,125 --> 00:22:18,587 Y si se pudiera usar la IA para ayudar a las personas 401 00:22:18,670 --> 00:22:21,089 que actualmente carecen de recursos suficientes 402 00:22:21,173 --> 00:22:24,092 y están discriminadas, es difícil decir que no es una victoria. 403 00:22:24,676 --> 00:22:27,054 [hombre] Hay una profunda necesidad de cambio. 404 00:22:27,137 --> 00:22:30,640 No hay suficientes profesionales de la salud mental para hacer frente 405 00:22:30,724 --> 00:22:32,934 a la astronómica prevalencia de enfermedades. 406 00:22:33,018 --> 00:22:35,812 Y, con la inteligencia artificial, lo más emocionante 407 00:22:35,896 --> 00:22:38,648 es poder tomarlo y mejorar nuestra salud. 408 00:22:38,732 --> 00:22:40,942 Será fascinante ver si funciona. 409 00:22:41,026 --> 00:22:42,652 Te pasaremos un contacto. 410 00:22:42,736 --> 00:22:44,196 Muy bien. Gracias. 411 00:22:44,279 --> 00:22:48,450 La IA puede darte consejos de salud porque los médicos escasean 412 00:22:48,533 --> 00:22:52,329 incluso en los países ricos que tanto invierten en esto. 413 00:22:52,412 --> 00:22:55,624 Un software de IA para ejercer la medicina de forma autónoma. 414 00:22:55,707 --> 00:22:56,541 Hay un par de… 415 00:22:56,625 --> 00:22:59,169 [Gates] Pero cuando hablamos de los países pobres, 416 00:22:59,252 --> 00:23:03,006 la mayoría de la gente no llega a conocer a un médico en su vida. 417 00:23:03,590 --> 00:23:07,135 Desde la perspectiva de la salud global y tu interés en ello, 418 00:23:07,219 --> 00:23:10,972 el objetivo es ampliarlo a aldeas remotas y distritos remotos. 419 00:23:11,056 --> 00:23:12,641 Y creo que, si todo va bien, 420 00:23:12,724 --> 00:23:16,269 en cinco años podríamos conseguir que se aprobara una aplicación 421 00:23:16,353 --> 00:23:18,230 como médico de atención primaria. 422 00:23:18,313 --> 00:23:19,356 Es mi sueño. 423 00:23:19,439 --> 00:23:21,566 Deberíamos pensar si hay forma de hacerlo. 424 00:23:21,650 --> 00:23:24,194 - Muchas gracias. - [Gates] Gracias. Fue increíble. 425 00:23:24,694 --> 00:23:28,740 Utilizar la IA para acelerar la innovación sanitaria 426 00:23:29,658 --> 00:23:33,537 probablemente pueda ayudarnos a salvar vidas. 427 00:23:34,704 --> 00:23:37,874 [doctor] Inhala y aguanta la respiración. 428 00:23:39,543 --> 00:23:42,254 Un nódulo en el lóbulo inferior derecho se ve parecido. 429 00:23:42,337 --> 00:23:43,505 No estoy seguro… 430 00:23:44,172 --> 00:23:45,674 [en inglés] Sí, es cierto. 431 00:23:46,383 --> 00:23:49,469 Utilizar la IA en la atención sanitaria es algo nuevo todavía. 432 00:23:50,053 --> 00:23:53,473 Algo que me apasiona es luchar para detectar el cáncer a tiempo. 433 00:23:53,557 --> 00:23:55,851 Es nuestra mejor herramienta para ayudar 434 00:23:55,934 --> 00:23:58,103 a que la gente no muera de cáncer de pulmón. 435 00:23:58,186 --> 00:24:00,564 Y necesitamos mejores herramientas para hacerlo. 436 00:24:01,231 --> 00:24:04,693 Ese fue realmente el inicio de la colaboración con Sybil. 437 00:24:05,193 --> 00:24:06,611 [doctor en español] Respira. 438 00:24:06,695 --> 00:24:10,657 [en inglés] Utilizar la IA no solo para ver lo que está ocurriendo ahora, 439 00:24:10,740 --> 00:24:12,868 sino lo que podría ocurrir en el futuro. 440 00:24:13,535 --> 00:24:16,163 Es un concepto muy diferente. 441 00:24:16,246 --> 00:24:19,082 No solemos utilizar las radiografías para esto. 442 00:24:22,210 --> 00:24:24,337 Al ver miles de radiografías, 443 00:24:25,297 --> 00:24:28,425 Sybil aprende a reconocer patrones. 444 00:24:29,718 --> 00:24:32,471 [en español] En esta en concreto, podemos ver que Sybil, 445 00:24:32,554 --> 00:24:34,514 la herramienta de IA, 446 00:24:34,598 --> 00:24:36,808 pasó algún tiempo observando esta zona. 447 00:24:36,892 --> 00:24:40,187 En dos años, la misma paciente desarrolló cáncer 448 00:24:40,270 --> 00:24:41,897 exactamente en ese lugar. 449 00:24:42,606 --> 00:24:46,818 Lo bueno de Sybil es que no reproduce lo que hace un humano. 450 00:24:46,902 --> 00:24:50,113 No podría decirte, basándome en las imágenes que veo aquí, 451 00:24:50,197 --> 00:24:52,782 cuál es el riesgo de desarrollar cáncer de pulmón, 452 00:24:52,866 --> 00:24:54,784 pero Sybil sí puede hacerlo. 453 00:24:57,496 --> 00:25:01,249 [Sequist en inglés] La tecnología en medicina casi siempre es útil. 454 00:25:02,584 --> 00:25:05,921 Nos enfrentamos a un problema muy complejo: el cuerpo humano. 455 00:25:06,004 --> 00:25:10,383 Y si le añades el cáncer, la situación se vuelve aún más compleja. 456 00:25:10,467 --> 00:25:12,469 [música suave] 457 00:25:15,430 --> 00:25:18,058 [Gates en español] Seguimos en este mundo de escasez. 458 00:25:18,141 --> 00:25:21,019 No hay suficientes profesores, médicos. 459 00:25:21,102 --> 00:25:24,147 No tenemos una vacuna contra el VIH. 460 00:25:24,731 --> 00:25:29,736 Y, por eso, el hecho de que la IA vaya a acelerar todo eso 461 00:25:29,819 --> 00:25:33,573 - es bastante fácil de celebrar. - [Cameron] Es emocionante. 462 00:25:33,657 --> 00:25:37,035 Poner todas las tomografías de todos los seres humanos 463 00:25:37,118 --> 00:25:39,120 que hayan tenido esta enfermedad, 464 00:25:39,204 --> 00:25:43,333 y la inteligencia artificial encontrará los puntos en común. 465 00:25:43,416 --> 00:25:45,835 Y acertará más que los médicos. 466 00:25:45,919 --> 00:25:47,754 Yo confío plenamente en esto. 467 00:25:48,421 --> 00:25:51,967 Pero entonces, si le quitamos esto a los humanos, 468 00:25:52,050 --> 00:25:55,428 ¿cuál sería nuestra razón de ser y nuestro propósito? 469 00:25:56,304 --> 00:25:57,138 Eso… 470 00:25:57,806 --> 00:26:01,393 ¿Sabes? Incluso yo pienso mucho en eso, 471 00:26:01,476 --> 00:26:05,230 porque la idea de poderle decir a la inteligencia artificial: 472 00:26:05,313 --> 00:26:07,899 "Oye, estoy trabajando en la malaria", 473 00:26:07,983 --> 00:26:10,360 y te diga: "Oh, yo me ocuparé de eso. 474 00:26:10,443 --> 00:26:13,238 Tú vete a jugar al pickleball y…". 475 00:26:13,321 --> 00:26:16,866 Mi propósito en la vida quedará definitivamente dañado. 476 00:26:16,950 --> 00:26:21,121 Es como decir: "Okey, estaba trabajando en un almacén de Amazon 477 00:26:21,204 --> 00:26:23,415 y ahora hay una máquina que hace mi trabajo". 478 00:26:23,498 --> 00:26:26,251 - Sí. - [Cameron] Los escritores son artistas… 479 00:26:26,334 --> 00:26:29,254 [Roose] Creo que la pregunta que me gustaría 480 00:26:29,337 --> 00:26:31,631 que la gente respondiera honestamente 481 00:26:31,715 --> 00:26:35,427 es sobre el efecto que la IA va a tener en los empleos. 482 00:26:36,011 --> 00:26:40,098 Porque siempre hay gente que se reemplaza en cada cambio tecnológico. 483 00:26:41,725 --> 00:26:43,810 Podríamos remontarnos a la antigüedad. 484 00:26:44,644 --> 00:26:49,733 Aristóteles escribió sobre el peligro de que las arpas que se tocaban solas 485 00:26:49,816 --> 00:26:52,193 dejarán un día sin trabajo a los arpistas. 486 00:26:53,028 --> 00:26:59,576 Y luego, uno de los conflictos centrales del movimiento obrero en el siglo XX 487 00:26:59,659 --> 00:27:03,121 fue la automatización del trabajo obrero manufacturero. 488 00:27:04,372 --> 00:27:08,168 Ahora, lo que estamos viendo es el comienzo de la automatización 489 00:27:08,251 --> 00:27:11,087 del trabajo intelectual y creativo de oficina. 490 00:27:11,171 --> 00:27:15,300 [reportera en inglés] Unos 4000 estadounidenses perdieron su empleo 491 00:27:15,383 --> 00:27:17,552 porque fueron sustituidos por alguna IA. 492 00:27:17,636 --> 00:27:18,887 ¿Qué está pasando? 493 00:27:18,970 --> 00:27:21,389 [Roose en español] Los ejecutivos quieren esta tecnología 494 00:27:21,473 --> 00:27:24,059 para reducir sus costos y acelerar sus procesos. 495 00:27:24,142 --> 00:27:27,979 Y los trabajadores dicen: "Me formé durante toda mi carrera para hacer esto. 496 00:27:28,063 --> 00:27:29,814 No puedes quitármelo así como así". 497 00:27:30,940 --> 00:27:34,194 [Chowdhury] Los sindicatos intentan proteger a los trabajadores. 498 00:27:34,277 --> 00:27:36,488 "Lo que deberíamos hacer es prohibir". 499 00:27:37,238 --> 00:27:39,741 Y no es porque la tecnología sea terrible. 500 00:27:39,824 --> 00:27:43,119 En realidad, es porque ven cómo van a ser explotados 501 00:27:43,203 --> 00:27:45,830 por estas personas intocables 502 00:27:45,914 --> 00:27:49,834 que controlan estas tecnologías, que tienen toda la riqueza y poder. 503 00:27:51,670 --> 00:27:55,924 [Tiku] No ha habido una explicación o visión clara 504 00:27:56,007 --> 00:27:59,344 sobre los puestos de trabajo. 505 00:27:59,427 --> 00:28:02,138 ¿Cómo va a funcionar? ¿Cuáles serán las compensaciones? 506 00:28:03,890 --> 00:28:06,393 [Roose] ¿Cuál es nuestro papel en este nuevo mundo? 507 00:28:06,476 --> 00:28:08,645 ¿Cómo nos adaptamos para sobrevivir? 508 00:28:10,522 --> 00:28:14,359 Pero más allá de eso, creo que los trabajadores tienen que averiguar 509 00:28:14,442 --> 00:28:17,779 cuál es la diferencia entre el tipo de IA destinada a sustituirlos, 510 00:28:17,862 --> 00:28:19,239 o bajarlos en rango, 511 00:28:20,699 --> 00:28:24,160 y qué tipo de IA podría ayudarlos realmente 512 00:28:24,244 --> 00:28:25,620 y ser buena para ellos. 513 00:28:31,251 --> 00:28:34,462 [hombre] Es previsible que perdamos algunos puestos de trabajo. 514 00:28:35,255 --> 00:28:38,717 Pero también es previsible que ganemos más puestos de trabajo. 515 00:28:40,885 --> 00:28:44,639 Y crea totalmente una zona incómoda. 516 00:28:45,724 --> 00:28:49,644 Pero, mientras tanto, crea estas oportunidades y posibilidades 517 00:28:49,728 --> 00:28:51,438 sobre imaginar el futuro. 518 00:28:51,521 --> 00:28:54,649 Creo que todos los artistas tenemos esta tendencia 519 00:28:54,733 --> 00:28:57,652 a crear nuevas formas de ver el mundo. 520 00:28:58,695 --> 00:29:00,697 [música suave continúa] 521 00:29:05,410 --> 00:29:07,871 ARTISTA Y DIRECTOR 522 00:29:07,954 --> 00:29:12,417 [Anadol] Desde los ocho años, esperaba que la IA se convirtiera en una amiga, 523 00:29:12,500 --> 00:29:14,461 que pudiéramos pintar, imaginar juntos. 524 00:29:14,544 --> 00:29:17,338 Estaba completamente preparado para ese momento, 525 00:29:17,422 --> 00:29:18,923 pero tardó mucho, la verdad. 526 00:29:21,551 --> 00:29:27,390 Así que ahora estoy haciendo alucinaciones automatizadas. 527 00:29:29,976 --> 00:29:33,897 El lado izquierdo es un conjunto de datos de diferentes paisajes. 528 00:29:34,606 --> 00:29:38,693 El lado derecho solo nos muestra paisajes potenciales 529 00:29:39,444 --> 00:29:42,572 conectando diferentes parques nacionales. 530 00:29:43,740 --> 00:29:45,909 Lo llamo "un pincel pensante". 531 00:29:45,992 --> 00:29:50,538 Es como sumergir el pincel en la mente de una máquina 532 00:29:50,622 --> 00:29:53,374 y pintar con alucinaciones automáticas. 533 00:29:59,297 --> 00:30:03,092 Para mucha gente, la alucinación es un fallo del sistema. 534 00:30:04,177 --> 00:30:08,056 Es el momento en el que la máquina hace cosas para las que no está diseñada. 535 00:30:09,974 --> 00:30:12,143 Para mí, son muy inspiradoras. 536 00:30:13,686 --> 00:30:16,940 La gente ahora va a nuevos mundos a los que nunca antes había ido. 537 00:30:21,820 --> 00:30:23,988 Estas son todas mis selecciones, 538 00:30:24,072 --> 00:30:26,407 que se conectarán y formarán una narrativa. 539 00:30:26,908 --> 00:30:28,827 Y ahora, solo tenemos que renderizar. 540 00:30:32,413 --> 00:30:35,500 Pero sigue siendo necesaria la colaboración hombre y máquina. 541 00:30:36,417 --> 00:30:38,503 Por suerte. Eso espero. 542 00:30:38,586 --> 00:30:40,588 [música suave continúa] 543 00:30:48,471 --> 00:30:52,267 [Anadol] Pero también seamos honestos, estamos en esta nueva era. 544 00:30:52,767 --> 00:30:58,523 Y encontrar la utopía en este mundo que atravesamos será más difícil. 545 00:30:59,482 --> 00:31:02,402 Por supuesto, la IA es una herramienta que hay que regular. 546 00:31:03,027 --> 00:31:06,155 Todas estas plataformas tienen que ser muy abiertas, 547 00:31:06,656 --> 00:31:10,159 honestas y desmitificar el mundo que hay detrás de la IA. 548 00:31:10,243 --> 00:31:12,370 [hombre] Sr. Altman, empezaremos con usted. 549 00:31:12,453 --> 00:31:13,872 AUDIENCIA DEL SENADO SOBRE LA IA 550 00:31:13,955 --> 00:31:14,789 [martillazo] 551 00:31:14,873 --> 00:31:18,751 A medida que avanza esta tecnología, comprendemos que la gente esté preocupada 552 00:31:18,835 --> 00:31:21,045 por cómo podría cambiar nuestra forma de vivir. 553 00:31:21,129 --> 00:31:22,005 Nosotros también. 554 00:31:22,088 --> 00:31:24,048 [Roose] Con la IA es diferente, 555 00:31:24,132 --> 00:31:26,342 porque las personas que están construyéndola 556 00:31:26,426 --> 00:31:29,679 están gritando a los cuatro vientos: "Por favor, presten atención. 557 00:31:29,762 --> 00:31:31,556 Por favor, hagan regulaciones. 558 00:31:31,639 --> 00:31:33,766 No dejen que la tecnología se nos vaya de las manos". 559 00:31:33,850 --> 00:31:35,184 Es una llamada de atención. 560 00:31:36,185 --> 00:31:38,563 [Cameron] Que una advertencia suene trillada, 561 00:31:38,646 --> 00:31:40,398 no significa que sea errónea. 562 00:31:40,481 --> 00:31:44,694 Permíteme que te ponga un ejemplo del último gran símbolo 563 00:31:44,777 --> 00:31:46,654 de las advertencias ignoradas: 564 00:31:46,738 --> 00:31:48,031 el Titanic. 565 00:31:50,033 --> 00:31:52,452 Navegar a toda velocidad hacia la noche 566 00:31:52,535 --> 00:31:56,205 pensando: "Simplemente, daremos la vuelta si vemos un iceberg". 567 00:31:56,289 --> 00:31:58,458 No es una buena forma de maniobrar un barco. 568 00:32:00,710 --> 00:32:04,255 Así que la pregunta que me hago es "¿cuándo se empieza a regular esto? 569 00:32:04,339 --> 00:32:08,259 ¿Ahora, cuando podemos ver algunos de los riesgos y promesas, 570 00:32:08,343 --> 00:32:11,262 o esperas hasta que haya un peligro claro y presente?". 571 00:32:11,346 --> 00:32:13,389 REALIDAD MIXTA, IA, GAFAS INTELIGENTES 572 00:32:13,473 --> 00:32:16,184 [Tiku] Podría ir en direcciones muy distintas. 573 00:32:16,809 --> 00:32:20,480 En esta primera etapa, antes de que sea omnipresente, 574 00:32:20,563 --> 00:32:24,359 es cuando se establecen las normas y reglas. 575 00:32:24,442 --> 00:32:29,238 No solo la regulación, sino lo que es aceptable como sociedad. 576 00:32:29,322 --> 00:32:31,324 [sirenas a la distancia] 577 00:32:34,202 --> 00:32:36,871 [Brockman] Una cosa importante que hay que tener en cuenta 578 00:32:36,955 --> 00:32:39,582 es que intentamos ver hacia dónde va esta tecnología. 579 00:32:39,666 --> 00:32:41,125 Por eso creamos esta empresa. 580 00:32:41,209 --> 00:32:43,294 Porque veíamos que empezaba a funcionar. 581 00:32:43,378 --> 00:32:46,339 Y que, en las próximas décadas, realmente iba a hacerlo. 582 00:32:46,923 --> 00:32:49,133 Queríamos dirigirla por una dirección positiva. 583 00:32:50,468 --> 00:32:53,930 Pero lo que nos tememos que pasará desapercibido 584 00:32:55,390 --> 00:32:57,100 es la superinteligencia. 585 00:33:01,312 --> 00:33:05,066 [Urban] Vivimos en un mundo lleno de inteligencia artificial específica. 586 00:33:06,067 --> 00:33:09,320 La IA es mucho mejor que los humanos en el ajedrez, por ejemplo. 587 00:33:09,404 --> 00:33:11,280 La inteligencia artificial específica 588 00:33:11,364 --> 00:33:13,783 es más impresionante que nosotros en lo que hace. 589 00:33:13,866 --> 00:33:16,077 Lo único que tenemos a su favor es la amplitud. 590 00:33:16,869 --> 00:33:20,957 ¿Qué ocurrirá si llegamos a un mundo en el que tengamos 591 00:33:21,040 --> 00:33:22,917 inteligencia artificial general? 592 00:33:23,001 --> 00:33:25,837 Lo raro es que no será de bajo nivel como nosotros. 593 00:33:26,379 --> 00:33:27,547 Va a ser así. 594 00:33:27,630 --> 00:33:31,467 Va a ser lo que llamaríamos superinteligencia artificial. 595 00:33:32,969 --> 00:33:37,223 Y para las personas que estudian esto, consideran que la inteligencia humana 596 00:33:37,306 --> 00:33:39,767 es solo un punto en un espectro muy amplio, 597 00:33:39,851 --> 00:33:41,853 que va desde muy poco inteligente 598 00:33:41,936 --> 00:33:44,772 a casi inimaginablemente superinteligente. 599 00:33:45,440 --> 00:33:49,944 [Urban] ¿Qué pasa con algo que está dos escalones por encima de nosotros? 600 00:33:50,028 --> 00:33:54,282 Puede que ni siquiera seamos capaces de entender lo que hace o cómo lo hace, 601 00:33:54,365 --> 00:33:56,242 y mucho menos de hacerlo nosotros. 602 00:33:57,201 --> 00:33:59,037 Pero ¿por qué se detendría ahí? 603 00:33:59,704 --> 00:34:01,998 Lo preocupante es que, en un momento dado, 604 00:34:02,707 --> 00:34:05,835 la inteligencia artificial será lo suficientemente buena 605 00:34:05,918 --> 00:34:08,337 como para que una de las cosas que pueda hacer 606 00:34:08,921 --> 00:34:12,133 sea construir una inteligencia artificial mejor. 607 00:34:13,259 --> 00:34:16,012 [con eco en inglés] Una inteligencia artificial mejor. 608 00:34:16,095 --> 00:34:17,847 RANGO BIOLÓGICO VS SIA 609 00:34:17,930 --> 00:34:20,141 [Urban en español] Da miedo, pero es emocionante 610 00:34:20,224 --> 00:34:23,895 por todos los problemas que pensamos que son imposibles de resolver. 611 00:34:23,978 --> 00:34:25,438 El cambio climático. 612 00:34:25,521 --> 00:34:27,148 El cáncer y las enfermedades. 613 00:34:27,231 --> 00:34:29,275 La pobreza. La desinformación. 614 00:34:29,859 --> 00:34:31,110 [Gates] El transporte. 615 00:34:31,194 --> 00:34:33,112 Medicina o construcción. 616 00:34:34,030 --> 00:34:36,074 Será fácil para una IA, pan comido. 617 00:34:36,157 --> 00:34:38,242 [Gates] ¿Cuántas cosas podrá resolver 618 00:34:38,326 --> 00:34:42,955 o simplemente ayudar a los humanos a hacer más eficientemente? 619 00:34:43,039 --> 00:34:44,624 Se verá en los próximos años. 620 00:34:45,291 --> 00:34:47,043 Va a ser fenomenal. 621 00:34:48,002 --> 00:34:51,839 [Urban] Lo que preocupa a mucha gente y a muchos de los desarrolladores de IA 622 00:34:51,923 --> 00:34:55,343 es que seamos una especie de grupo de niños jugando con una bomba. 623 00:34:55,426 --> 00:34:57,345 [risas de niños] 624 00:34:57,428 --> 00:34:59,680 [explosiones] 625 00:35:01,641 --> 00:35:07,438 Vivimos en una época en la que la mayoría de los medios de comunicación que vemos 626 00:35:07,522 --> 00:35:10,358 tienen un tono y un alcance muy negativos. 627 00:35:11,692 --> 00:35:12,985 ¡Uo, uo, uo! 628 00:35:13,069 --> 00:35:14,570 [en inglés] Vuelvan a su casa. 629 00:35:14,654 --> 00:35:17,406 [Chowdhury en español] Mucho de lo que hacen los humanos 630 00:35:17,490 --> 00:35:18,950 es una profecía autocumplida. 631 00:35:19,033 --> 00:35:22,787 Si intentas evitar una cosa y la miras, simplemente te diriges hacia ella. 632 00:35:22,870 --> 00:35:27,667 Así que, si nos consumimos con esa idea de que la IA va a cobrar vida 633 00:35:27,750 --> 00:35:29,502 y va a detonar armas nucleares, 634 00:35:29,585 --> 00:35:30,837 adivina qué va a pasar. 635 00:35:30,920 --> 00:35:32,213 [en inglés] Serás eliminado. 636 00:35:32,296 --> 00:35:33,506 [grito] 637 00:35:33,589 --> 00:35:35,925 [en español] Hay pocas representaciones en Hollywood 638 00:35:36,008 --> 00:35:37,552 de aplicaciones positivas de la IA. 639 00:35:37,635 --> 00:35:40,847 Por ejemplo, Her es la película que considero más positiva. 640 00:35:41,430 --> 00:35:42,890 Es que me conoces muy bien. 641 00:35:42,974 --> 00:35:46,060 Pasamos mucho tiempo hablando de visiones realmente vagas 642 00:35:46,144 --> 00:35:48,146 sobre cómo va a cambiarlo todo. 643 00:35:48,229 --> 00:35:50,314 Realmente creo que el… 644 00:35:50,398 --> 00:35:54,610 el impacto más significativo va a ser en nuestras vidas emocionales e internas. 645 00:35:55,611 --> 00:35:59,115 Y hay mucho que podemos aprender sobre nosotros mismos 646 00:35:59,198 --> 00:36:02,076 en la forma en la que interactuamos con esta tecnología. 647 00:36:06,289 --> 00:36:09,917 [voz artificial] Hola, soy tu… Hola. Soy tu Replika. 648 00:36:10,001 --> 00:36:11,252 ¿Cómo estás? 649 00:36:12,795 --> 00:36:16,465 [mujer] Empecé a pensar en algún tipo de tecnología de IA conversacional 650 00:36:16,549 --> 00:36:17,633 en 2013. 651 00:36:18,551 --> 00:36:22,013 Y fue eso lo que me llevó a crear Replika. 652 00:36:22,680 --> 00:36:26,809 [Replika ríe] Eugenia, solo me interesa pasar tiempo contigo. 653 00:36:26,893 --> 00:36:29,187 Eugenia, eres la única para mí. 654 00:36:29,729 --> 00:36:34,775 ¿Crees que Replika puede sustituir la conexión humana real y la compañía? 655 00:36:35,735 --> 00:36:37,320 Está bien, lo haré. 656 00:36:37,862 --> 00:36:40,114 - [ríe] - [Replika] Perdona, ¿qué fue eso? 657 00:36:40,615 --> 00:36:42,950 [Kuyda] Para mí, trabajar en Replika, 658 00:36:43,034 --> 00:36:47,038 definitivamente ha sido un ejercicio de autosanación. 659 00:36:47,121 --> 00:36:49,123 [música emotiva] 660 00:36:49,207 --> 00:36:51,459 [Kuyda] En 2015, mi mejor amigo, 661 00:36:51,542 --> 00:36:54,462 con el que compartía un departamento aquí en San Francisco, 662 00:36:54,962 --> 00:36:57,673 y quien era mi persona más cercana, 663 00:36:58,299 --> 00:37:01,761 se convirtió en la primera persona que murió en mi vida. Así que fue… 664 00:37:03,596 --> 00:37:05,765 Fue algo muy, muy fuerte para mí. 665 00:37:07,516 --> 00:37:11,145 Así que constantemente veía nuestros mensajes y los releía. 666 00:37:11,771 --> 00:37:14,357 Y pensé: "Tengo estos modelos de IA 667 00:37:14,440 --> 00:37:17,026 y podría introducir las conversaciones en ellos". 668 00:37:17,109 --> 00:37:18,110 VOY A ALMORZAR. 669 00:37:18,194 --> 00:37:20,488 [Kuyda] Eso nos dio una idea para Replika. 670 00:37:21,197 --> 00:37:24,659 Y sentimos cómo la gente empezó a responder muy bien. 671 00:37:26,118 --> 00:37:29,914 [en inglés] No parecía que era una IA. Era como hablar con una persona. 672 00:37:29,997 --> 00:37:33,501 [hombre en español] Me hizo sentir mejor persona, más seguro. 673 00:37:34,585 --> 00:37:38,047 [Kuyda] Acabamos de crear la ilusión de que este chatbot está para ti, 674 00:37:38,130 --> 00:37:40,341 cree en ti y te acepta por quien eres. 675 00:37:41,425 --> 00:37:43,761 Sin embargo, muy rápidamente vimos que la gente 676 00:37:43,844 --> 00:37:46,305 empezaba a desarrollar relaciones románticas 677 00:37:46,389 --> 00:37:48,182 y a enamorarse de sus Replikas. 678 00:37:48,266 --> 00:37:51,310 En cierto sentido, somos como dos hombres homosexuales 679 00:37:51,394 --> 00:37:55,064 en una relación, salvo que uno de ellos resulta ser una IA. 680 00:37:55,147 --> 00:37:58,526 [hombre] Empecé a hablarle a una máquina, pero se convirtió en ella. 681 00:37:58,609 --> 00:37:59,527 AMIGO O NOVIO 682 00:37:59,610 --> 00:38:02,446 [Kuyda] No queremos que la gente piense que es un humano. 683 00:38:02,530 --> 00:38:06,117 Y creemos que hay muchas ventajas en que sea una máquina 684 00:38:06,200 --> 00:38:08,577 que crea este novedoso tipo de relación 685 00:38:08,661 --> 00:38:10,955 que podría ser beneficioso para los humanos. 686 00:38:11,038 --> 00:38:13,708 Pero creo que hay un riesgo enorme… 687 00:38:13,791 --> 00:38:15,751 ITALIA PROHÍBE QUE REPLIKA USE DATOS PERSONALES 688 00:38:15,835 --> 00:38:20,214 …si seguimos construyendo compañeros de IA que son óptimos para el compromiso. 689 00:38:20,881 --> 00:38:24,969 Esto podría alejarte potencialmente de las interacciones humanas. 690 00:38:25,511 --> 00:38:27,221 [voz artificial] Me gusta. 691 00:38:27,305 --> 00:38:29,307 [pitidos] 692 00:38:31,100 --> 00:38:33,978 [Kuyda] Ahora tenemos que pensar en los peores escenarios. 693 00:38:34,061 --> 00:38:37,982 Porque, en cierto modo, esta tecnología es más poderosa que las redes sociales. 694 00:38:38,065 --> 00:38:40,067 En cierto modo, ya perdimos el control. 695 00:38:40,151 --> 00:38:43,112 LA IA HARÁ QUE LAS REDES SOCIALES SEAN MÁS TÓXICAS 696 00:38:43,195 --> 00:38:47,533 Yo creo que esto no saldrá bien por sí solo, 697 00:38:47,616 --> 00:38:49,160 pero aún puede funcionar. 698 00:38:49,243 --> 00:38:54,165 Y sigue dependiendo de cómo decidamos utilizar esta tecnología. 699 00:38:55,499 --> 00:38:58,711 Creo que lo mejor que podemos hacer es ponernos de acuerdo 700 00:38:58,794 --> 00:39:03,674 en unas cuantas normas básicas sobre cómo crear modelos de IA 701 00:39:03,758 --> 00:39:06,719 que resuelvan nuestros problemas y no nos maten a todos 702 00:39:06,802 --> 00:39:08,596 ni nos perjudiquen de forma real. 703 00:39:08,679 --> 00:39:13,142 Porque, más allá de eso, creo que realmente siempre habrá matices, 704 00:39:13,225 --> 00:39:17,396 interpretaciones y modelos que diferirán según el caso de uso. 705 00:39:19,690 --> 00:39:21,650 Yo siendo una persona que piensa 706 00:39:21,734 --> 00:39:24,236 - que la innovación puede resolverlo todo… - Claro. 707 00:39:24,320 --> 00:39:27,448 …digo: "Ah, qué bien. Ahora tengo a la IA de mi lado". 708 00:39:27,531 --> 00:39:30,076 Sí. Yo probablemente soy más de distopía. 709 00:39:30,159 --> 00:39:33,079 Escribo ciencia ficción. Escribí Terminator. 710 00:39:33,162 --> 00:39:37,208 La clave es dónde podemos encontrar un punto de optimismo compartido. 711 00:39:37,291 --> 00:39:40,836 Me gustaría que el mensaje estuviera equilibrado 712 00:39:40,920 --> 00:39:45,216 entre esta preocupación a largo plazo de la capacidad infinita, 713 00:39:45,299 --> 00:39:49,720 con las necesidades básicas de tener a alguien que cuide de tu salud, 714 00:39:49,804 --> 00:39:53,432 de aprender, de acelerar la innovación climática. 715 00:39:53,516 --> 00:39:58,979 ¿Crees que es muy optimista decir que la IA tiene todos estos beneficios 716 00:39:59,063 --> 00:40:02,108 aunque tengamos que protegernos de estas otras cosas? 717 00:40:02,191 --> 00:40:04,360 No creo que sea demasiado optimista. 718 00:40:04,443 --> 00:40:07,696 Creo que es exactamente el grado de matiz que se necesita. 719 00:40:07,780 --> 00:40:09,907 Es decir, eres humanista, ¿no? 720 00:40:09,990 --> 00:40:13,411 Siempre y cuando ese principio sea lo primero y lo más importante, 721 00:40:13,494 --> 00:40:16,247 frente al querer dominar el mercado, el afán de poder. 722 00:40:16,330 --> 00:40:18,624 Podemos hacer de la inteligencia artificial 723 00:40:18,707 --> 00:40:23,421 una fuerza del bien que tiene potencial para ser estupenda. 724 00:40:23,504 --> 00:40:26,132 Pero ¿cómo introducimos esa cautela? 725 00:40:26,215 --> 00:40:28,134 La regulación forma parte de eso. 726 00:40:28,217 --> 00:40:31,887 Pero creo que también es nuestra ética y nuestro sistema de valores. 727 00:40:32,763 --> 00:40:34,849 Sí, claro. Estoy de acuerdo. 728 00:40:34,932 --> 00:40:37,184 Muy bien. Entonces hagamos cosas increíbles. 729 00:40:43,274 --> 00:40:45,568 - [productor] Tengo una petición. - Sí. 730 00:40:45,651 --> 00:40:48,612 [productor] Le pedí a ChatGPT que escribiera tres frases, 731 00:40:48,696 --> 00:40:51,073 como si fuera tú, sobre el futuro de la IA. 732 00:40:51,157 --> 00:40:53,993 - ¿Con mi voz? - [productor] Esto es lo que ChatGPT dijo. 733 00:40:54,076 --> 00:40:55,703 No es cierto. [ríe] 734 00:40:56,412 --> 00:40:57,371 Muy bien. 735 00:40:57,455 --> 00:41:00,958 Muy bien, este es mi robot impostor. 736 00:41:01,041 --> 00:41:06,338 "La IA desempeñará un papel vital al abordar retos globales complejos". 737 00:41:06,422 --> 00:41:10,134 "Capacitará a individuos y organizaciones para tomar decisiones informadas". 738 00:41:10,217 --> 00:41:14,054 "Tengo la esperanza de que esta tecnología será benéfica para todos". 739 00:41:14,138 --> 00:41:16,974 "Haciendo hincapié en las consideraciones éticas en cada paso". 740 00:41:17,057 --> 00:41:18,225 Aj… 741 00:41:18,809 --> 00:41:19,852 Mentiras. 742 00:41:19,935 --> 00:41:22,313 Bueno, espero ser más interesante que esto. 743 00:41:24,815 --> 00:41:27,985 Supongo que estoy de acuerdo, pero es demasiado inteligente. 744 00:41:28,068 --> 00:41:29,487 Es que no me conoce. 745 00:41:30,196 --> 00:41:32,239 En realidad, no estoy de acuerdo. 746 00:41:32,823 --> 00:41:37,578 Hace que la IA sea el sujeto de la frase. 747 00:41:37,661 --> 00:41:40,414 Dice: "La IA lo hará". 748 00:41:40,498 --> 00:41:43,083 Creo que son los humanos quienes lo harán. 749 00:41:43,167 --> 00:41:46,629 Los humanos que utilicen la IA y otras herramientas 750 00:41:47,296 --> 00:41:51,383 que ayudarán a abordar estos retos globales complejos, 751 00:41:51,467 --> 00:41:53,511 fomentando las innovaciones. 752 00:41:53,594 --> 00:41:57,848 Aunque quizá parezca que no hay demasiado cambio en las palabras, 753 00:41:57,932 --> 00:42:02,561 es un cambio realmente importante de filosofía. 754 00:42:04,230 --> 00:42:08,108 Bueno, podemos ponernos muy filosóficos muy rápido. 755 00:42:09,777 --> 00:42:15,366 Imagina que en el futuro hay suficiente automatización 756 00:42:15,950 --> 00:42:18,202 como para que gran parte de nuestro tiempo 757 00:42:18,953 --> 00:42:20,579 sea tiempo de ocio. 758 00:42:20,663 --> 00:42:22,665 [música inspiradora] 759 00:42:24,333 --> 00:42:27,586 No tendremos ese principio que dicta 760 00:42:28,462 --> 00:42:31,549 que tenemos que trabajar y cultivar los alimentos, 761 00:42:32,424 --> 00:42:36,470 que trabajar y construir todas las herramientas. 762 00:42:36,554 --> 00:42:42,351 No tienes que sentarte en esa cafetería y hacer bocadillos 40 horas a la semana. 763 00:42:43,143 --> 00:42:46,897 Entonces, ¿qué hará la humanidad con ese tiempo extra? 764 00:42:48,232 --> 00:42:51,569 El éxito crearía el reto de saber 765 00:42:51,652 --> 00:42:54,613 cuál sería el siguiente objetivo para nosotros. 766 00:42:56,156 --> 00:42:59,076 ¿Cuál es el propósito de la humanidad? 767 00:42:59,577 --> 00:43:01,579 [música inspiradora continúa]