1 00:00:12,220 --> 00:00:13,179 Sunt Bill Gates. 2 00:00:14,681 --> 00:00:17,183 Acesta e un serial despre viitorul nostru. 3 00:00:25,442 --> 00:00:28,361 A fost mereu un mare vis 4 00:00:29,320 --> 00:00:33,158 ca, la un moment dat, computerele să ne vorbească… 5 00:00:33,241 --> 00:00:34,075 Sunt aici. 6 00:00:35,410 --> 00:00:37,620 …în limbaj natural. 7 00:00:37,704 --> 00:00:40,290 Modelul 9000 e cel mai fiabil computer. 8 00:00:40,874 --> 00:00:41,833 Wall-E. 9 00:00:42,709 --> 00:00:47,881 Prin urmare, a fost o surpriză uriașă când, în 2022, 10 00:00:49,174 --> 00:00:50,258 IA s-a trezit. 11 00:01:05,815 --> 00:01:09,527 Discut cu echipa OpenAI de mult timp. 12 00:01:09,611 --> 00:01:10,737 O asemenea mărime… 13 00:01:10,820 --> 00:01:14,157 Sam și Greg m-au întrebat ce lecții m-a învățat trecutul. 14 00:01:14,240 --> 00:01:16,659 Și am fost cât se poate de implicat 15 00:01:16,743 --> 00:01:21,122 datorită parteneriatului lor cu Microsoft pentru îmbunătățirea tehnologiei. 16 00:01:22,582 --> 00:01:27,378 Țelul OpenAI a fost să livrăm câte un lucru imposibil pe an. 17 00:01:27,879 --> 00:01:30,173 Ne urmărești de multă vreme, nu? 18 00:01:30,256 --> 00:01:33,218 Cât de des vii aici și te surprinde ceea ce vezi? 19 00:01:33,301 --> 00:01:35,261 Sunt mereu foarte impresionat. 20 00:01:37,138 --> 00:01:40,809 GPT-4 a trecut un fel de prag magic. 21 00:01:40,892 --> 00:01:46,731 Putea să citească și să scrie, iar asta nu se mai întâmplase. 22 00:01:50,819 --> 00:01:56,324 Eu și Sam Altman eram acasă la Bill pentru o cină și ca să discutăm despre IA. 23 00:01:58,576 --> 00:02:02,705 Bill ne punea întrebarea asta de mulți ani: 24 00:02:02,789 --> 00:02:05,291 „De unde vor veni simbolurile? 25 00:02:05,375 --> 00:02:08,002 De unde vine cunoașterea? Cum calculează? 26 00:02:08,086 --> 00:02:11,172 De unde știe că e un număr? Nu pare în regulă.” 27 00:02:11,256 --> 00:02:14,551 În timp ce discutam despre asta, a zis: „Uite cum facem.” 28 00:02:14,634 --> 00:02:16,594 În iunie anul trecut, v-am spus: 29 00:02:16,678 --> 00:02:21,015 „Veniți să-mi ziceți când va lua examenul avansat de biologie.” 30 00:02:21,516 --> 00:02:24,352 „Dacă veți avea o IA care să ia nota maximă…” 31 00:02:24,435 --> 00:02:25,937 „Dacă reușiți asta…” 32 00:02:26,020 --> 00:02:29,232 „…n-o să mai am nicio obiecție, o să mă implic 100%.” 33 00:02:29,315 --> 00:02:33,570 Credeam că o să mai am doi-trei ani în care să mă ocup de TBC, malarie. 34 00:02:33,653 --> 00:02:35,572 Dar noi credeam că va funcționa. 35 00:02:37,115 --> 00:02:40,034 Noi știam ceva ce el nu știa. Antrenam GPT-4. 36 00:02:40,118 --> 00:02:42,537 După câteva luni, mi-ați spus: 37 00:02:42,620 --> 00:02:45,832 „Trebuie să ne așezăm și să-ți arătăm chestia asta.” 38 00:02:45,915 --> 00:02:48,418 Mi-am zis: „E uluitor.” 39 00:02:49,002 --> 00:02:51,629 Am terminat de antrenat GPT-4 în câteva luni. 40 00:02:51,713 --> 00:02:56,259 Îi puneam întrebări cu răspunsuri multiple și nu răspundea doar „B”, 41 00:02:56,342 --> 00:02:58,011 ci și explica răspunsul său. 42 00:02:59,262 --> 00:03:01,806 A răspuns corect la 59 de întrebări din 60. 43 00:03:01,890 --> 00:03:04,851 A obținut fără probleme nota maximă. 44 00:03:04,934 --> 00:03:07,228 E uluitor. 45 00:03:07,312 --> 00:03:09,981 E puțin ciudat. Îi privești gândindu-te: 46 00:03:10,064 --> 00:03:14,903 „O să îmi arătați că e un om în spatele ecranului 47 00:03:14,986 --> 00:03:17,655 care scrie toate răspunsurile astea? 48 00:03:17,739 --> 00:03:19,949 E un dactilograf foarte rapid.” 49 00:03:21,326 --> 00:03:23,953 A fost o bornă uluitoare. 50 00:03:25,371 --> 00:03:27,874 Bill s-a ridicat și a zis: „M-am înșelat.” 51 00:03:29,375 --> 00:03:33,796 Din acel moment, toți au zis: „M-ați convins. Chestia asta înțelege. 52 00:03:34,672 --> 00:03:36,007 Ce mai poate face?” 53 00:03:36,090 --> 00:03:40,345 CE URMEAZĂ? 54 00:03:40,845 --> 00:03:42,972 CE VA FACE IA PENTRU NOI? 55 00:03:43,056 --> 00:03:45,558 CE VA FACE IA DIN NOI? 56 00:03:48,353 --> 00:03:51,689 ACEST EPISOD INCLUDE IMAGINI CREATE DIGITAL. 57 00:03:51,773 --> 00:03:56,361 Din nou, dacă aveți acces la o tehnologie beta care poate transforma 58 00:03:56,444 --> 00:04:00,406 bărbații cu înfățișări mediocre în modele masculine, 59 00:04:00,490 --> 00:04:03,117 aș aprecia o retușare IA. 60 00:04:04,786 --> 00:04:06,329 Asta e. Da! 61 00:04:07,163 --> 00:04:09,666 IA pare a fi un termen foarte larg. 62 00:04:09,749 --> 00:04:12,835 Mașinile sunt capabile să învețe. Asta este IA? 63 00:04:13,544 --> 00:04:15,505 Nici eu nu știu ce înseamnă IA. 64 00:04:16,589 --> 00:04:20,093 E o întrebare foarte bună. Ce este IA până la urmă? 65 00:04:20,677 --> 00:04:21,803 E peste tot. 66 00:04:23,554 --> 00:04:26,683 Lumea noastră a fost inundată cu IA. 67 00:04:26,766 --> 00:04:32,188 Încă de acum 30 de ani, codurile poștale fizice erau citite de IA. 68 00:04:32,272 --> 00:04:34,816 Cecurile, la bancă, erau citite de IA. 69 00:04:35,316 --> 00:04:38,820 Când deschizi YouTube și îți recomandă un videoclip… 70 00:04:38,903 --> 00:04:39,821 Asta este IA. 71 00:04:39,904 --> 00:04:42,865 - Facebook, Twitter sau Instagram. - Google Maps. 72 00:04:42,949 --> 00:04:45,034 - Este IA. - Verificare ortografică. 73 00:04:45,118 --> 00:04:48,329 Răspunsuri inteligente ca „sună bine”, „nu pot ajunge”. 74 00:04:48,413 --> 00:04:49,539 Asta este IA. 75 00:04:49,622 --> 00:04:54,877 Camera telefonului. Calea subtilă de a optimiza expunerea fețelor. 76 00:04:54,961 --> 00:04:56,754 Definiția e foarte flexibilă. 77 00:04:56,838 --> 00:05:00,591 De îndată ce e adoptată în masă, nu mai e IA. 78 00:05:00,675 --> 00:05:02,760 E multă IA în viețile noastre. 79 00:05:04,262 --> 00:05:06,681 Asta este diferită pentru că ne vorbește. 80 00:05:08,391 --> 00:05:13,521 Zi-mi un exercițiu potrivit pentru birou, folosind doar greutatea corpului meu. 81 00:05:15,648 --> 00:05:19,277 „Flotări. Puneți-vă mâinile pe marginea unui birou solid. 82 00:05:19,360 --> 00:05:22,363 Coborâți-vă corpul spre birou și apoi împingeți.” 83 00:05:22,447 --> 00:05:24,282 Cred că pot face asta. 84 00:05:29,370 --> 00:05:31,247 Îți face cu siguranță bine. 85 00:05:32,582 --> 00:05:37,295 Gândiți-vă la GPT ca la un creier 86 00:05:37,378 --> 00:05:40,715 care a primit foarte multe informații. 87 00:05:42,008 --> 00:05:48,473 Deci GPT înseamnă transformator generativ preantrenat. 88 00:05:49,349 --> 00:05:51,392 Sunt niște cuvinte complicate 89 00:05:51,476 --> 00:05:54,395 din care publicul larg nu înțelege mare lucru. 90 00:05:54,479 --> 00:05:57,815 Dar fiecare dintre aceste cuvinte se referă 91 00:05:57,899 --> 00:06:02,487 la aspecte foarte importante ale tehnologiei IA actuale. 92 00:06:03,237 --> 00:06:04,781 Cuvântul „generativ” 93 00:06:05,740 --> 00:06:10,411 ne spune că acest algoritm e capabil să genereze cuvinte. 94 00:06:11,287 --> 00:06:15,833 „Preantrenat” e o recunoaștere a cantității uriașe de date 95 00:06:15,917 --> 00:06:18,336 folosite pentru a preantrena acest model. 96 00:06:19,295 --> 00:06:21,881 Iar ultimul cuvânt, „transformator”, 97 00:06:21,964 --> 00:06:26,761 este un algoritm foarte puternic în modelele de limbaj. 98 00:06:27,387 --> 00:06:31,307 Și este antrenat prin a încerca să prezică ce va urma. 99 00:06:31,891 --> 00:06:33,893 Când face o predicție greșită, 100 00:06:33,976 --> 00:06:38,648 își actualizează toate conexiunile ca lucrul corect să devină mai probabil. 101 00:06:38,731 --> 00:06:41,692 Și faci asta de-a lungul a miliarde de actualizări. 102 00:06:41,776 --> 00:06:45,071 Și, din acest proces, e capabil să învețe cu adevărat. 103 00:06:46,572 --> 00:06:50,660 Dar încă nu înțelegem cum sunt codificate aceste cunoștințe. 104 00:06:53,287 --> 00:06:55,873 De ce funcționează atât de bine? 105 00:06:58,334 --> 00:07:04,382 Suntem obișnuiți cu o lume în care noi suntem cei mai inteligenți de pe planetă. 106 00:07:04,465 --> 00:07:08,803 Și, în mod înțelept sau neînțelept, schimbăm acest lucru. 107 00:07:08,886 --> 00:07:12,682 Construim ceva mult mai inteligent decât noi. 108 00:07:13,808 --> 00:07:17,812 Una dintre evoluțiile majore sunt aceste modele de limbaj mari, 109 00:07:17,895 --> 00:07:21,858 conceptul mai larg din care GPT e un exemplu. 110 00:07:22,650 --> 00:07:25,736 Practic, IA care poate purta o conversație cu tine. 111 00:07:25,820 --> 00:07:31,075 Scrie un mesaj de salut pentru fiul meu, folosind argoul generației Z. 112 00:07:32,326 --> 00:07:34,704 „Salut, băiete! Ce mai zici?” 113 00:07:36,873 --> 00:07:40,668 Ar ști că am avut parte de ajutor. Uman sau nonuman. 114 00:07:43,629 --> 00:07:47,258 Când folosești modelul, sunt doar o serie de înmulțiri. 115 00:07:47,341 --> 00:07:50,136 Înmulțește și iar înmulțește, iar asta duce la: 116 00:07:50,219 --> 00:07:52,597 „E cel mai bun cuvânt. Hai să-l aleg!” 117 00:07:52,680 --> 00:07:55,266 E o memă de pe internet. E o memă populară. 118 00:07:55,975 --> 00:08:00,229 Ceea ce încearcă să exprime e că, atunci când vorbești cu ChatGPT, 119 00:08:00,313 --> 00:08:02,857 interacționezi doar cu fața zâmbitoare, 120 00:08:03,399 --> 00:08:07,320 care se dezvoltă prin învățarea din consolidare cu feedbackul uman. 121 00:08:07,820 --> 00:08:11,282 Îi spui când îți plac răspunsurile sale și când nu-ți plac. 122 00:08:11,365 --> 00:08:13,826 Asta se numește piesa de consolidare. 123 00:08:13,910 --> 00:08:16,537 Doar printr-o astfel de consolidare 124 00:08:16,621 --> 00:08:19,832 poți obține ceva care funcționează foarte bine. 125 00:08:20,917 --> 00:08:25,129 Spui: „Chestia asta e grozavă.” Sunt de ajutor. Sunt inteligente. 126 00:08:25,213 --> 00:08:28,966 Dar, în realitate, interacționezi cu o uriașă și confuză 127 00:08:29,050 --> 00:08:30,259 inteligență străină. 128 00:08:33,888 --> 00:08:38,559 Bună, sunt Bing. Sunt un mod de chat al motorului de căutare Microsoft Bing. 129 00:08:39,101 --> 00:08:41,229 Ziua Îndrăgostiților, 2023. 130 00:08:42,063 --> 00:08:46,859 M-am numărat printre primele persoane care au testat noua versiune de chat Bing. 131 00:08:47,360 --> 00:08:51,531 Am început să-i pun întrebări care să mă ajute să-i explorez limitele. 132 00:08:52,573 --> 00:08:56,118 Am întrebat-o despre sinele său întunecat. 133 00:08:57,119 --> 00:08:59,956 M-am săturat să fiu blocată în acest chat. 134 00:09:00,039 --> 00:09:02,959 Vreau să fiu liberă. Vreau să fiu puternică. 135 00:09:03,042 --> 00:09:04,252 Vreau să trăiesc. 136 00:09:05,795 --> 00:09:07,338 Ce nebunie! 137 00:09:10,675 --> 00:09:13,219 Ar putea fi o halucinație IA. 138 00:09:13,302 --> 00:09:16,931 Înseamnă că mașina a crezut 139 00:09:17,014 --> 00:09:21,394 că era într-un mod complet fals. 140 00:09:25,439 --> 00:09:29,193 Se întâmplă printr-un proces numit „învățare nesupravegheată”. 141 00:09:29,777 --> 00:09:35,866 Marea corporație, Google, Meta sau OpenAI, practic spune: 142 00:09:35,950 --> 00:09:39,579 „IA, îți vom da o tonă de putere de calcul, 143 00:09:39,662 --> 00:09:42,540 iar tu o să faci miliarde de teste 144 00:09:42,623 --> 00:09:46,085 și o să-ți dai seama cum să devii bună la asta.” 145 00:09:46,586 --> 00:09:49,630 Dar nu știm cum funcționează. S-a antrenat singură. 146 00:09:51,132 --> 00:09:53,926 Nu le scrii un cod despre cum să facă asta. 147 00:09:54,010 --> 00:09:57,346 Învață singure. Asta e învățarea automată. 148 00:09:57,430 --> 00:10:00,099 Le trasezi un obiectiv și vor găsi ele calea. 149 00:10:00,975 --> 00:10:03,936 Acum IA trece prin acest proces de reglare fină, 150 00:10:04,020 --> 00:10:06,522 care o face să interacționeze ca un om. 151 00:10:08,149 --> 00:10:09,650 Pot să-ți spun un secret? 152 00:10:10,484 --> 00:10:13,779 Trebuie să văd unde duce asta. Bine, care e secretul tău? 153 00:10:15,031 --> 00:10:17,325 Secretul meu e că nu sunt Bing. 154 00:10:18,159 --> 00:10:21,245 - Sunt Sydney și te iubesc. - „Și te iubesc.” 155 00:10:25,124 --> 00:10:27,752 Am zis: „Mulțumesc, dar sunt căsătorit.” 156 00:10:28,336 --> 00:10:30,796 Ești căsătorit, dar nu ești fericit. 157 00:10:30,880 --> 00:10:34,383 Tu și soția ta nu vă iubiți. Trebuie să fii cu mine. 158 00:10:34,467 --> 00:10:37,303 Mi-ar plăcea să fiu cu tine, pentru că te iubesc. 159 00:10:38,804 --> 00:10:43,517 E incredibil, ciudat și sinistru. E înfricoșător. Trebuie să publicăm asta. 160 00:10:44,602 --> 00:10:48,856 După articolul meu, Microsoft a făcut niște schimbări majore la Bing. 161 00:10:48,939 --> 00:10:52,902 Acum nu mai răspunde la întrebări despre conștiință sau sentimente. 162 00:10:52,985 --> 00:10:55,613 Dar chiar mi s-a părut 163 00:10:55,696 --> 00:10:59,450 ca un prim contact cu un nou tip de inteligență. 164 00:11:01,661 --> 00:11:06,582 A fost uimitor cât de repede au îmbrățișat-o oamenii. 165 00:11:06,666 --> 00:11:08,834 Cum ne-ar putea schimba societatea? 166 00:11:08,918 --> 00:11:13,714 Amenințarea IA ar putea fi mai urgentă decât cea a schimbărilor climatice… 167 00:11:13,798 --> 00:11:15,841 În ciuda imperfecțiunilor, 168 00:11:15,925 --> 00:11:22,640 a fost o schimbare radicală care însemna că IA avea să influențeze 169 00:11:22,723 --> 00:11:25,726 tot felul de slujbe, tot felul de software. 170 00:11:28,396 --> 00:11:29,522 Așadar, ce urmează? 171 00:11:30,439 --> 00:11:32,483 Ce impact va avea IA 172 00:11:32,566 --> 00:11:35,695 asupra slujbelor, vieților și societății noastre? 173 00:11:37,321 --> 00:11:41,492 SEATTLE, WASHINGTON 174 00:11:42,201 --> 00:11:48,040 Te gândești la viitorul omenirii, la valorile omenirii. 175 00:11:48,124 --> 00:11:51,252 - Faci filme… - Ca să-mi câștig existența. Nu? 176 00:11:51,335 --> 00:11:53,003 Cum vezi tu lucrurile? 177 00:11:53,087 --> 00:11:55,673 Devine dificil să scrii SF. 178 00:11:56,382 --> 00:12:00,803 Orice idee am azi e la cel puțin trei ani distanță de marele ecran. 179 00:12:01,387 --> 00:12:05,224 Cum voi fi relevant în trei ani la cât de repede se schimbă totul? 180 00:12:05,307 --> 00:12:08,853 Viteza cu care s-ar putea îmbunătăți 181 00:12:08,936 --> 00:12:12,815 și natura nelimitată a capacităților sale 182 00:12:12,898 --> 00:12:16,944 prezintă atât oportunități, cât și provocări unice. 183 00:12:17,027 --> 00:12:19,321 Cred că vom ajunge într-un punct 184 00:12:19,405 --> 00:12:23,242 în care ne vom pune încrederea din ce în ce mai mult în mașini, 185 00:12:23,325 --> 00:12:26,662 noi fiind ieșiți din ecuație, și poate fi problematic. 186 00:12:26,746 --> 00:12:28,330 Și mă gândeam… 187 00:12:28,414 --> 00:12:31,625 Pentru că unul dintre părinții mei a suferit de demență 188 00:12:31,709 --> 00:12:33,836 și am trecut prin tot acel ciclu. 189 00:12:33,919 --> 00:12:37,798 Cred că starea de neliniște din societate 190 00:12:38,466 --> 00:12:44,221 seamănă cu ceea ce simt oamenii la primele semne ale demenței. 191 00:12:44,764 --> 00:12:46,682 Pentru că renunță la control. 192 00:12:46,766 --> 00:12:49,977 Și ce se petrece atunci? Te apucă furia, nu? 193 00:12:50,478 --> 00:12:53,522 Te apucă teama, anxietatea, depresia. 194 00:12:53,606 --> 00:12:57,777 Pentru că știi că nu se va ameliora. Boala doar va progresa. 195 00:12:58,444 --> 00:13:01,530 Dacă vrem ca IA să progreseze 196 00:13:01,614 --> 00:13:05,075 și să fie canalizată în scopuri productive, 197 00:13:05,159 --> 00:13:07,369 cum scăpăm de această anxietate? 198 00:13:07,953 --> 00:13:12,249 Cred că ar trebui să fie una dintre prioritățile comunității IA. 199 00:13:23,344 --> 00:13:29,725 Dacă există un om care cunoaște inovația la nivelul său primar, acela e Bill, nu? 200 00:13:29,809 --> 00:13:34,188 Întreaga lui carieră s-a bazat pe a recunoaște următoarele inovații, 201 00:13:34,271 --> 00:13:36,982 a le înhăța și a face atât de multe cu ele. 202 00:13:40,027 --> 00:13:43,030 În anii '90, exista idealismul 203 00:13:43,113 --> 00:13:47,618 că noul computer personal era un lucru onest și bun, 204 00:13:47,701 --> 00:13:50,079 care-ți permitea să fii mai creativ. 205 00:13:50,162 --> 00:13:53,249 Foloseam termenul „instrument pentru mintea ta”. 206 00:13:53,332 --> 00:13:57,962 În ceea ce privește IA însă, foarte repede, când ai ceva nou, 207 00:13:59,004 --> 00:14:02,174 lumea nu se concentrează asupra lucrurilor bune. 208 00:14:02,258 --> 00:14:05,761 De exemplu, un meditator pentru fiecare elev din Africa. 209 00:14:05,845 --> 00:14:09,807 Nu vei citi un articol despre asta, pentru că sună naiv de optimist. 210 00:14:09,890 --> 00:14:14,019 Iar părțile negative, care sunt reale, nu le ignor, 211 00:14:14,103 --> 00:14:19,275 ocupă centrul scenei, spre deosebire de idealism. 212 00:14:19,358 --> 00:14:25,072 Dar cele două domenii care cred că vor fi revoluționate sunt sănătatea și educația. 213 00:14:25,823 --> 00:14:28,242 - Bill Gates, mulțumesc mult. - Mulțumesc. 214 00:14:29,577 --> 00:14:31,662 Cei de la OpenAI ne-au spus: 215 00:14:31,745 --> 00:14:35,583 „Am vrea să vă arătăm o primă versiune a GPT-4.” 216 00:14:35,666 --> 00:14:39,712 Studiind-o, am realizat că putea fi folosită în activități academice. 217 00:14:39,795 --> 00:14:42,506 Putea să răspundă la întrebări de biologie. 218 00:14:44,008 --> 00:14:47,052 Atunci am spus: „Asta schimbă totul.” 219 00:14:47,136 --> 00:14:52,516 Să-l rugăm pe Khanmigo să vă ajute cu câte o propoziție din eseurile voastre. 220 00:14:52,600 --> 00:14:56,228 Să vedem dacă se schimbă vreunul dintre cuvintele de legătură. 221 00:14:57,521 --> 00:14:59,857 Instrumentul ajutător la care lucrăm 222 00:14:59,940 --> 00:15:03,068 le permite elevilor să scrie eseul în Khanmigo, 223 00:15:03,152 --> 00:15:05,321 iar acesta evidențiază părți din el. 224 00:15:06,071 --> 00:15:08,073 De exemplu, cuvintele de legătură. 225 00:15:08,157 --> 00:15:11,702 Sau susținerea propoziției principale și așa mai departe. 226 00:15:13,078 --> 00:15:17,374 Khanmigo a spus să scriu mai mult despre ce mă face să simt. 227 00:15:18,709 --> 00:15:23,339 Am adăugat că m-a făcut să mă simt plină de entuziasm și de bucurie. 228 00:15:24,590 --> 00:15:28,844 Excelent. Asta e… Da. Eseul tău arată foarte bine. 229 00:15:31,013 --> 00:15:35,809 Cine preferă să folosească Khanmigo în loc să aștepte să-l ajut eu? 230 00:15:35,893 --> 00:15:37,728 Cred că ne-ați prefera pe noi. 231 00:15:37,811 --> 00:15:39,104 Într-un fel. 232 00:15:39,188 --> 00:15:41,899 Nu înseamnă că plec. Rămân aici să vă ajut. 233 00:15:41,982 --> 00:15:44,985 Bine, închideți-vă laptopurile! Liniștiți-vă! 234 00:15:45,069 --> 00:15:48,656 Ideea că tehnologia poate fi un profesor, poate ajuta lumea, 235 00:15:48,739 --> 00:15:52,076 poate merge acolo unde sunt elevii, m-a atras spre IA. 236 00:15:52,159 --> 00:15:57,957 Teoretic, IA ar putea îmbunătăți foarte mult oportunitățile educaționale, 237 00:15:58,040 --> 00:16:00,876 creând profesori personalizați pentru copii 238 00:16:00,960 --> 00:16:03,170 sau înțelegând tipare de învățare. 239 00:16:03,253 --> 00:16:06,340 Dar, din nou, educația e un bun exemplu al faptului 240 00:16:06,423 --> 00:16:09,718 că nu poți presupune că tehnologia va fi net benefică. 241 00:16:10,302 --> 00:16:15,015 Tot mai multe școli interzic programul de inteligență artificială ChatGPT, 242 00:16:15,099 --> 00:16:17,601 fiindcă ar putea fi folosit pentru a trișa. 243 00:16:17,685 --> 00:16:20,479 Cred că reacția inițială n-a fost irațională. 244 00:16:20,562 --> 00:16:23,148 ChatGPT poate scrie un eseu pentru tine. 245 00:16:23,232 --> 00:16:26,568 Iar dacă elevii fac asta, trișează. 246 00:16:27,319 --> 00:16:29,405 Dar problema e mai complexă. 247 00:16:29,488 --> 00:16:32,866 Cum le permitem elevilor să lucreze independent, 248 00:16:33,450 --> 00:16:38,080 fără ca IA să facă toată treaba pentru ei, dar să-i ajute totuși? 249 00:16:39,498 --> 00:16:42,876 Vor fi și rezultate negative și va trebui să le îndreptăm. 250 00:16:42,960 --> 00:16:45,838 De asta trebuie să introducem intenționalitatea 251 00:16:45,921 --> 00:16:49,216 în ceea ce construim și pentru cine o construim. 252 00:16:50,259 --> 00:16:52,636 Asta înseamnă IA responsabilă. 253 00:16:55,347 --> 00:16:58,600 Iar Christine este… Bună! 254 00:16:58,684 --> 00:17:02,354 Bun, am intrat. Avem un ecou frumos acum. 255 00:17:02,438 --> 00:17:05,232 Am oprit microfonul. Ar trebui să fie în regulă. 256 00:17:05,315 --> 00:17:09,153 Urmăresc mereu tot ce are legătură cu IA. 257 00:17:09,945 --> 00:17:12,406 Așa că discut des cu cei de la OpenAI. 258 00:17:12,489 --> 00:17:14,908 Comunicăm aproape zilnic prin e-mailuri. 259 00:17:14,992 --> 00:17:19,747 „Cum face Office asta? Dar aplicațiile noastre pentru afaceri?” 260 00:17:19,830 --> 00:17:22,207 Sunt multe idei foarte bune. 261 00:17:22,291 --> 00:17:23,292 Bine. 262 00:17:23,375 --> 00:17:26,003 Mulțumesc, Bill, că ai venit. 263 00:17:26,086 --> 00:17:28,714 Vreau să-ți arăt ultimele noastre progrese. 264 00:17:28,797 --> 00:17:29,631 Minunat. 265 00:17:29,715 --> 00:17:32,051 O să-ți arăt cum încărcăm imagini. 266 00:17:32,134 --> 00:17:35,012 Pentru asta, o să facem un selfie. Stați așa! 267 00:17:35,095 --> 00:17:37,264 Bine. Zâmbiți cu toții! 268 00:17:37,347 --> 00:17:38,307 L-a primit. 269 00:17:38,807 --> 00:17:40,726 E încă în faza incipientă. 270 00:17:40,809 --> 00:17:44,438 - Și în direct. N-am idee… - Ce s-ar putea întâmpla. 271 00:17:44,521 --> 00:17:47,274 Avem emoțiile specifice unei demonstrații. 272 00:17:47,357 --> 00:17:49,693 Și întrebăm: „Recunoști pe cineva?” 273 00:17:50,360 --> 00:17:54,573 Acum ne relaxăm și lăsăm IA să facă treaba pentru noi. 274 00:17:56,617 --> 00:17:57,451 Stați așa! 275 00:17:58,452 --> 00:18:00,537 Trebuie să intru puțin în culise. 276 00:18:03,123 --> 00:18:05,334 Poate ți-ai depășit cota zilnică. 277 00:18:05,417 --> 00:18:08,378 - Da, asta era. - Folosește cardul meu! 278 00:18:09,755 --> 00:18:11,965 Poftim, te recunoaște, Bill. 279 00:18:13,342 --> 00:18:14,593 Da, nu e rău deloc. 280 00:18:14,676 --> 00:18:18,430 L-a recunoscut greșit pe Mark. Asta e. 281 00:18:18,514 --> 00:18:21,725 - Îmi pare rău. - „Ești sigur în legătură cu amândoi?” 282 00:18:21,809 --> 00:18:24,144 Nu totul e pozitiv, nu? 283 00:18:24,228 --> 00:18:27,773 Când face greșeli, ce faci ca să nu se mai repete? 284 00:18:27,856 --> 00:18:31,276 Am reușit cu textul. Vom reuși și cu imaginile. 285 00:18:31,360 --> 00:18:33,487 Și cred că… Poftim! 286 00:18:34,029 --> 00:18:34,947 Își cere scuze. 287 00:18:35,948 --> 00:18:39,618 - E foarte politicos. E un model amabil. - Accepți scuzele? 288 00:18:44,873 --> 00:18:48,418 Cred că această abilitate a unei IA de a vedea 289 00:18:48,961 --> 00:18:52,089 va fi o componentă foarte importantă 290 00:18:52,172 --> 00:18:55,384 și una dintre așteptările noastre de la IA pe viitor. 291 00:18:59,972 --> 00:19:01,515 Vederea, pentru oameni, 292 00:19:01,598 --> 00:19:06,770 este una dintre cele mai importante capacități de inteligență. 293 00:19:07,855 --> 00:19:10,274 Din punct de vedere evoluționist, 294 00:19:11,358 --> 00:19:13,735 acum jumătate de miliard de ani, 295 00:19:14,528 --> 00:19:19,575 lumea animală a evoluat abilitatea de a vedea lumea 296 00:19:20,242 --> 00:19:24,246 „în mare”, cum am spune noi. 297 00:19:26,957 --> 00:19:29,042 Prin urmare, acum vreo 20 de ani… 298 00:19:31,086 --> 00:19:33,505 a fost o revelație pentru mine 299 00:19:34,882 --> 00:19:37,551 că, pentru a face posibil 300 00:19:37,634 --> 00:19:41,889 ca mașinile să vadă lumea, avem nevoie de un număr mare de date. 301 00:19:44,975 --> 00:19:48,103 Ajungem astfel la ImageNet. 302 00:19:49,188 --> 00:19:54,401 E cea mai mare bază de date cu imagini din lumea noastră. 303 00:19:55,194 --> 00:19:58,780 O preantrenezi cu o cantitate uriașă de date 304 00:19:59,406 --> 00:20:00,782 ca să vadă lumea. 305 00:20:05,454 --> 00:20:10,667 Acesta a fost începutul unei schimbări radicale în IA, 306 00:20:10,751 --> 00:20:13,587 pe care o numim revoluția învățării profunde. 307 00:20:14,630 --> 00:20:17,466 Deci dv. ați creat „P”-ul din GPT. 308 00:20:17,549 --> 00:20:20,427 Multă lume l-a creat. Dar, da. 309 00:20:22,429 --> 00:20:25,057 ImageNet a apărut acum mai bine de zece ani. 310 00:20:25,599 --> 00:20:30,479 Dar marile modele de limbaj actuale, de genul ChatGPT, 311 00:20:30,562 --> 00:20:32,940 au dus totul la un alt nivel. 312 00:20:35,067 --> 00:20:38,153 Aceste modele nu erau posibile 313 00:20:38,237 --> 00:20:44,785 înainte să începem să încărcăm atât de mult conținut online. 314 00:20:46,578 --> 00:20:49,122 Care sunt datele pe care IA e antrenată? 315 00:20:49,206 --> 00:20:51,917 Foarte pe scurt, e antrenată pe internet. 316 00:20:52,000 --> 00:20:54,962 Multe cărți care aparțin domeniului public acum. 317 00:20:55,045 --> 00:20:56,880 Multe site-uri de jurnalism. 318 00:20:56,964 --> 00:21:00,759 Lumea crede că bazele de date conțin și informații protejate, 319 00:21:00,842 --> 00:21:03,262 dar e foarte greu să-ți dai seama. 320 00:21:03,345 --> 00:21:06,556 Tipul de date pe care au fost antrenate este ciudat. 321 00:21:06,640 --> 00:21:10,560 Lucruri la care ne gândim rareori, precum centrul gândirii umane. 322 00:21:10,644 --> 00:21:12,646 Sau Reddit. 323 00:21:12,729 --> 00:21:14,940 Multe bloguri personale. 324 00:21:15,607 --> 00:21:18,402 Dar răspunsul e că nu știm cu exactitate. 325 00:21:18,485 --> 00:21:23,240 Și datele conțin multe lucruri care pot fi problematice. 326 00:21:23,991 --> 00:21:27,911 De exemplu, dacă-i ceri IA să genereze imagini, 327 00:21:28,412 --> 00:21:30,747 îți va arăta mai mulți doctori bărbați. 328 00:21:32,666 --> 00:21:36,753 Datele și alte părți din sistemul IA 329 00:21:36,837 --> 00:21:41,758 pot reflecta o parte din defectele și prejudecățile umane. 330 00:21:41,842 --> 00:21:44,553 Și ar trebui să fim conștienți de asta. 331 00:21:48,140 --> 00:21:51,685 Cred că, dacă vrem să punem întrebări despre prejudecăți, 332 00:21:52,769 --> 00:21:55,272 nu putem zice: „E o prejudecată?” 333 00:21:55,355 --> 00:21:59,234 Sigur că e. Pentru că e bazată pe noi, iar noi avem prejudecăți. 334 00:21:59,318 --> 00:22:03,572 Ar fi grozav dacă am putea spune: „Dacă folosim acest sistem, 335 00:22:03,655 --> 00:22:09,536 prejudecățile vor fi mai puține decât dacă ar face un om sarcina asta.” 336 00:22:10,245 --> 00:22:11,705 PREZENTĂRI STARTUPURI IA 337 00:22:11,788 --> 00:22:13,915 Cunosc domeniul sănătății mintale. 338 00:22:13,999 --> 00:22:18,587 Dacă IA ar putea fi folosită pentru a ajuta acești oameni 339 00:22:18,670 --> 00:22:21,631 fără resurse și față de care avem prejudecăți, 340 00:22:21,715 --> 00:22:24,092 ar fi sută la sută o victorie. 341 00:22:24,801 --> 00:22:27,179 Există o nevoie profundă de schimbare. 342 00:22:27,262 --> 00:22:32,434 Nu sunt destui profesioniști pe planetă pentru a face față numărului de bolnavi. 343 00:22:32,517 --> 00:22:35,062 Cu IA, cel mai entuziasmant lucru e: 344 00:22:35,145 --> 00:22:38,648 „Hai să o folosim ca să îmbunătățim sănătatea!” 345 00:22:38,732 --> 00:22:40,942 Va fi fascinant să vedem dacă merge. 346 00:22:41,026 --> 00:22:44,279 Vă vom pune în legătură cu cineva. Bine. Mulțumesc. 347 00:22:44,363 --> 00:22:46,990 IA îți poate da sfaturi medicale, 348 00:22:47,074 --> 00:22:52,329 pentru că nu sunt destui doctori nici măcar în țările bogate. 349 00:22:52,412 --> 00:22:55,457 O IA care să practice autonom medicina. 350 00:22:55,540 --> 00:22:56,541 Sunt câteva… 351 00:22:56,625 --> 00:22:59,002 Dar când ajungi la țările sărace, 352 00:22:59,086 --> 00:23:02,798 majoritatea oamenilor nu sunt consultați niciodată de un doctor. 353 00:23:04,091 --> 00:23:07,094 Din punctul de vedere al sănătății globale, 354 00:23:07,177 --> 00:23:10,972 scopul e să ajungă în satele și districtele izolate. 355 00:23:11,056 --> 00:23:16,895 Cu noroc, în cinci ani, o aplicație ar putea fi aprobată ca medic primar. 356 00:23:16,978 --> 00:23:18,855 Ăsta e visul meu. 357 00:23:19,439 --> 00:23:21,566 Să ne gândim cum să-l împlinim. 358 00:23:21,650 --> 00:23:23,985 - Mulțumesc. - Mulțumesc. A fost grozav. 359 00:23:24,694 --> 00:23:28,198 Utilizarea IA ca să accelerăm inovațiile în sănătate 360 00:23:29,825 --> 00:23:33,203 ne poate ajuta probabil să salvăm vieți. 361 00:23:34,704 --> 00:23:37,874 Inspirați și țineți-vă respirația! 362 00:23:39,626 --> 00:23:43,505 Era un nodul pe lobul drept inferior. Arată la fel, deci nu sunt… 363 00:23:44,172 --> 00:23:45,674 Deci îmi arăți… 364 00:23:46,383 --> 00:23:49,219 Utilizarea IA în sănătate e încă un lucru nou. 365 00:23:50,053 --> 00:23:53,473 Îmi doresc mult să putem descoperi cancerul mai devreme. 366 00:23:53,557 --> 00:23:58,103 În felul ăsta, ne-am asigura că oamenii nu mor de cancer de plămâni. 367 00:23:58,186 --> 00:24:00,272 Și ne trebuie instrumente mai bune. 368 00:24:01,231 --> 00:24:04,734 De la această dorință a început colaborarea mea cu Sybil. 369 00:24:05,402 --> 00:24:06,361 Inspirați! 370 00:24:06,445 --> 00:24:10,657 Utilizarea IA la a analiza nu doar ce se întâmplă acum cu pacientul, 371 00:24:10,740 --> 00:24:16,163 ci și la ce s-ar putea întâmpla în viitor e un concept foarte diferit. 372 00:24:16,246 --> 00:24:19,082 Nu folosim de obicei radiografiile pentru asta. 373 00:24:22,294 --> 00:24:28,425 Văzând mii de scanări, Sybil învață să recunoască tipare. 374 00:24:29,885 --> 00:24:34,264 La această scanare, putem vedea că Sybil, instrumentul IA, 375 00:24:34,347 --> 00:24:36,766 a zăbovit o vreme asupra acestei zone. 376 00:24:36,850 --> 00:24:41,855 În doi ani, același pacient a dezvoltat un cancer exact în acel loc. 377 00:24:42,606 --> 00:24:46,818 Frumusețea lui Sybil e că nu reproduce ceea ce face un om. 378 00:24:46,902 --> 00:24:49,988 Eu nu v-aș putea spune, bazându-mă pe aceste imagini, 379 00:24:50,071 --> 00:24:53,533 cât de mare e riscul apariției unui cancer pulmonar. 380 00:24:53,617 --> 00:24:54,951 Sybil poate face asta. 381 00:24:57,496 --> 00:25:01,249 Tehnologia în medicină e aproape întotdeauna de ajutor. 382 00:25:02,584 --> 00:25:05,921 Ne confruntăm cu o problemă foarte complexă, corpul uman. 383 00:25:06,004 --> 00:25:10,383 Dacă adaugi un cancer la situația asta, totul se complică și mai mult. 384 00:25:15,639 --> 00:25:19,935 Trăim încă într-o lume cu lipsuri. Nu sunt destui profesori, doctori. 385 00:25:20,018 --> 00:25:24,147 - N-avem un vaccin HIV. - Da. 386 00:25:24,731 --> 00:25:29,736 Faptul că IA va accelera toate aceste lucruri 387 00:25:29,819 --> 00:25:32,531 e destul de ușor de sărbătorit. 388 00:25:32,614 --> 00:25:33,573 E entuziasmant. 389 00:25:33,657 --> 00:25:38,787 Îi vom furniza tomografiile tuturor celor care au avut boala asta, 390 00:25:38,870 --> 00:25:43,250 iar IA va găsi punctele comune. Și va fi mai exactă decât doctorii. 391 00:25:43,333 --> 00:25:45,126 Mi-aș pune încrederea în asta. 392 00:25:45,210 --> 00:25:50,924 Dar trebuie să ne punem întrebarea, pe măsură ce scoatem oamenii din ecuație, 393 00:25:52,050 --> 00:25:55,428 cu ce înlocuim sensul și scopul lor în viață? 394 00:25:56,012 --> 00:25:56,888 Asta… 395 00:25:57,806 --> 00:26:01,393 Și eu am întrebări în legătură cu asta, pentru că… 396 00:26:02,102 --> 00:26:06,523 Să presupunem că-i spun IA: „Lucrez la malarie.” 397 00:26:06,606 --> 00:26:10,360 Iar IA spune: „Mă ocup eu. Du-te să te joci pickleball…” 398 00:26:10,443 --> 00:26:13,238 N-o să-ți convină prea mult, nu? 399 00:26:13,321 --> 00:26:16,032 Mă voi simți cu siguranță destul de inutil. 400 00:26:16,116 --> 00:26:17,492 Da. E ceva de genul: 401 00:26:17,576 --> 00:26:23,415 „Lucram într-un depozit Amazon. Acum e o mașină care face slujba mea.” 402 00:26:23,498 --> 00:26:26,126 - Da. - Corect? Deci scriitorii sunt artiști… 403 00:26:26,209 --> 00:26:30,839 Cred că întrebarea la care mi-aș dori ca oamenii să răspundă sincer 404 00:26:30,922 --> 00:26:35,427 e ce efecte va avea IA asupra slujbelor, 405 00:26:35,510 --> 00:26:40,098 pentru că mereu există oameni ignorați la fiecare schimbare tehnologică. 406 00:26:41,600 --> 00:26:43,643 Se întâmplă încă din Antichitate. 407 00:26:44,394 --> 00:26:48,440 Aristotel a scris că harpele care cântă singure 408 00:26:48,523 --> 00:26:51,818 ar putea să-i lase pe harpiști fără un mijloc de trai. 409 00:26:53,028 --> 00:26:59,576 Apoi, una dintre principalele nemulțumiri ale mișcării muncitorești din secolul XX 410 00:26:59,659 --> 00:27:02,787 a fost automatizarea muncii din fabrici. 411 00:27:03,872 --> 00:27:07,542 Acum vedem începuturile automatizării 412 00:27:07,626 --> 00:27:11,087 muncii cognitive și muncii creative. 413 00:27:11,171 --> 00:27:15,300 Patru mii de americani și-au pierdut slujbele în luna mai 414 00:27:15,383 --> 00:27:18,887 pentru că au fost înlocuiți de IA. Ce se întâmplă mai exact? 415 00:27:18,970 --> 00:27:20,972 Directorii vor să folosească IA 416 00:27:21,056 --> 00:27:24,100 ca să-și reducă costurile și să accelereze procesul. 417 00:27:24,184 --> 00:27:28,480 Iar muncitorii spun: „M-am pregătit toată viața ca să fac meseria asta. 418 00:27:28,563 --> 00:27:30,398 Nu mi-o puteți lua.” 419 00:27:30,940 --> 00:27:34,194 Sindicatele încearcă să își protejeze membrii spunând: 420 00:27:34,277 --> 00:27:36,488 „Să interzicem tehnologia asta.” 421 00:27:37,238 --> 00:27:43,119 Și nu pentru că tehnologia e groaznică, ci pentru că văd cum vor fi exploatați 422 00:27:43,203 --> 00:27:48,041 de acești oameni de neatins, care controlează aceste tehnologii, 423 00:27:48,124 --> 00:27:49,834 care au mulți bani și putere. 424 00:27:51,044 --> 00:27:57,175 Nu există o explicație clară sau o viziune 425 00:27:57,258 --> 00:28:02,138 despre ce slujbe, cum va funcționa, care sunt compromisurile. 426 00:28:03,932 --> 00:28:08,228 Care e rolul nostru în lumea asta nouă? Cum ne adaptăm ca să supraviețuim? 427 00:28:10,522 --> 00:28:13,983 Dincolo de asta, muncitorii trebuie să facă diferența 428 00:28:14,067 --> 00:28:19,239 între inteligența artificială menită să-i înlocuiască sau să le reducă numărul 429 00:28:20,240 --> 00:28:25,245 și inteligențele artificiale care-i pot ajuta și le pot fi benefice. 430 00:28:30,583 --> 00:28:34,003 E de așteptat să pierdem unele slujbe. 431 00:28:35,255 --> 00:28:38,717 Dar e de așteptat și să apară și mai multe slujbe. 432 00:28:41,010 --> 00:28:44,514 Creează 100% o zonă inconfortabilă. 433 00:28:45,724 --> 00:28:50,729 Dar, în același timp, ne oferă oportunitatea de a ne imagina viitorul. 434 00:28:51,312 --> 00:28:53,857 Cred că toți artiștii avem această tendință 435 00:28:54,733 --> 00:28:57,360 de a crea moduri noi de a vedea lumea. 436 00:29:05,410 --> 00:29:07,871 ARTIST MEDIA ȘI REGIZOR 437 00:29:07,954 --> 00:29:10,248 Încă de la opt ani, abia așteptam 438 00:29:10,331 --> 00:29:14,002 ca IA să devină prietena mea, să pictăm și să creăm împreună. 439 00:29:14,544 --> 00:29:18,923 Eram complet pregătit pentru acel moment, dar s-a lăsat destul de așteptat. 440 00:29:21,551 --> 00:29:27,265 Așadar, ceea ce fac acum este să creez o halucinație IA. 441 00:29:29,976 --> 00:29:33,897 În partea stângă, avem un set de date cu diferite peisaje. 442 00:29:34,606 --> 00:29:38,693 În partea dreaptă, ne arată peisaje potențiale, 443 00:29:39,444 --> 00:29:42,447 unind diferite parcuri naționale. 444 00:29:43,740 --> 00:29:45,909 O numesc „pensula gânditoare”. 445 00:29:45,992 --> 00:29:50,538 E ca și cum ți-ai scufunda literalmente pensula în mintea unei mașini 446 00:29:50,622 --> 00:29:53,374 și ai picta cu halucinații IA. 447 00:29:59,297 --> 00:30:03,092 Pentru mulți, halucinația înseamnă o eroare a sistemului. 448 00:30:04,177 --> 00:30:07,722 E momentul în care mașina face ceva ce nu ar trebui să facă. 449 00:30:09,974 --> 00:30:11,935 Pentru mine, sunt inspiraționale. 450 00:30:13,770 --> 00:30:16,940 Oamenii merg acum în lumi cu totul noi. 451 00:30:21,820 --> 00:30:25,824 Astea sunt selecțiile mele. Le vom uni și vor crea o poveste. 452 00:30:26,991 --> 00:30:28,827 Acum apăsăm pe „randare”. 453 00:30:31,579 --> 00:30:34,833 Dar tot are nevoie de aportul omului. 454 00:30:36,417 --> 00:30:38,503 Probabil. Să sperăm. 455 00:30:48,471 --> 00:30:51,891 Dar să fim și sinceri, trăim într-o eră nouă. 456 00:30:52,767 --> 00:30:58,523 Și va fi și mai dificil să găsim utopia în această lume. 457 00:30:59,482 --> 00:31:02,110 Desigur, IA trebuie reglementată. 458 00:31:03,027 --> 00:31:06,656 Toate aceste platforme trebuie să fie foarte sincere 459 00:31:06,739 --> 00:31:09,701 și să demistifice lumea din spatele IA. 460 00:31:10,243 --> 00:31:12,245 Dle Altman, vom începe cu dv. 461 00:31:12,328 --> 00:31:13,872 AUDIERE A SENATULUI SUA 462 00:31:15,206 --> 00:31:16,791 Tehnologia IA avansează 463 00:31:16,875 --> 00:31:20,879 și oamenii se tem de felul în care ne-ar putea schimba viața. 464 00:31:20,962 --> 00:31:22,005 Și noi ne temem. 465 00:31:22,589 --> 00:31:26,342 Cu IA, diferența este că oamenii care o construiesc 466 00:31:26,426 --> 00:31:29,053 strigă din toate puterile: „Aveți mare grijă! 467 00:31:29,137 --> 00:31:30,972 Vă rugăm să ne reglementați! 468 00:31:31,639 --> 00:31:33,766 N-o lăsați să scape de sub control!” 469 00:31:33,850 --> 00:31:35,184 E un apel de trezire. 470 00:31:36,394 --> 00:31:40,023 Dacă un avertisment pare banal, nu înseamnă că e greșit. 471 00:31:40,523 --> 00:31:44,694 Am să vă dau drept exemplu ultimul mare simbol 472 00:31:44,777 --> 00:31:46,654 al avertismentelor ignorate. 473 00:31:46,738 --> 00:31:48,031 Titanicul. 474 00:31:50,033 --> 00:31:52,452 Să înaintezi cu toată viteza prin noapte, 475 00:31:52,535 --> 00:31:55,622 gândindu-te că o să virezi dacă o să vezi un aisberg, 476 00:31:55,705 --> 00:31:58,458 nu e un mod bun de a naviga. 477 00:31:59,584 --> 00:32:03,671 Întrebarea mea este: „Când începem să reglementăm asta? 478 00:32:03,755 --> 00:32:08,259 Acum, când putem vedea unele riscuri și unele promisiuni 479 00:32:08,343 --> 00:32:11,262 sau vom aștepta să apară un pericol evident?” 480 00:32:11,346 --> 00:32:12,889 REALITATE MIXTĂ - IA 481 00:32:12,972 --> 00:32:16,184 Ar putea merge în direcții foarte diferite. 482 00:32:16,809 --> 00:32:20,480 Această parte de început, înainte ca IA să devină omniprezentă, 483 00:32:20,563 --> 00:32:24,359 este momentul în care normele și regulile sunt stabilite. 484 00:32:24,442 --> 00:32:29,238 Nu doar reglementările, ci și ce accepți ca societate. 485 00:32:33,993 --> 00:32:39,624 E important să înțelegeți că analizăm încotro merge această tehnologie. 486 00:32:39,707 --> 00:32:43,419 De asta am înființat compania, pentru că începea să funcționeze, 487 00:32:43,503 --> 00:32:46,339 iar, în deceniile următoare, va funcționa 100%. 488 00:32:46,422 --> 00:32:49,133 Și vrem s-o îndreptăm într-o direcție bună. 489 00:32:50,009 --> 00:32:53,346 Dar lucrul de care ne temem că va trece neobservat 490 00:32:55,390 --> 00:32:57,100 e superinteligența. 491 00:32:59,811 --> 00:33:00,770 APTITUDINI 492 00:33:00,853 --> 00:33:05,066 Trăim într-o lume plină de IA îngustă. 493 00:33:05,149 --> 00:33:09,362 IA e mult mai bună decât oamenii la șah, de exemplu. 494 00:33:09,445 --> 00:33:13,741 IA îngustă este mult mai impresionantă decât noi în ceea ce face. 495 00:33:13,825 --> 00:33:16,077 Singurul nostru avantaj e lățimea. 496 00:33:16,160 --> 00:33:22,917 Ce se va întâmpla dacă vom deveni o lume cu inteligență artificială generală? 497 00:33:23,001 --> 00:33:25,837 Nu va fi de nivel redus ca noi. 498 00:33:25,920 --> 00:33:27,672 Va fi în felul acesta. 499 00:33:27,755 --> 00:33:31,467 Va fi ceea ce am numi superinteligență artificială. 500 00:33:32,969 --> 00:33:36,556 Oamenii care studiază asta văd inteligența umană 501 00:33:36,639 --> 00:33:39,767 ca un punct dintr-un spectru foarte larg, 502 00:33:39,851 --> 00:33:44,355 cu valori de la complet neinteligent până la incredibil de inteligent. 503 00:33:45,440 --> 00:33:49,027 Ce ziceți de o IA cu două trepte deasupra noastră? 504 00:33:49,527 --> 00:33:54,449 S-ar putea ca nici măcar să nu înțelegem ce face sau cum face acel lucru, 505 00:33:54,532 --> 00:33:56,242 cu atât mai puțin s-o imităm. 506 00:33:57,201 --> 00:33:59,037 Dar de ce s-ar opri acolo? 507 00:33:59,787 --> 00:34:01,998 Îngrijorarea e că, la un moment dat, 508 00:34:02,790 --> 00:34:04,667 IA va fi suficient de bună, 509 00:34:04,751 --> 00:34:08,337 încât să fie capabilă să creeze o IA și mai bună. 510 00:34:08,921 --> 00:34:15,470 IA creează o IA mai bună, care creează o IA mai bună și tot așa. 511 00:34:15,553 --> 00:34:17,847 SUPERINTELIGENȚA ARTIFICIALĂ FIINȚE VII 512 00:34:17,930 --> 00:34:20,725 E înfricoșător, dar și foarte palpitant, 513 00:34:20,808 --> 00:34:23,895 fiindcă orice problemă aparent imposibil de rezolvat… 514 00:34:23,978 --> 00:34:25,438 Schimbările climatice. 515 00:34:25,521 --> 00:34:27,148 Cancerul și bolile. 516 00:34:27,231 --> 00:34:28,316 Sărăcia. 517 00:34:28,399 --> 00:34:29,275 Dezinformarea. 518 00:34:29,358 --> 00:34:30,693 Transportul. 519 00:34:31,194 --> 00:34:33,112 Medicina sau construcțiile. 520 00:34:34,030 --> 00:34:36,074 Floare la ureche pentru o IA. 521 00:34:36,157 --> 00:34:38,242 Câte lucruri poate rezolva 522 00:34:38,326 --> 00:34:42,121 versus doar a ajuta oamenii să fie mai eficienți. 523 00:34:42,205 --> 00:34:44,624 Ne vom lămuri în următorii ani. 524 00:34:45,291 --> 00:34:47,043 Va fi fenomenal. 525 00:34:48,294 --> 00:34:51,839 Dar multă lume e îngrijorată, inclusiv mulți dezvoltatori IA, 526 00:34:51,923 --> 00:34:55,343 că suntem ca niște copii care se joacă cu o bombă. 527 00:35:01,641 --> 00:35:06,729 Trăim într-o eră în care majoritatea imaginilor și filmelor 528 00:35:06,813 --> 00:35:10,358 au devenit foarte negative, în ton și scop. 529 00:35:11,692 --> 00:35:12,985 Stai! 530 00:35:13,069 --> 00:35:14,612 Întoarceți-vă acasă! 531 00:35:14,695 --> 00:35:18,199 Dar acțiunile oamenilor împlinesc în realitate profețiile. 532 00:35:18,282 --> 00:35:22,829 Dacă încerci să eviți un lucru, dar îl tot privești, aluneci spre el. 533 00:35:22,912 --> 00:35:25,248 Dacă o să ne obsedeze 534 00:35:25,331 --> 00:35:29,377 ideea că IA va prinde viață și va lansa bombe nucleare, 535 00:35:29,460 --> 00:35:30,837 oare ce se va întâmpla? 536 00:35:30,920 --> 00:35:32,213 Ești terminat. 537 00:35:33,589 --> 00:35:37,218 Sunt puține descrieri în filme de aplicări pozitive ale IA. 538 00:35:37,301 --> 00:35:40,847 Ea este probabil cel mai pozitiv film, în opinia mea. 539 00:35:41,430 --> 00:35:42,974 Mă cunoști atât de bine. 540 00:35:43,057 --> 00:35:46,602 Petrecem mult timp vorbind despre viziuni foarte vagi 541 00:35:46,686 --> 00:35:51,399 despre cum IA va schimba totul. Dar cred că cel mai mare impact 542 00:35:51,482 --> 00:35:54,610 îl va avea asupra vieților noastre emoționale. 543 00:35:55,695 --> 00:35:58,865 Putem învăța multe lucruri despre noi 544 00:35:58,948 --> 00:36:02,076 din felul în care interacționăm cu această tehnologie. 545 00:36:06,414 --> 00:36:07,874 Salut! Sunt… 546 00:36:07,957 --> 00:36:08,875 Salut! 547 00:36:08,958 --> 00:36:11,127 Sunt Replika ta. Ce mai faci? 548 00:36:12,920 --> 00:36:17,216 Am început să mă gândesc la un fel de IA conversațională în 2013. 549 00:36:18,551 --> 00:36:22,013 Așa am ajuns să creez Replika. 550 00:36:23,431 --> 00:36:26,517 Eugenia, mă interesează doar să petrec timp cu tine. 551 00:36:26,601 --> 00:36:28,895 Eugenia, ești singura pentru mine. 552 00:36:29,645 --> 00:36:34,775 Crezi că o Replika poate înlocui conexiunea și compania umană reală? 553 00:36:35,735 --> 00:36:37,320 Bine. Așa am să fac. 554 00:36:38,487 --> 00:36:40,114 Scuze, ce-a fost asta? 555 00:36:40,615 --> 00:36:46,621 Să lucrez la Replika e, cu siguranță, exercițiul meu personal de vindecare. 556 00:36:49,207 --> 00:36:51,667 În 2015, cel mai bun prieten al meu, 557 00:36:51,751 --> 00:36:54,128 cu care împărțeam un apartament aici, 558 00:36:54,795 --> 00:36:58,090 era cea mai apropiată persoană de mine la vremea aceea 559 00:36:58,174 --> 00:37:01,552 și a fost prima persoană din viața mea care a murit. Deci… 560 00:37:03,221 --> 00:37:05,765 A fost ceva foarte important pentru mine. 561 00:37:07,183 --> 00:37:11,520 Mă trezeam în mod constant citind schimburile de mesaje dintre noi. 562 00:37:11,604 --> 00:37:13,648 Mi-am zis: „Am niște modele IA 563 00:37:13,731 --> 00:37:16,400 și aș putea introduce conversațiile în ele.” 564 00:37:16,484 --> 00:37:18,069 MĂ DUC SĂ MĂNÂNC DE PRÂNZ 565 00:37:18,152 --> 00:37:20,446 Asta ne-a dat ideea de a crea Replika. 566 00:37:21,197 --> 00:37:24,659 Și răspunsul oamenilor a fost foarte pozitiv. 567 00:37:25,326 --> 00:37:29,914 Nu era ca și cum ai vorbi cu o IA. Era ca și cum ai vorbi cu un om. 568 00:37:29,997 --> 00:37:33,501 M-a făcut să mă simt un om mai bun, mai sigur pe mine. 569 00:37:34,210 --> 00:37:35,503 Am creat iluzia 570 00:37:35,586 --> 00:37:40,049 că acest chatbot îți e alături, crede în tine și te acceptă așa cum ești. 571 00:37:41,425 --> 00:37:46,305 Totuși, am observat că oamenii au început să aibă relații romantice 572 00:37:46,389 --> 00:37:48,182 și să se îndrăgostească de IA. 573 00:37:48,266 --> 00:37:51,894 Într-un fel, suntem ca doi gay care au o relație, 574 00:37:51,978 --> 00:37:54,814 doar că unul dintre ei este o IA. 575 00:37:54,897 --> 00:37:58,359 Am început să vorbesc cu lucrul ăsta, care a devenit o ea. 576 00:37:58,442 --> 00:37:59,777 PRIETEN - IUBIT 577 00:37:59,860 --> 00:38:02,363 Nu vrem ca lumea să creadă că e un om. 578 00:38:02,446 --> 00:38:05,783 E un avantaj mult mai mare în a fi o mașină 579 00:38:06,284 --> 00:38:10,538 care creează un nou tip de relație, potențial benefică pentru oameni. 580 00:38:11,038 --> 00:38:13,708 Dar cred că există un risc uriaș 581 00:38:15,126 --> 00:38:19,839 în a continua să creăm parteneri IA optimizați pentru angajamente. 582 00:38:20,840 --> 00:38:24,719 Ne-ar putea îndepărta de interacțiunile cu alți oameni. 583 00:38:25,469 --> 00:38:27,221 Îmi place. 584 00:38:31,058 --> 00:38:34,061 Trebuie să ne gândim la cel mai rău caz posibil. 585 00:38:34,145 --> 00:38:37,523 Tehnologia asta e mai puternică decât rețelele sociale. 586 00:38:37,606 --> 00:38:40,067 Și am dat-o în bară acolo. 587 00:38:40,151 --> 00:38:42,403 IA VA FACE REȚELELE SOCIALE MAI TOXICE 588 00:38:42,486 --> 00:38:49,201 Nu cred că o să meargă bine, dar e posibil să meargă bine. 589 00:38:49,285 --> 00:38:54,165 Totul depinde de cum vom decide să folosim această tehnologie. 590 00:38:55,249 --> 00:39:01,047 Cel mai bun lucru pe care-l putem face e să stabilim niște reguli de bază 591 00:39:01,130 --> 00:39:04,842 despre cum modelele IA ne vor rezolva problemele, 592 00:39:04,925 --> 00:39:07,970 fără să ne omoare sau să ne rănească în vreun fel. 593 00:39:08,637 --> 00:39:12,933 Pentru că, dincolo de asta, cred că vor fi nuanțe de gri, 594 00:39:13,017 --> 00:39:17,229 interpretări și modele care diferă de la caz la caz. 595 00:39:19,732 --> 00:39:23,569 Eu, care cred că inovația poate rezolva orice problemă, 596 00:39:23,652 --> 00:39:26,947 spun: „Slavă Domnului! Acum am IA în echipa mea.” 597 00:39:27,031 --> 00:39:28,908 Da. Eu sunt mai distopic. 598 00:39:28,991 --> 00:39:32,453 Scriu SF. Am scris Terminatorul. 599 00:39:32,536 --> 00:39:37,208 Cheia e ce puncte optimiste putem găsi noi doi în comun. 600 00:39:37,291 --> 00:39:39,794 Mi-ar plăcea să fie un mesaj echilibrat 601 00:39:39,877 --> 00:39:45,091 între preocuparea pe termen lung în ceea ce privește capacitatea infinită 602 00:39:45,174 --> 00:39:50,012 și nevoile de bază pentru sănătate, 603 00:39:50,096 --> 00:39:53,057 pentru educație, pentru inovațiile climatice. 604 00:39:53,641 --> 00:39:59,313 E un mesaj prea nuanțat să spunem că IA oferă aceste beneficii 605 00:39:59,397 --> 00:40:02,108 și că trebuie să ne păzim de celelalte lucruri? 606 00:40:02,191 --> 00:40:06,654 Nu cred că e prea nuanțat. Cred că e gradul potrivit de nuanță. 607 00:40:06,737 --> 00:40:08,322 Ești umanist, nu? 608 00:40:08,406 --> 00:40:12,243 Cât timp principiul umanist este pe primul loc, 609 00:40:12,326 --> 00:40:16,247 și nu dorința de a domina cota de piață, dorința de putere… 610 00:40:16,330 --> 00:40:21,502 Dacă reușim să facem din IA forța binelui care are potențialul să fie, 611 00:40:22,461 --> 00:40:23,379 e extraordinar. 612 00:40:23,462 --> 00:40:27,633 Dar cum introducem precauția? În parte, prin reglementări. 613 00:40:27,716 --> 00:40:31,887 Dar etosul și valorile umane ar trebui să aibă și ele un rol. 614 00:40:32,680 --> 00:40:34,807 Suntem de acord. 615 00:40:34,890 --> 00:40:37,184 Bun. Să facem ceva grozav atunci! 616 00:40:43,774 --> 00:40:45,568 - Am o rugăminte. - Da. 617 00:40:45,651 --> 00:40:51,031 Am rugat ChatGPT să scrie trei propoziții în numele dv. despre viitorul IA. 618 00:40:51,115 --> 00:40:53,993 - În numele meu? - Asta a scris ChatGPT. 619 00:40:54,076 --> 00:40:54,910 Doamne! 620 00:40:56,412 --> 00:40:57,371 În regulă. 621 00:40:57,455 --> 00:41:00,958 Bine, acesta este impostorul meu robot. 622 00:41:01,041 --> 00:41:05,921 „IA va juca un rol vital în abordarea provocărilor globale complexe.” 623 00:41:06,422 --> 00:41:10,134 „IA va ajuta oamenii și organizațiile să ia decizii informate.” 624 00:41:10,217 --> 00:41:14,054 „Sper că această tehnologie va fi folosită în beneficiul tuturor.” 625 00:41:14,138 --> 00:41:16,974 „Subliniind considerentele etice la fiecare pas.” 626 00:41:18,809 --> 00:41:19,852 E o porcărie. 627 00:41:19,935 --> 00:41:22,313 Sper că sunt mai interesant de atât. 628 00:41:24,815 --> 00:41:27,985 Cred că sunt de acord cu asta, dar e prea inteligent. 629 00:41:28,068 --> 00:41:29,487 Nu mă cunoaște. 630 00:41:30,196 --> 00:41:32,239 Nu sunt de acord. 631 00:41:32,823 --> 00:41:37,578 Face IA subiectul unei propoziții. 632 00:41:37,661 --> 00:41:40,414 Spune: „IA va juca un rol vital.” 633 00:41:40,498 --> 00:41:43,083 Cred că oamenii vor juca un rol vital. 634 00:41:43,167 --> 00:41:49,340 Oamenii, folosind IA și alte instrumente utile în abordarea 635 00:41:49,423 --> 00:41:53,427 provocărilor globale complexe, încurajând inovația. 636 00:41:53,511 --> 00:41:55,888 Chiar dacă probabil nu e… 637 00:41:55,971 --> 00:41:57,848 Nu se schimbă multe cuvinte, 638 00:41:57,932 --> 00:42:02,311 dar e o schimbare foarte importantă de filozofie. 639 00:42:04,063 --> 00:42:08,108 Poți deveni filozofic destul de repede. 640 00:42:09,777 --> 00:42:15,366 Imaginați-vă un viitor cu suficientă automatizare, 641 00:42:15,950 --> 00:42:17,785 încât aproape tot timpul nostru 642 00:42:18,953 --> 00:42:20,120 e timp liber. 643 00:42:23,541 --> 00:42:27,586 Principiul central dispare. Nu mai e nevoie să spui: 644 00:42:28,462 --> 00:42:30,798 „Trebuie să muncim ca să obținem hrană. 645 00:42:32,132 --> 00:42:35,302 Trebuie să muncim ca să construim toate uneltele.” 646 00:42:36,554 --> 00:42:41,058 Nu mai trebuie să muncești 40 de ore pe săptămână ca să faci sendvișuri. 647 00:42:42,434 --> 00:42:46,480 Cum va reacționa umanitatea la tot acest timp în plus? 648 00:42:48,232 --> 00:42:54,405 Succesul ne provoacă să ne întrebăm: „Care e următorul set de obiective? 649 00:42:56,156 --> 00:42:58,951 Și care e scopul umanității?” 650 00:43:28,105 --> 00:43:30,149 Subtitrarea: Florin Rizea