1 00:00:02,000 --> 00:00:07,000 Downloaded from YTS.MX 2 00:00:08,000 --> 00:00:13,000 Official YIFY movies site: YTS.MX 3 00:00:25,040 --> 00:00:27,920 Zekâ, anlama becerisidir. 4 00:00:28,000 --> 00:00:30,240 Bildiklerimizi makinelere aktardık. 5 00:00:30,240 --> 00:00:31,720 Yapay zekâ (YZ) hızla yükseldi, 6 00:00:31,760 --> 00:00:34,200 ama bazıları yeni teknolojinin… 7 00:00:34,200 --> 00:00:36,960 bazı sorunları olacağını düşünüyor. 8 00:00:36,960 --> 00:00:38,520 Onu kontrol edemeyeceğiz. 9 00:01:00,200 --> 00:01:03,520 YZ oluşturma konusunda elde edilen başarı insanlık tarihinin en büyük olayıdır. 10 00:01:03,520 --> 00:01:09,720 Maalesef aynı zamanda en son olay da olabilir.” Stephen Hawking [Teorik Fizikçi] 11 00:01:37,720 --> 00:01:40,280 Yapay zekânın dayandığı algoritmalar hâlihazırda kullanılıyor… 12 00:01:40,280 --> 00:01:41,920 ve bu daha başlangıç. 13 00:01:51,400 --> 00:01:54,880 YZ çağında yeni yakıt, veriler. 14 00:01:57,200 --> 00:01:59,240 Bugün Amazon, Google ve Facebook… 15 00:01:59,240 --> 00:02:01,440 insan tarihi boyunca varolmuş diğer tüm şirketlerden… 16 00:02:01,440 --> 00:02:03,840 daha zengin ve daha güçlü. 17 00:02:05,000 --> 00:02:08,680 Bugün bir milyar insanın düşüncelerine… 18 00:02:08,680 --> 00:02:11,360 bir avuç teknoloji şirketini yöneten bir avuç insan yön veriyor. 19 00:02:12,720 --> 00:02:16,840 Bu teknoloji, insan olmanın anlamını değiştiriyor. 20 00:03:00,520 --> 00:03:05,520 eİnsan 21 00:03:11,880 --> 00:03:16,360 Basit manada yapay zekâ, biyolojik olmayan zekâdır. 22 00:03:17,320 --> 00:03:20,920 Zekâ da temelde hedeflere ulaşma becerisidir. 23 00:03:23,440 --> 00:03:27,440 # Max Tegmark Hayatın Geleceği Enstitüsü # Şuna kaniyim ki YZ nihayetinde ya insanlığın başına gelmiş en iyi şey… 24 00:03:27,440 --> 00:03:29,640 ya da en kötü şey. 25 00:03:31,240 --> 00:03:34,920 Onu bugünün ve yarının tüm sorunlarını çözmek, hastalıkları tedavi etmek, 26 00:03:34,920 --> 00:03:40,600 iklim değişikliği sorununu halletmek, 27 00:03:40,800 --> 00:03:42,880 yoksulluktan kurtulmak için kullanabiliriz. 28 00:03:44,400 --> 00:03:47,480 Ama aynı teknolojiyi… 29 00:03:47,480 --> 00:03:51,800 gözetleme imkânlarının, eşitsizliğin ve çilenin arttığı… 30 00:03:51,800 --> 00:03:54,640 zorba bir dünya diktatörlüğü kurmak için de kullanabiliriz. 31 00:03:56,240 --> 00:03:59,280 Bu teknolojinin çağımızın en önemli tartışması olmasının sebebi budur. 32 00:04:04,400 --> 00:04:07,600 Yapay zekâ artık her yerde… 33 00:04:08,440 --> 00:04:11,480 çünkü bugün düşünen makinelere sahibiz. 34 00:04:12,440 --> 00:04:15,560 İnternete veya sosyal medyaya girdiğinizde… 35 00:04:15,840 --> 00:04:20,280 karşınıza öneriler konusunda kararlar veren bir yapay zekâ motoru çıkar. 36 00:04:21,280 --> 00:04:25,400 Facebook’ta arkadaşlarınızın postlarına bakarken bir YZ motoru… 37 00:04:25,400 --> 00:04:29,120 # Zeynep Tüfekçi Teknoloji Sosyologu # önce hangisinin gösterileceğini… 38 00:04:29,120 --> 00:04:30,760 hangisinin gizleneceğini kararlaştırır. 39 00:04:30,840 --> 00:04:34,200 Sigorta yaptırırken bir YZ motoru… 40 00:04:34,200 --> 00:04:36,280 ne kadar risk altında olduğunuzu anlamaya çalışır. 41 00:04:37,160 --> 00:04:40,720 Bir işe başvurduğunuzda özgeçmişinize… 42 00:04:40,720 --> 00:04:43,440 muhtemelen bir YZ motoru bakar. 43 00:04:51,360 --> 00:04:53,520 Verilerden oluşuyoruz. 44 00:04:54,240 --> 00:04:59,520 Hepimiz öyle, davranışlarımız, 45 00:04:59,760 --> 00:05:03,000 sohbetlerimiz, sevmelerimiz, her gün yapıp ettiklerimiz hep veri. 46 00:05:05,400 --> 00:05:09,120 # Eleonare Pauwels Birleşmiş Milletler Üniversitesi # Bu sebeple bilgisayar bilimcileri muazzam büyüklükte veriler dâhilinde… 47 00:05:09,120 --> 00:05:14,120 gidişatı tanımlamayı, sınıflandırmayı ve tahminde bulunmayı öğrenebilen… 48 00:05:14,560 --> 00:05:18,680 köklü öğrenme algoritmaları geliştiriyorlar. 49 00:05:31,400 --> 00:05:35,200 Artık hassas gözetleme imkânlarına sahibiz, 50 00:05:35,200 --> 00:05:38,760 Bunu “algoritmik gözetleme” olarak adlandırabiliriz, 51 00:05:38,760 --> 00:05:41,840 Bu da demek oluyor ki bir ortamda tanınmamanız artık imkânsız. 52 00:05:43,120 --> 00:05:46,120 Algoritmalar sizi her daim izliyorlar. 53 00:05:51,080 --> 00:05:54,400 Bugün dünyadaki YZ geliştirme çalışmalarının neredeyse tamamını… 54 00:05:54,400 --> 00:05:56,880 bir avuç büyük teknoloji şirketi veya… 55 00:05:57,040 --> 00:05:58,760 birkaç büyük devlet yapıyor. 56 00:06:01,920 --> 00:06:06,160 Yapay zekâ en çok da cinayet, 57 00:06:06,160 --> 00:06:11,160 casusluk ve beyin yıkama faaliyeti için geliştiriliyor. 58 00:06:11,560 --> 00:06:13,720 Demek ki bir de askerî YZ’den söz etmek lazım. 59 00:06:13,720 --> 00:06:16,840 # Ben Goertzel Hanson Robotics Baş Bilgisayar Bilimcisi # Büyük devletler, tüm gözetleme aygıtını… 60 00:06:16,840 --> 00:06:19,040 YZ kullanarak inşa ediyorlar, 61 00:06:19,080 --> 00:06:21,720 bir de reklâmcılık sektörü var, burada YZ… 62 00:06:21,720 --> 00:06:25,880 insanlara bir şeyler satmaya çalışan reklâmların yaptıklarını yapıyor. 63 00:06:29,080 --> 00:06:32,080 Bugün insanlar bir yol ayrımında. 64 00:06:33,520 --> 00:06:36,680 Bugünkü YZ çok dar. 65 00:06:37,840 --> 00:06:40,560 Ta başlangıçtan beri yapılan YZ araştırmalarında amaç… 66 00:06:40,560 --> 00:06:43,320 her şeyi bizden daha iyi yapacak YZ üretmekti, 67 00:06:44,680 --> 00:06:46,320 sonuçta bir Tanrı yarattık. 68 00:06:47,640 --> 00:06:49,920 Bildiğimiz hayatı kökten değiştirecek.. 69 00:06:53,040 --> 00:06:55,760 Bugün bir adım çekilip… 70 00:06:55,760 --> 00:06:57,680 bu meseleyi dikkatle ele almak çok önemli. 71 00:06:59,400 --> 00:07:01,520 Ne tür bir toplum istiyoruz? 72 00:07:04,760 --> 00:07:07,440 Dolayısıyla böylesi bir tarihsel dönüşümün içinden geçiyoruz. 73 00:07:08,880 --> 00:07:11,240 Bu yeni yaratığı kendi ellerimizle büyütüyoruz. 74 00:07:11,280 --> 00:07:14,240 Yeni bir ürün var elimizde. 75 00:07:16,120 --> 00:07:19,640 Ama bu ürünü ve yapacağı her şeyi… 76 00:07:19,640 --> 00:07:23,000 kontrol etmek mümkün değil. 77 00:07:33,600 --> 00:07:37,240 İsviçre Ulusal Süper Bilgisayar Merkezi 78 00:07:57,000 --> 00:08:00,320 Biz bugün YZ’nin… 79 00:08:00,320 --> 00:08:05,280 birçok önemli alanda insanı geride bırakıyor oluşuna… 80 00:08:05,280 --> 00:08:10,480 ilk kez tanık olduğumuz özel bir dönemi tecrübe ediyoruz. 81 00:08:13,960 --> 00:08:16,040 Jürgen Schmidhuber NNAISENSE Baş Bilimcisi 82 00:08:16,040 --> 00:08:19,880 Her şey değişecek. Yeni bir hayat biçimi ortaya çıkıyor. 83 00:08:22,800 --> 00:08:26,400 Jürgen Schmidhuber kimilerine göre YZ’nin babasıdır. 84 00:08:26,400 --> 00:08:32,000 Bugün dünya genelinde milyarlarca insan tarafından kullanılan makine öğrenimi... 85 00:08:32,000 --> 00:08:37,000 ve yüz tanıma yöntemlerini geliştiren çalışmalarıyla makine öğrenimini ve YZ’yi dönüştürmüştür. 86 00:08:45,000 --> 00:08:50,920 Çocukken etkimi nasıl maksimize edeceğimi düşünürdüm. 87 00:08:52,040 --> 00:08:56,280 Sonra anladım ki… 88 00:08:56,280 --> 00:08:59,960 öğrendikçe benden daha akıllı olan bir şey oluşturayım ki… 89 00:09:00,040 --> 00:09:01,680 ben emekli olayım, 90 00:09:01,680 --> 00:09:04,480 o akıllı şey de kendisini geliştirerek… 91 00:09:04,480 --> 00:09:06,960 çözemediğim tüm sorunları çözsün. 92 00:09:08,120 --> 00:09:11,080 Lugano, İsviçre 93 00:09:11,160 --> 00:09:14,520 O günden beri beni harekete geçiren fikir… 94 00:09:14,520 --> 00:09:16,360 sınırsız kıldığım… 95 00:09:18,280 --> 00:09:20,800 o ufak yaratıcılık kırıntılarının sayısını çoğaltmaktı. 96 00:09:39,240 --> 00:09:43,320 Genel amaca hizmet edecek bir yapay zekâ nasıl oluşturabilirim? 97 00:09:45,560 --> 00:09:49,600 Zeki olmak istiyorsanız, konuşmaları, videoyu, el yazısını, yüzleri, 98 00:09:49,680 --> 00:09:54,560 her şeyi tanımanız gerekir, 99 00:09:54,560 --> 00:09:57,560 ilerleme ancak bu şekilde mümkün olmuştur. 100 00:09:59,280 --> 00:10:03,120 Münih ve İsviçre’deki laboratuvarlarda geliştirdiğimiz Uzun Kısa Süreli Bellek… 101 00:10:03,120 --> 00:10:07,480 ve nöral ağlara bakılabilir, bunlar ses tanıma, 102 00:10:07,960 --> 00:10:11,760 çeviri ve video tanıma için kullanılmaktadır. 103 00:10:12,640 --> 00:10:16,680 Bunlar artık herkesin akıllı telefonunda, 104 00:10:16,680 --> 00:10:20,680 bir milyar iPhone’da, iki milyar Android telefonda bulunmaktadır. 105 00:10:22,000 --> 00:10:27,000 Artık bugün genel hedefe ulaşma noktasında… 106 00:10:27,120 --> 00:10:29,400 her türden faydalı yan ürünü üretiyoruz. 107 00:10:40,000 --> 00:10:45,000 Ana hedefse, öğrenerek öğrenme algoritmasını bizzat kendisi geliştirecek olan… 108 00:10:45,000 --> 00:10:50,960 Yapay Genel Zekâdır. 109 00:10:52,960 --> 00:10:56,960 Bu türden yapay zeka, öğrenme yöntemini geliştirmeyi öğrenecek, 110 00:10:56,960 --> 00:11:00,960 ayrıca hesaplamanın temel sınırları haricinde… 111 00:11:00,960 --> 00:11:04,480 her türden sınırdan azade biçimde… 112 00:11:04,480 --> 00:11:08,000 o yöntemi sürekli geliştirecek. 113 00:11:14,600 --> 00:11:17,880 Benim en çok sevdiğim robotlardan biri bu. 114 00:11:17,880 --> 00:11:21,400 Biz, bunu yapay merakla ilgili çalışmalarımızda kullanıyoruz. 115 00:11:22,640 --> 00:11:27,640 Bu robota kendi kendisine bir şeyler öğretmeyi öğretiyoruz. 116 00:11:32,880 --> 00:11:33,960 Bir bebek ne yapar? 117 00:11:33,960 --> 00:11:37,840 Bir bebek, meraklı gözlerle dünyasını keşfeder. 118 00:11:39,960 --> 00:11:42,200 Yerçekiminin nasıl işlediğini, 119 00:11:42,200 --> 00:11:45,120 belirli şeylerin nasıl devrildiğini bu şekilde öğrenir. 120 00:11:46,720 --> 00:11:50,000 Bebek dünya hakkında sorular sormayı öğrendikçe, 121 00:11:50,000 --> 00:11:52,520 bu soruları cevaplamayı öğrendikçe… 122 00:11:52,640 --> 00:11:55,520 genel sorunları çözen biri hâline gelir. 123 00:11:56,560 --> 00:11:59,000 Yapay sistemlerimiz… 124 00:11:59,160 --> 00:12:03,320 insanların kendilerine sordukları sorulara cevap vermekle kalmazlar… 125 00:12:03,320 --> 00:12:07,000 aynı zamanda her türden soru sormayı da öğrenirler. 126 00:12:10,880 --> 00:12:14,920 YZ’ye kendi görevlerini icat etme özgürlüğü verilmelidir. 127 00:12:17,840 --> 00:12:20,640 Verilmezse, çok da akıllı olamayacaktır. 128 00:12:22,160 --> 00:12:26,800 Diğer yandan neler yapabileceğini öngörmek de çok zor bir iş. 129 00:12:49,560 --> 00:12:52,920 Teknolojinin doğaya ait bir güç olduğunu düşünüyorum. 130 00:12:55,440 --> 00:13:00,040 Bence teknoloji ile biyolojik evrim arasında birçok benzerlik var. 131 00:13:08,840 --> 00:13:10,640 Tanrı gibi davranmak. 132 00:13:13,480 --> 00:13:16,520 Bilim insanları bir süredir Tanrı gibi davranmakla suçlanıyorlar. 133 00:13:16,840 --> 00:13:18,840 Ilya Sutskever OpenAI Araştırma Direktörü 134 00:13:18,960 --> 00:13:22,400 Oysa bugüne dek yarattıklarımızdan… 135 00:13:23,400 --> 00:13:26,280 çok farklı bir şey yaratıyoruz. 136 00:13:29,520 --> 00:13:33,520 Ilya Sutskever derin öğrenme ve yapay zekâ alanındaki en büyük tarihsel atılımların… 137 00:13:33,520 --> 00:13:37,520 bazılarının ardındaki itici güç ve en önemli yaratıcı akıllardan biridir. 138 00:13:37,520 --> 00:13:40,800 Elon Musk kendisini dünyanın en büyük YZ araştırma laboratuvarlarından biri olan OpenAI’ın… 139 00:13:40,800 --> 00:13:43,800 başına geçmesi konusunda ikna etmiştir. 140 00:13:49,800 --> 00:13:53,280 YZ anlayışı ile nispeten çok küçük yaştan beri ilgileniyorum. 141 00:13:55,080 --> 00:13:58,440 Bir noktadan sonra bilhassa makine öğrenimiyle ilgilenmeye başladım. 142 00:14:01,680 --> 00:14:03,520 Deneyim nedir? 143 00:14:03,520 --> 00:14:04,720 Öğrenme nedir? 144 00:14:04,720 --> 00:14:05,720 Düşünme nedir? 145 00:14:06,880 --> 00:14:08,160 Beyin nasıl çalışır? 146 00:14:10,160 --> 00:14:12,760 Bunlar felsefi sorulardır, gelgelelim hem faydalı şeyler yapabilen… 147 00:14:12,760 --> 00:14:16,000 hem de bu sorulara cevap bulmamıza yardım eden… 148 00:14:16,000 --> 00:14:18,240 algoritmalar oluşturabiliriz. 149 00:14:20,000 --> 00:14:22,240 Bunun uygulamalı felsefe olduğunu söylemek mümkün. 150 00:14:48,080 --> 00:14:51,440 Yapay Genel Zekâ, YGZ. 151 00:14:52,600 --> 00:14:57,200 Bu, bir insanın yaptığı her türden işi veya görevi… 152 00:14:57,200 --> 00:15:00,360 ondan daha iyi yapan bir bilgisayar sistemidir. 153 00:15:13,200 --> 00:15:15,840 Evet, ileride kendi hedefleri olan… 154 00:15:17,360 --> 00:15:20,160 tümüyle otonom varlıklar yaratabileceğiz. 155 00:15:24,080 --> 00:15:25,640 Bu varlıklar insanlardan daha akıllı oldukça… 156 00:15:25,640 --> 00:15:30,440 bu varlıklara sahip olunması ve… 157 00:15:30,440 --> 00:15:34,720 bu varlıkların hedefleriyle bizim hedeflerimizin örtüşmesi meselesi… 158 00:15:36,240 --> 00:15:39,360 önemli hâle gelecek. 159 00:15:42,600 --> 00:15:45,360 OpenAI’da yapmaya çalıştığımız tam da bu. 160 00:15:45,360 --> 00:15:49,720 Geleceğin insanlık için hayırlı olma ihtimalini artırmak adına… 161 00:15:49,720 --> 00:15:53,960 araştırmalara öncülük etmeye, onları yönlendirmeye ve… 162 00:15:53,960 --> 00:15:56,120 ilk koşulları oluşturmaya çalışıyoruz. 163 00:16:11,680 --> 00:16:14,240 Bugün YZ, harika bir şeydir çünkü ileride… 164 00:16:14,360 --> 00:16:16,440 bugünkü sorunlarımızın tamamını çözecektir. 165 00:16:19,080 --> 00:16:22,600 İstihdam, hastalık, yoksulluk gibi sorunları çözüme kavuşturacak… 166 00:16:24,680 --> 00:16:26,560 ama aynı zamanda… 167 00:16:29,000 --> 00:16:31,360 yeni sorunlara yol açacaktır. 168 00:16:34,600 --> 00:16:36,360 Bence… 169 00:16:40,480 --> 00:16:43,120 yalan haber sorunu bin kat daha kötü… 170 00:16:43,120 --> 00:16:44,760 bir sorun olarak gündeme gelecek. 171 00:16:46,440 --> 00:16:48,840 Siber saldırılar uç noktalara varacak 172 00:16:50,640 --> 00:16:53,480 İleride tümüyle otomatik YZ silâhlara sahip olunacak. 173 00:16:56,120 --> 00:17:00,000 Yapay zekâ, kalıcı diktatörlüklere sebep olma potansiyeline sahip. 174 00:17:05,840 --> 00:17:08,680 Önümüzdeki 10-15 yıl içinde… 175 00:17:08,840 --> 00:17:12,600 zeki sistemlerin sayısı iyice artacak, 176 00:17:12,600 --> 00:17:17,120 bu sistemler, toplum üzerinde muazzam etkilere yol açacak. 177 00:17:19,480 --> 00:17:21,160 Bu gelişmelerden insanlar faydalanabilecek mi? 178 00:17:22,840 --> 00:17:24,840 Kimler faydalanacak, kimler faydalanamayacak? 179 00:17:44,560 --> 00:17:47,680 IBM’in hesabına göre 2012’de… 180 00:17:47,680 --> 00:17:51,920 ortalama bir insan her gün... 181 00:17:52,080 --> 00:17:55,120 500 megabaytlık dijital ayak izi üretiyordu. 182 00:17:55,120 --> 00:17:57,400 İnsanlığın bir günde ürettiği veriyi… 183 00:17:57,400 --> 00:18:01,280 kâğıda basıp yedekleyeceğinizi bir düşünsenize. 184 00:18:01,280 --> 00:18:05,040 # Michal Kosinski Bilişimsel Psikolog # İnsanlığın bir günde ürettiği veriyi içerecek… 185 00:18:05,040 --> 00:18:08,240 kâğıtların toplam kalınlığı ne olurdu acaba? 186 00:18:09,600 --> 00:18:12,680 Güneşle dünya arasındaki mesafenin dört katını bulurdu. 187 00:18:14,560 --> 00:18:20,360 2025’te kişi başı üretilen veri miktarı… 188 00:18:20,640 --> 00:18:22,400 günde 62 gigabayt olacak. 189 00:18:23,800 --> 00:18:28,320 Michal Kosinski bu dönemde en fazla tartışmalara yol açmış veri bilimcilerinden biri. 190 00:18:28,320 --> 00:18:34,120 Çığır açıcı araştırması Cambridge Analytica gibi şirketlerin yöntemlerine kaynaklık etti. 191 00:18:36,960 --> 00:18:42,360 Hayatlarımız boyunca bir ton dijital ayak izi bırakıyoruz geride. 192 00:18:44,800 --> 00:18:49,400 Bu veriler bize, kim olduğumuz, ne istediğimiz, ne yaptığımız konusunda… 193 00:18:49,400 --> 00:18:52,320 gayet iyi fikirler sunan bilgisayar algoritmaları oluşturma imkânı veriyorlar. 194 00:18:56,040 --> 00:18:59,160 Çalışmamda farklı türde ayak izlerine baktım. 195 00:18:59,320 --> 00:19:02,640 Facebook beğenilerini, dili, 196 00:19:02,640 --> 00:19:06,880 kredi kartı kayıtlarını, internet araması geçmişlerini ve arama kayıtlarını inceledim. 197 00:19:07,760 --> 00:19:11,880 Her seferinde şunu buldum: yeterince veriniz varsa… 198 00:19:12,000 --> 00:19:14,360 ilerideki davranışları doğru tahmin edebilir, 199 00:19:14,360 --> 00:19:17,560 önemli özellikleri açığa çıkartabilirsiniz. 200 00:19:19,160 --> 00:19:21,280 Bu yöntem iyi işlerde kullanılabilir, 201 00:19:21,280 --> 00:19:24,680 fakat insanları manipüle etmek gibi işlerde de kullanılabilir. 202 00:19:29,920 --> 00:19:33,880 Facebook iki milyardan fazla insana… 203 00:19:33,880 --> 00:19:36,480 her gün bilgi aktarıyor. 204 00:19:38,760 --> 00:19:42,840 Facebook motorunun işleyişinde ufak bir değişiklik yaptığınızda… 205 00:19:42,840 --> 00:19:46,520 milyonlarca insanın kanaatini… 206 00:19:46,520 --> 00:19:49,880 dolayısıyla oyunu değiştirebiliyorsunuz. 207 00:19:50,720 --> 00:19:52,680 - AB’den çıkmak istiyoruz! - Ne zaman istiyoruz? 208 00:19:52,720 --> 00:19:54,160 - Şimdi! 209 00:19:56,080 --> 00:19:59,520 Bir siyasetçi, seçmenlerinden herbirinin hangi mesajı beğeneceğini bilemeyebilir ama… 210 00:19:59,640 --> 00:20:02,360 bir bilgisayar… 211 00:20:02,520 --> 00:20:05,720 hangi politik mesajın… 212 00:20:06,000 --> 00:20:08,920 özellikle ikna edici olabileceğini bilebilir. 213 00:20:11,320 --> 00:20:12,640 Bayanlar baylar, 214 00:20:12,640 --> 00:20:16,160 müsaadenizle bugün size büyük verilerin ve… 215 00:20:16,160 --> 00:20:20,440 psikografinin seçim sürecindeki gücünü anlatacağım. 216 00:20:20,440 --> 00:20:22,360 Cambridge Analytica’dan gelen veriler… 217 00:20:22,360 --> 00:20:25,080 50 milyon Facebook kullanıcısına ait… 218 00:20:25,080 --> 00:20:28,320 kişisel verileri gizlice işledi. 219 00:20:28,320 --> 00:20:31,680 ABD! 220 00:20:31,680 --> 00:20:35,480 Trump’ın seçim kampanyası esnasında tuttuğu veri şirketi… 221 00:20:35,880 --> 00:20:41,080 potansiyel Amerikan seçmenlerinden gizlice toplanan bilgileri kullanmıştı. 222 00:20:41,080 --> 00:20:42,960 Dediklerine göre bu bilgilerle… 223 00:20:42,960 --> 00:20:46,800 ABD’deki her bir yetişkinin kişiliği konusunda tahminlerde bulunabiliyorlar. 224 00:20:47,480 --> 00:20:49,480 Bu akşam Cambridge Analytica’nın… 225 00:20:49,480 --> 00:20:51,560 sırlarını ifşa eden Christopher Wiley’yi dinliyoruz. 226 00:20:51,640 --> 00:20:55,000 Biz veri işleme programları üzerine çalışmıştık. 227 00:20:55,000 --> 00:20:59,200 Bu programlar verileri çekiyor, kişisel özellikleri ve diğer… 228 00:20:59,200 --> 00:21:01,920 psikolojik vasıfları belirleyen algoritmalarla bu verileri işliyor, 229 00:21:01,920 --> 00:21:06,000 böylece algoritmaların açığa çıkarttığı zihinsel açıkları istismar etme imkânı buluyorduk. 230 00:21:06,040 --> 00:21:10,600 AÇIKLIK DÜRÜSTLÜK DIŞADÖNÜKLÜK UYUMLULUK DUYGUSAL DENGESİZLİK 231 00:21:15,520 --> 00:21:17,440 Cambridge Analytica bir seferinde… 232 00:21:17,560 --> 00:21:20,440 kullandığı modellerin benim çalışmamı temel aldığını söylemişti, 233 00:21:22,520 --> 00:21:25,160 aslında şirket, seçmenleri yönlendirme amaçlı yöntemleri kullanan… 234 00:21:25,160 --> 00:21:30,080 yüzlerce şirketten sadece biriydi. 235 00:21:32,120 --> 00:21:35,760 Bana, gazeteciler Trump’ın seçilmesi veya… 236 00:21:35,760 --> 00:21:38,320 Brexit’in desteklenmesi konusunda 237 00:21:38,800 --> 00:21:42,000 neler düşündüğümü soruyorlar. 238 00:21:42,000 --> 00:21:43,960 Bu soruyu nasıl yanıtlarsın ki? 239 00:21:45,400 --> 00:21:51,760 Sanırım bu tür konular üzerinden suçlanma meselesiyle başa çıkmak zorundayım. 240 00:22:07,720 --> 00:22:11,240 Teknoloji başta iyi ve demokratikleştirici bir güç olarak yola çıktı... 241 00:22:12,360 --> 00:22:15,120 # Kara Swisher Teknoloji Muhabiri # ve herkesin… 242 00:22:15,120 --> 00:22:17,920 engelsiz ve denetimsiz temas kurmasını sağladı. 243 00:22:20,200 --> 00:22:25,120 İnsan ırkı için iletişim alanında bundan daha büyük bir deney yapılmamıştı. 244 00:22:26,320 --> 00:22:29,040 Herkes söz söyleme hakkına kavuşursa ne olur? 245 00:22:29,800 --> 00:22:31,800 Daha fazla demokrasi, 246 00:22:31,840 --> 00:22:34,520 tartışma, hoşgörü olacağını… 247 00:22:34,560 --> 00:22:37,680 varsaysanız da… 248 00:22:37,680 --> 00:22:39,760 bunların hepsini birileri gasp etmiştir. 249 00:22:41,320 --> 00:22:43,880 Biz, herkesi birbirine bağlamadan yanayız. 250 00:22:44,960 --> 00:22:46,640 Dünya toplumu için bu gerekli. 251 00:22:47,800 --> 00:22:50,520 Bugün birçok insanın iletişim kurmasını… 252 00:22:50,520 --> 00:22:53,560 Facebook denilen tek bir şirket sağlıyor. 253 00:22:55,640 --> 00:22:57,360 Aynı şeyi Google için de söyleyebiliriz. 254 00:22:57,360 --> 00:23:00,560 # Sergey Brin Google Kurucularından # Dünya hakkında bilmek istediğiniz her şeyin kaynağı onlar. 255 00:23:01,560 --> 00:23:05,040 Bu küresel enformasyon ekonomisini... 256 00:23:05,120 --> 00:23:07,840 küçük bir grup insan kontrol ediyor. 257 00:23:14,400 --> 00:23:17,920 Tüm teknoloji şirketleri, dünyanın en zenginleri. 258 00:23:18,760 --> 00:23:24,480 Google, Apple, Microsoft, Amazon, Facebook. 259 00:23:26,320 --> 00:23:29,040 # Yobie Benjamin Melek Yatırımcı # On yıl içinde şirketlere ait güç yapısının tamamının… 260 00:23:29,040 --> 00:23:31,760 elektron takas etme işine… 261 00:23:31,760 --> 00:23:34,800 girmiş olması… 262 00:23:34,800 --> 00:23:39,440 gerçekten şaşırtıcı. 263 00:23:41,240 --> 00:23:47,080 Yeni para birimi, artık bu küçük bitler ve baytlar. 264 00:23:53,560 --> 00:23:55,800 Biz görmesek bile… 265 00:23:55,800 --> 00:23:58,840 veriler her yanda parasallaşıyor 266 00:24:00,960 --> 00:24:04,280 Google’ın elinde her türden bilgi var. 267 00:24:04,280 --> 00:24:07,120 İnsanları GPS konumu üzerinden takip ediyorlar. 268 00:24:07,120 --> 00:24:10,080 # Lee Fang Gazeteci, Intercept # Arama geçmişini eksiksiz biliyorlar. 269 00:24:10,080 --> 00:24:12,840 Politik tercihlerinizden haberdarlar. 270 00:24:12,840 --> 00:24:14,840 Cinsel tercihlerden sağlık sorunlarına kadar her şeyi… 271 00:24:14,840 --> 00:24:17,560 sadece arama geçmişinizden… 272 00:24:17,560 --> 00:24:19,480 öğrenmek mümkün. 273 00:24:19,480 --> 00:24:21,880 Dolayısıyla Google’ın eli kolu her yana ulaşabiliyor. 274 00:24:28,760 --> 00:24:31,640 Bu sayede Google ve Facebook… 275 00:24:31,640 --> 00:24:34,160 aynı zamanda birer reklâm simsarı olarak… 276 00:24:35,040 --> 00:24:38,200 büyük birer gözetleme makinesi hâline geliyor. 277 00:24:38,200 --> 00:24:42,040 Bu, herkese sıradan geliyor ama aslında bunlar yüksek teknolojili reklâm simsarları. 278 00:24:42,920 --> 00:24:46,080 Çok kâr ediyorlar, çünkü yapay zekâ kullanarak… 279 00:24:46,080 --> 00:24:49,760 bizimle ilgili tüm verileri işliyorlar ve… 280 00:24:51,560 --> 00:24:54,680 mesajları ne olursa olsun, bize ulaşmak isteyen reklâmcılarla… 281 00:24:54,680 --> 00:24:59,680 bizi bir araya getiriyorlar. 282 00:25:03,000 --> 00:25:07,880 Teknolojinin sorunlarından biri de bağımlılık yapması. 283 00:25:07,880 --> 00:25:09,920 Bu şirketler, her şeyi sizi kendilerine… 284 00:25:09,920 --> 00:25:12,040 bağlayıp kullanacak şekilde tasarlıyorlar. 285 00:25:13,200 --> 00:25:16,840 Esasen dikkatlerinizle beslenen bir makine olmak istiyorlar. 286 00:25:18,600 --> 00:25:21,760 Böylece dikkatiniz hiç dağılmıyor, matrise teslim oluyorsunuz, 287 00:25:21,760 --> 00:25:23,520 her daim gözünüz orada. 288 00:25:26,600 --> 00:25:30,480 Okuduklarınızı kontrol edenler, düşüncelerinizi de kontrol ediyor. 289 00:25:32,200 --> 00:25:34,520 Daha önce görüp beğendiklerinize daha fazla maruz kalıyorsunuz, 290 00:25:34,600 --> 00:25:37,880 bu sayede trafik hızlanıyor, daha fazla reklâm geliyor, 291 00:25:39,320 --> 00:25:43,160 # Silvija Seres Matematikçi # ama bir yandan da bir yankı odasına kilitleniyorsunuz. 292 00:25:43,160 --> 00:25:46,360 Bu da günümüzde tanık olduğumuz kutuplaşmaya sebep oluyor. 293 00:25:46,480 --> 00:25:49,320 Rio De Janeiro, Brezilya 294 00:25:49,960 --> 00:25:52,600 Bazen Trump’a benzetilen, 295 00:25:52,600 --> 00:25:56,000 Brezilya’nın sağcı popülist adayı Jair Bolsonaro, 296 00:25:56,000 --> 00:25:58,640 Pazar günü yapılan, ülkesinde son otuz yıllık dönemde… 297 00:25:58,640 --> 00:26:01,840 kutuplaşmanın en yoğun olduğu seçimi kazandı. 298 00:26:01,840 --> 00:26:02,840 - Bolsonaro! 299 00:26:03,160 --> 00:26:05,160 Stockholm, İsveç 300 00:26:05,160 --> 00:26:09,000 Bugün dünya genelinde gitgide daha fazla… 301 00:26:09,000 --> 00:26:12,560 kutuplaşmaya ve çatışmaya tanık olunuyor. 302 00:26:12,560 --> 00:26:15,000 Birmingham, İngiltere 303 00:26:15,000 --> 00:26:19,080 Politik uçlar, grupçuluk, taraftarlık... 304 00:26:19,080 --> 00:26:22,200 böylece kendini iyi hissetme noktasında… 305 00:26:22,200 --> 00:26:24,680 algoritmalara başvuruluyor. 306 00:26:24,680 --> 00:26:27,240 Atina, Yunanistan 307 00:26:30,440 --> 00:26:33,160 Muhtemelen sosyal medya dünya genelinde… 308 00:26:33,160 --> 00:26:35,400 nefret suçlarına yönelik ilgiyi artırıyor. 309 00:26:35,480 --> 00:26:38,120 Artık mesele internetin ateşli ortamında… 310 00:26:38,120 --> 00:26:41,760 insanların nasıl radikalize edileceği. 311 00:26:41,760 --> 00:26:45,880 Bu teknoloji devleri için önemli bir an olabilir mi? 312 00:26:45,960 --> 00:26:48,840 Yayınladıkları şeyleri dünyayla paylaşanlar olarak bu işin sorumluluğunu alacaklar mı? 313 00:26:49,800 --> 00:26:52,760 Güçlü ve etkili bir teknolojiyi… 314 00:26:52,760 --> 00:26:56,680 eğer Google ve Facebook devreye sokuyorsa… 315 00:26:56,680 --> 00:26:59,400 o, muhtemelen milyarlara ulaşacaktır. 316 00:26:59,520 --> 00:27:02,760 Yapay zekâ kutuplaştırmayı hızlandırıyorsa… 317 00:27:02,760 --> 00:27:05,080 demek ki elinizde, dünyayı altüst edecek bir güç vardır. 318 00:27:05,720 --> 00:27:09,240 Beyazların hayatı önemlidir! 319 00:27:09,320 --> 00:27:13,640 Siyahların hayatı önemlidir! 320 00:28:00,640 --> 00:28:04,080 Yapay Genel Zekâ, YGZ. 321 00:28:06,360 --> 00:28:08,320 En akıllı arkadaşınızın… 322 00:28:09,600 --> 00:28:11,960 onun kadar akıllı bin arkadaşı olduğunu, 323 00:28:14,680 --> 00:28:17,600 onları bin kat daha hızlı çalıştırabildiğini varsayalım. 324 00:28:17,600 --> 00:28:19,960 Böylece her gün… 325 00:28:19,960 --> 00:28:22,520 üç yıllık düşünce üretecektir. 326 00:28:22,520 --> 00:28:25,520 Üç yılda yapacağınız işi… 327 00:28:26,600 --> 00:28:31,520 her gün yapabildiğinizi bir düşünsenize! 328 00:28:52,440 --> 00:28:55,720 Şunu söylemek haksız olmaz: 20. yüzyılın başında… 329 00:28:55,720 --> 00:28:59,800 kuantum fizikçilerinin ürettikleri düşüncelerden… 330 00:28:59,800 --> 00:29:02,520 daha fazla heyecan verici düşüncelere sahibiz bugün. 331 00:29:02,520 --> 00:29:04,240 Onlar nükleer gücü keşfetmişlerdi. 332 00:29:05,760 --> 00:29:08,400 Bence bu sürecin parçası olduğumuz için epey şanslıyız. 333 00:29:15,320 --> 00:29:18,840 Makine öğrenimi konusunda uzman olan, bilgili ve deneyimli birçok kişi… 334 00:29:18,840 --> 00:29:20,840 YGZ konusuna şüpheyle yaklaşıyor. YGZ’nin ne zaman oluşturulacağı, 335 00:29:22,360 --> 00:29:25,920 bunun mümkün olup olmadığı konusuna ilişkin sorular soruyor. 336 00:29:31,480 --> 00:29:35,760 Ama bugün birçok insan bir şeyi tam olarak anlayabilmiş değil henüz. 337 00:29:36,520 --> 00:29:41,080 YZ, nöral ağlar sayesinde… 338 00:29:41,240 --> 00:29:45,240 bilgisayarların ulaştığı hız… 339 00:29:45,240 --> 00:29:47,000 birkaç yıl içinde yüz bin kat artacak. 340 00:29:49,320 --> 00:29:52,080 Donanım endüstrisi, uzun zamandır… 341 00:29:52,120 --> 00:29:54,680 sırada ne olduğunu bilmiyordu, 342 00:29:55,680 --> 00:30:00,920 ama bugün kullanılan yapay nöral ağlar sayesinde… 343 00:30:00,920 --> 00:30:03,440 büyük bilgisayarlar yapılabilecek. 344 00:30:04,520 --> 00:30:06,920 Artık silikonun içine bir beyin yerleştirmek mümkün. 345 00:30:07,520 --> 00:30:10,520 Google Veri Merkezi 346 00:30:14,440 --> 00:30:18,720 İlk YGZ temelde paralelde çalışan, 347 00:30:18,720 --> 00:30:22,720 belirli bir uzmanlık alanı olan nöral ağ işlemcileriyle donatılmış… 348 00:30:22,840 --> 00:30:25,640 oldukça büyük veri merkezleri olacak. 349 00:30:28,080 --> 00:30:30,920 Kompakt, işleyen, güce aç bu paket… 350 00:30:32,160 --> 00:30:35,560 on milyon hanenin tükettiği enerjiyi tüketecek. 351 00:30:54,160 --> 00:30:55,600 Bir tane biftekli sandviç. 352 00:30:55,640 --> 00:30:58,280 Bugün küçük bir değişiklik yapayım dedim. 353 00:30:58,280 --> 00:30:59,520 Bugünlük sadece. 354 00:31:04,080 --> 00:31:06,280 İlk YGZ’ler bile insanlardan… 355 00:31:06,280 --> 00:31:09,080 çok daha fazla becerikli olacaklar. 356 00:31:10,960 --> 00:31:14,720 İnsanlar herhangi bir görev konusunda ekonomik açıdan faydalı olmaktan çıkacaklar. 357 00:31:16,200 --> 00:31:17,880 Madem elinizde o işi daha iyi ve daha ucuz yapan bir bilgisayar var, 358 00:31:17,880 --> 00:31:22,000 neden o işte bir insan çalıştırasınız ki? 359 00:31:28,920 --> 00:31:31,040 YGZ dünya tarihindeki… 360 00:31:31,880 --> 00:31:34,680 en önemli teknoloji olarak… 361 00:31:34,680 --> 00:31:36,640 kendi yerini bulacak. 362 00:31:39,400 --> 00:31:42,560 Elektrik, nükleer ve internet birleşse… 363 00:31:42,560 --> 00:31:44,160 onun boyunu aşamaz. 364 00:31:45,760 --> 00:31:47,640 Tüm beşeri bilimlerin, 365 00:31:47,640 --> 00:31:49,680 bilgisayar biliminin amacı, Son Oyun’dur, 366 00:31:49,680 --> 00:31:52,560 işte bu Son Oyun. 367 00:31:52,560 --> 00:31:54,040 İllaki inşa edilecek. 368 00:31:54,120 --> 00:31:56,000 Beraberinde yeni bir yaşam biçimi ortaya çıkacak. 369 00:31:56,000 --> 00:31:57,080 Böylelikle… 370 00:31:59,200 --> 00:32:00,760 biz demode hâle geleceğiz. 371 00:32:22,080 --> 00:32:24,520 Avrupalı imalatçılar Amerikalıların yoğun olarak… 372 00:32:24,520 --> 00:32:27,480 zaruri donanıma yatırım yaptıklarını biliyorlar. 373 00:32:27,480 --> 00:32:29,800 Güç, performans ve üretkenlik üzerine kurulu… 374 00:32:29,800 --> 00:32:31,640 yeni bir cesur dünyaya adım atılıyor. 375 00:32:32,360 --> 00:32:35,480 Büyük ekranda göreceğiniz… 376 00:32:35,480 --> 00:32:39,040 tüm görüntüleri, şu Macintosh üretecek. 377 00:32:39,760 --> 00:32:42,200 Windows 95 Geliştirme Ekibi’ni… 378 00:32:42,200 --> 00:32:44,680 size takdim etmek, benim için onurdur. 379 00:32:45,640 --> 00:32:49,040 İnsanın fiziksel emeği… 380 00:32:49,040 --> 00:32:50,640 yüzyıl içerisinde hükmünü yitirecek. 381 00:32:51,400 --> 00:32:55,160 Zihinsel emek de hızla demode hâle geliyor. 382 00:32:55,160 --> 00:32:58,840 # Stuart Russel Bilgisayar Bilimcisi # Bu sebeple birçok orta sınıf işi ortadan kayboluyor. 383 00:33:01,000 --> 00:33:02,320 Bazen devrimci bir ürün gelir… 384 00:33:02,360 --> 00:33:05,960 ve her şeyi değiştirir. 385 00:33:06,360 --> 00:33:09,200 Bugün Apple telefonu yeniden icat ediyor. 386 00:33:20,720 --> 00:33:24,280 Makine zekâsı, artık her yanda. 387 00:33:24,280 --> 00:33:27,640 Makinelerden daha iyi yaptığımız… 388 00:33:27,640 --> 00:33:29,640 işlerin listesi hızla kısalıyor. 389 00:33:35,720 --> 00:33:37,400 Şoförsüz otomobiller harika şeyler. 390 00:33:37,400 --> 00:33:40,000 Muhtemelen onlar sayesinde kaza sayısı azalacak. 391 00:33:40,000 --> 00:33:43,680 Ama bir yandan da ABD’de… 392 00:33:43,680 --> 00:33:46,440 on milyon kişi işlerini kaybedecek. 393 00:33:46,480 --> 00:33:50,000 Peki o işsiz on milyon insanı ne yapacaksınız? 394 00:33:54,920 --> 00:33:58,360 Eşitsizliklerin artması sonucu… 395 00:33:58,360 --> 00:34:01,800 # Salil Shetty Uluslararası Af Örgütü # toplumsal çatışma ve gerilim riski alabildiğine artıyor. 396 00:34:11,560 --> 00:34:13,880 Doğası gereği YGZ, tüm işleri… 397 00:34:13,880 --> 00:34:16,640 bizden daha iyi yapacak. 398 00:34:16,680 --> 00:34:18,600 “İnsanların makinelerden daha iyi yapacakları işler hep olacak” diyenler… 399 00:34:18,600 --> 00:34:21,120 bilime karşı bahse giriyorlar ve… 400 00:34:21,120 --> 00:34:24,200 YGZ’nin hiç varolmayacağını söylüyorlar. 401 00:34:30,880 --> 00:34:33,640 Bugün son sürat karanlık bir tünele giren bir trene tanıklık ediyoruz, 402 00:34:33,640 --> 00:34:37,880 anlaşılan o ki hep birlikte… 403 00:34:37,880 --> 00:34:39,680 o trenin tekeri üzerine yatmış uyuyoruz. 404 00:35:19,000 --> 00:35:24,400 Stanford Üniversitesi, ABD 405 00:35:29,160 --> 00:35:34,720 Ürettiğimiz dijital ayak izinin büyük bir kısmı, dijital görüntüler. 406 00:35:35,680 --> 00:35:39,320 Bir psikolog olarak beni asıl ilgilendiren konu ise… 407 00:35:39,360 --> 00:35:41,480 yüzlerimize ait dijital görüntüler. 408 00:35:44,520 --> 00:35:47,280 Ortalama bir eşcinselle heteronun… 409 00:35:47,280 --> 00:35:50,000 yüz hatları arasındaki farkını buradan görebilirsiniz. 410 00:35:50,120 --> 00:35:52,640 Gördüğünüz gibi hetero erkeklerin… 411 00:35:52,680 --> 00:35:55,400 Çeneleri biraz daha geniş. 412 00:35:55,680 --> 00:36:00,600 Lezbiyenlerin de heterolara kıyasla çeneleri biraz daha geniş. 413 00:36:02,520 --> 00:36:05,680 Bilgisayar algoritmaları yüzlerinizin resmi üzerinden… 414 00:36:05,680 --> 00:36:08,280 politik görüşlerinizi, cinsel yöneliminizi… 415 00:36:08,280 --> 00:36:11,120 veya zekânızı ortaya koyabiliyor. 416 00:36:12,080 --> 00:36:16,760 İnsan beyni bile hetero ile eşcinseli birbirinden ayırabiliyor. 417 00:36:16,920 --> 00:36:21,520 Ama artık bilgisayar daha doğru tespit ediyor. 418 00:36:21,680 --> 00:36:25,200 Burada gördüğünüz şey… 419 00:36:25,200 --> 00:36:29,400 kullanıma hazır bir yüz tanıma yazılımı. 420 00:36:29,400 --> 00:36:31,640 Bu, dünya genelinde eşcinseller için… 421 00:36:31,640 --> 00:36:34,320 korkunç bir haber aslında. 422 00:36:34,320 --> 00:36:35,680 Sadece eşcinseller de değil, 423 00:36:35,680 --> 00:36:38,320 çünkü aynı algoritma, özel vasıfları, 424 00:36:38,320 --> 00:36:42,360 muhalifleri, liberal veya ateistleri… 425 00:36:42,360 --> 00:36:45,120 tespit etmek için de kullanılabilir. 426 00:36:46,840 --> 00:36:50,080 Örneğin Suudi Arabistan’da… 427 00:36:50,080 --> 00:36:52,160 ateist olmanın cezası ölüm. 428 00:36:59,800 --> 00:37:04,240 Akademisyen olarak görevim, bize has özelliklerimizi açığa çıkartabilen… 429 00:37:04,440 --> 00:37:08,280 algoritamların tehlikeleri konusunda insanları uyarmak. 430 00:37:09,800 --> 00:37:14,080 Sorun şu ki insanlar kötü bir haber aldıklarında… 431 00:37:14,080 --> 00:37:16,280 çoğunlukla onu ciddiye almamayı tercih ederler. 432 00:37:17,800 --> 00:37:22,240 Her gün ölüm tehdidi almak ürkütücü… 433 00:37:22,240 --> 00:37:24,840 ki birkaç tehdit almışımdır bugüne dek, 434 00:37:25,920 --> 00:37:30,880 ama bilim insanı olarak ben, ihtimal dâhilinde olanı göstermek zorundayım. 435 00:37:33,600 --> 00:37:36,920 Dolayısıyla ben asıl, başkalarının özelliklerinin yüzlerine bakıp… 436 00:37:36,920 --> 00:37:41,120 tahmin edilip edilemeyeceği meselesiyle ilgileniyorum. 437 00:37:45,720 --> 00:37:49,880 Eğer yüze bakıp depresyonu, intihar eğilimini tespit edebiliyorsanız… 438 00:37:49,880 --> 00:37:53,600 tren istasyonlarına yerleştirilecek bir kapalı devre TV sistemi… 439 00:37:53,680 --> 00:37:56,520 birçok insanın hayatını kurtarabilir. 440 00:37:59,120 --> 00:38:03,840 Peki ya kimlerin suça meyilli olduğunu tahmin edebilseydik? 441 00:38:04,960 --> 00:38:07,160 Okulda rehberliğe gitmişsinizdir, 442 00:38:07,160 --> 00:38:10,400 orada bir psikolog çalıştırılır ve bu kişi çocukların belirli davranış sorunları… 443 00:38:10,400 --> 00:38:14,840 olup olmadığını tespit eder. 444 00:38:17,320 --> 00:38:20,080 Düşünsenize, 445 00:38:20,080 --> 00:38:22,600 Facebook’taki beğeniler, yüz ifadeleri, dil kullanımı üzerinden… 446 00:38:22,600 --> 00:38:24,800 suç işleme ihtimalini… 447 00:38:24,800 --> 00:38:27,600 doğru bir şekilde tahmin edebileceğimizi düşünün. 448 00:38:32,320 --> 00:38:35,120 Ben yöntemler geliştirmiyorum, 449 00:38:35,200 --> 00:38:38,880 sadece akademi ortamında bir şeyleri sınıyorum ya da tarif ediyorum. 450 00:38:40,600 --> 00:38:42,800 Bir yandan yeni teknolojilerin… 451 00:38:42,800 --> 00:38:47,800 riskleri konusunda uyarıda bulunmak… 452 00:38:47,960 --> 00:38:50,560 bir yandan da yeni fikirler sunmak mümkün. 453 00:39:11,160 --> 00:39:16,080 Henüz veri güdümlü toplumların gelecekte ne yöne doğru… 454 00:39:16,440 --> 00:39:21,400 # Philip Alston İnsan Hakları Avukatı # evrileceğini görmüş değiliz. 455 00:39:23,560 --> 00:39:26,640 Teknoloji şirketleri işlerini kolay kılmak adına, 456 00:39:26,720 --> 00:39:30,160 herkesten toplanan tüm bilgileri… 457 00:39:30,160 --> 00:39:31,680 elde etmek istiyorlar. 458 00:39:33,480 --> 00:39:36,840 Polis ve ordu aynı şeyi… 459 00:39:37,080 --> 00:39:39,440 güvenliği sağlamak adına yapıyor. 460 00:39:41,960 --> 00:39:46,440 İkisinin birçok ortak çıkarı var, 461 00:39:46,440 --> 00:39:51,120 bu sebeple işbirliğinin kapsamı genişliyor, 462 00:39:51,200 --> 00:39:56,800 Askeri Teknoloji Kompleksi denilen şey giderek büyüyor. 463 00:40:00,400 --> 00:40:03,000 CIA’in Silikon Vadisi ile… 464 00:40:03,000 --> 00:40:06,120 uzun zamandır sıkı bir ilişkisi var. 465 00:40:07,120 --> 00:40:10,280 Birlikte kurdukları girişim şirketi In-Q-Tel, 466 00:40:10,280 --> 00:40:13,880 CIA’in kullanmayı düşündüğü çığır açıcı teknolojileri geliştiren… 467 00:40:13,880 --> 00:40:17,520 yeni teknoloji şirketlerine yatırım yapıyor. 468 00:40:18,680 --> 00:40:22,120 Palantir denilen büyük veri analizi şirketi… 469 00:40:22,120 --> 00:40:25,120 In-Q-Tel’in yatırım yaptığı şirketlerden biri. 470 00:40:28,960 --> 00:40:31,800 In-Q-Tel, Palantir sayesinde köşeyi döndü. 471 00:40:31,800 --> 00:40:36,000 Şirket, devletin bile rekabet edemediği zekâya ve yapay zekâ becerilerine sahip… 472 00:40:36,000 --> 00:40:40,760 bir satıcı firmanın kurulmasına… 473 00:40:40,840 --> 00:40:44,440 # Spencer Woodman Araştırmacı Gazeteci # katkıda bulundu. 474 00:40:46,360 --> 00:40:48,720 İyi akşamlar, ben Peter Thiel. 475 00:40:49,720 --> 00:40:54,200 Ne siyasetçiyim ne de Trump. 476 00:40:54,200 --> 00:40:58,600 Trump bir kurucu ve bugün Amerika’yı yeniden kurmanın vaktidir. 477 00:41:01,280 --> 00:41:03,960 Palantir’in kurucusu Peter Thiel, 478 00:41:03,960 --> 00:41:06,600 Trump’ın geçiş süreci danışmanı, 479 00:41:06,680 --> 00:41:09,200 ayrıca yakın arkadaşı ve bağışçısı. 480 00:41:11,080 --> 00:41:13,480 Trump, milyonlarca göçmeni… 481 00:41:13,680 --> 00:41:17,560 sınır dışı etme vaadiyle seçildi. 482 00:41:17,560 --> 00:41:22,240 Bunu da ancak istihbaratla yapabilirsiniz, 483 00:41:22,240 --> 00:41:25,000 Palantir de zaten bu noktada devreye giriyor. 484 00:41:28,680 --> 00:41:33,360 Yaşadığınız yer, 485 00:41:33,360 --> 00:41:37,200 işiniz, bildikleriniz, komşularınız, 486 00:41:37,360 --> 00:41:40,920 aileniz, ziyaret ettiğiniz yerler, 487 00:41:40,920 --> 00:41:44,480 kaldığınız yerler, sosyal medya profilinizle… 488 00:41:44,480 --> 00:41:46,320 ilgili tüm verilere erişiyorlar. 489 00:41:49,240 --> 00:41:53,240 Palantir bu verileri alıyor, emniyete, göçmenlik dairesine, 490 00:41:53,240 --> 00:41:58,240 istihbarat kurumlarına, sizi takip etmeleri, 491 00:41:58,480 --> 00:42:02,360 bulmaları, sizinle ilgili her şeyi öğrenmeleri konusunda… 492 00:42:02,440 --> 00:42:06,200 yardımcı olacak şekilde… 493 00:42:06,200 --> 00:42:09,560 yapılandırıyor. 494 00:42:48,440 --> 00:42:51,040 Biz, insanların hayatını etkileyen ve her daim… 495 00:42:51,040 --> 00:42:53,880 önemli olan kararları alma noktasında YZ’den yararlanıyoruz. 496 00:42:54,800 --> 00:42:58,040 Eski YZ, insanların nasıl işlediğini bildiği, 497 00:42:58,040 --> 00:43:01,400 kendisine ait bir zekâya sahipti, ama bugün… 498 00:43:01,440 --> 00:43:04,000 güçlü YZ sistemleri kendileri için öğreniyorlar, 499 00:43:04,080 --> 00:43:07,480 kimse nasıl çalıştıklarını bilmiyor… 500 00:43:07,480 --> 00:43:09,680 ki bu da onlara güvenilmesini iyice güçleştiriyor. 501 00:43:14,280 --> 00:43:17,840 Burada fütüristik teknolojiden değil, bugünün ta kendisinden söz ediyoruz. 502 00:43:19,480 --> 00:43:23,120 YZ, itfaiye binasının veya bir okulun nereye inşa edileceğini… 503 00:43:23,200 --> 00:43:25,880 belirlemenize yardımcı olabilir. 504 00:43:25,920 --> 00:43:28,400 Kefaletle serbest bırakılıp bırakılmayacağınıza, 505 00:43:28,400 --> 00:43:30,640 hapiste kalıp kalmayacağınıza o karar verebilir. 506 00:43:30,680 --> 00:43:32,920 Polisin nerede olacağını da o söyleyebilir. 507 00:43:32,920 --> 00:43:37,120 # Ben Wizner Amerika Temel Haklar Birliği # Hakkınızda ek gözetim süresi verilip verilmeyeceğine de karar verebilir. 508 00:43:43,360 --> 00:43:46,160 Bugün ABD’de tahminlere dayalı polislik, yaygın görülen bir pratik. 509 00:43:47,000 --> 00:43:50,920 Algoritma kullanarak suçun nerede işleneceğini belirliyorlar, 510 00:43:51,760 --> 00:43:55,240 buradan da memurların nerelere gönderileceğini söylüyorlar. 511 00:43:56,440 --> 00:43:59,440 Burada suç oranına ilişkin ölçümler kullanılıyor. 512 00:44:00,640 --> 00:44:02,680 Bu noktada belirgin bir önyargının devrede olduğunu biliyoruz. 513 00:44:02,800 --> 00:44:05,080 Siyahlar ve Hispaniklerin araçları beyazlara kıyasla daha fazla kenara çekiliyor, 514 00:44:05,080 --> 00:44:07,160 sık sık polis tarafından durduruluyor, 515 00:44:07,200 --> 00:44:09,840 bu önyargılı veriler üzerinden… 516 00:44:09,840 --> 00:44:11,840 oturup... 517 00:44:11,840 --> 00:44:13,600 “polisler şuraya gitsin” diyoruz. 518 00:44:13,640 --> 00:44:17,320 Polisler o mahallelere gidiyor ve oradaki insanları gözaltına alıyorlar. 519 00:44:17,680 --> 00:44:21,160 Sistemdeki önyargılı verilere yenileri ekleniyor. 520 00:44:21,160 --> 00:44:23,080 Buna “geri bildirim döngüsü” deniliyor. 521 00:44:36,000 --> 00:44:40,680 Tahmine dayalı polislik uç noktalara varıyor ve… 522 00:44:41,600 --> 00:44:45,920 “bana bebeğini göster… 523 00:44:45,920 --> 00:44:48,880 suç işleyip işlemeyeceğini sana söyleyeyim” noktasına ulaşıyor. 524 00:44:51,320 --> 00:44:55,800 Bugün tahminde bulunuyoruz, o çocukları yakın takibe alıyoruz, 525 00:44:55,800 --> 00:45:01,120 sonra sorun çıkartacağına dair ilk işareti verdiğinde… 526 00:45:01,120 --> 00:45:03,720 üzerine atlıyoruz. 527 00:45:03,720 --> 00:45:06,720 Bu da polislik faaliyetini daha da etkili kılıyor. 528 00:45:07,000 --> 00:45:11,240 Ama aynı zamanda toplumu gaddarlaştırıyor ve… 529 00:45:11,240 --> 00:45:16,240 mevcut adaletsizlikleri perçinliyor. 530 00:45:22,960 --> 00:45:27,800 Sabit kamera ve dron gözetleme kameralarından oluşan ağın… 531 00:45:27,800 --> 00:45:30,920 yüz tanıma teknolojileri açısından geliştiğini ve… 532 00:45:30,920 --> 00:45:34,440 devletin diğer gözetleme altyapısına… 533 00:45:34,440 --> 00:45:37,040 bağlandığını bir düşünsenize. 534 00:45:38,080 --> 00:45:41,200 Gelecekte teknoloji… 535 00:45:41,200 --> 00:45:45,720 tüm hareketlerimizi kapsamlı bir biçimde izleyip kaydedecek. 536 00:45:47,680 --> 00:45:50,320 Bu, aynı zamanda şu anlama geliyor: 537 00:45:50,320 --> 00:45:52,920 İleride devletlerin ve güçlü şirketlerin… 538 00:45:52,960 --> 00:45:56,640 hayatlarımızı geriye sarıp izlemelerini sağlayacak, 539 00:45:56,640 --> 00:45:58,720 gözetleme amaçlı bir zaman makinesi yapılmış olunacak. 540 00:45:58,720 --> 00:46:01,800 Şimdilik şüphe edilecek bir şey yok, 541 00:46:01,800 --> 00:46:03,880 ama beş yıl sonra onlar… 542 00:46:03,880 --> 00:46:08,120 bizim hakkımızda daha fazla bilgi sahibi olmak isteyecekler. 543 00:46:08,120 --> 00:46:10,280 Yaptığımız, gördüğümüz her şeyi, 544 00:46:10,280 --> 00:46:13,080 tanıdığımız herkesi bilmek isteyecekler. 545 00:46:14,440 --> 00:46:17,000 Ulusal Güvenlik Kurumu, New York 546 00:46:17,000 --> 00:46:19,320 Bu, başkalarına terk edilmeyecek denli… 547 00:46:19,320 --> 00:46:21,680 büyük miktarlarda güç demek. 548 00:46:22,920 --> 00:46:25,280 Böylesi bir dünyayı bugünden hayal etmek güç gelse de… 549 00:46:25,360 --> 00:46:29,160 bunu mümkün kılacak mimari yapıyı… 550 00:46:29,200 --> 00:46:31,680 çoktan inşa ettiğimizi söylemem gerek. 551 00:46:49,000 --> 00:46:52,000 Yapay Zekayı Seviyorum 552 00:46:53,200 --> 00:46:55,240 Yapay Zeka Sizin İçin Çalışsın 553 00:46:56,000 --> 00:46:59,000 Watson ile Buradan İletişime Geçin 554 00:47:07,160 --> 00:47:10,160 Politika muhabiriyim ve güçlü sektörlerin politik güçlerini… 555 00:47:10,280 --> 00:47:14,680 kamu politikası süreçlerini etkileme noktasında… 556 00:47:14,680 --> 00:47:17,200 nasıl kullandıkları meselesiyle epey ilgiliyim. 557 00:47:21,000 --> 00:47:24,320 Büyük teknoloji şirketleri ve lobileri kapalı kapılar ardında… 558 00:47:24,440 --> 00:47:27,480 bir araya geliyorlar ve… 559 00:47:27,520 --> 00:47:29,320 yaşamımıza etki eden siyasetleri oluşturuyorlar. 560 00:47:30,800 --> 00:47:35,800 Bu, gözetleme politikaları kadar veri toplama ile ilgili politikalar için de geçerli, 561 00:47:35,800 --> 00:47:40,560 ayrıca ordu ve dış politika da bu sürece dâhil oluyor. 562 00:47:43,920 --> 00:47:50,200 2016’da Savunma Bakanlığı Savunma İnovasyon Kurulu oluşturdu. 563 00:47:50,240 --> 00:47:53,840 Bu özel kurulun amacı… 564 00:47:54,000 --> 00:47:56,400 teknoloji şirketlerinin üst düzey yöneticilerini orduyla bir araya getirmek. 565 00:47:59,160 --> 00:48:03,400 Google’ın sahibi olan Alphabet şirketinin eski başkanı Eric Schmidt, 566 00:48:03,400 --> 00:48:07,040 Savunma İnovasyon Kurulu’nun başkanı oldu, 567 00:48:07,240 --> 00:48:09,920 Kurulun ilk önceliklerinden biri… 568 00:48:09,920 --> 00:48:13,840 “orduya daha fazla yapay zekânın dâhil edilmesini sağlamak”. 569 00:48:15,920 --> 00:48:19,200 Son iki yıldır bir gönüllü grubuyla çalıştım. 570 00:48:19,200 --> 00:48:22,160 Grubun amacı, ordu için yenilikler ortaya koymaktı, 571 00:48:22,160 --> 00:48:26,800 gördüm ki birçok muhteşem insan… 572 00:48:26,800 --> 00:48:30,480 kötü bir sistemin tuzağına düşmüştü. 573 00:48:33,280 --> 00:48:37,480 Savunma Bakanlığı’nın gözüyle baktıkça insansız sistemleri düşünmeye, 574 00:48:37,720 --> 00:48:41,000 #Robert Work Eski Savunma Bakanlığı Müsteşarı # robotik ve insansız sistemlerin… 575 00:48:41,000 --> 00:48:46,000 savaş konseptini nasıl değiştireceğiyle ilgilenmeye başladım. 576 00:48:46,160 --> 00:48:50,320 İnsansız sistemleri ve robotları daha akıllı kıldıkça… 577 00:48:50,320 --> 00:48:53,560 ordunuzu da daha güçlü kılabiliyorsunuz. 578 00:48:55,560 --> 00:48:59,520 Savunma Bakanlığı’nda Robert Work… 579 00:48:59,520 --> 00:49:02,440 Ehil Projesi olarak da bilinen… 580 00:49:02,440 --> 00:49:05,560 İşlevlerarası Algoritmik Savaş Ekibi olarak anılan bildiriyi kaleme aldı. 581 00:49:07,840 --> 00:49:10,760 Eric Schmidt bir dizi konuşma yaptı, röportajlar verdi. Buralarda… 582 00:49:10,760 --> 00:49:14,320 bu çabanın amacının Hava Kuvvetleri’nin verimliliğini artırmak, lojistikle… 583 00:49:14,320 --> 00:49:18,240 sürece katkı sunmak olduğunu söyledi ama… 584 00:49:18,240 --> 00:49:21,320 perde gerisinde başka bir çalışma yürütülmekteydi. 585 00:49:26,720 --> 00:49:29,760 2017 sonunda Ehil Projesi’nin parçası olarak… 586 00:49:29,760 --> 00:49:33,720 Eric Schmidt’in şirketi Google’a… 587 00:49:33,720 --> 00:49:36,120 el altından, projenin diğer kısmı üzerine çalışma görevi verildi. 588 00:49:36,120 --> 00:49:41,200 Burada amaç, Irak ve Afganistan’da… 589 00:49:41,480 --> 00:49:46,280 kullanılan dronlardan yığınla görüntü almak… 590 00:49:46,320 --> 00:49:49,720 ve bir yapay zekâya savaş sahasında hedefleri hızla tanımlamayı öğretmekti. 591 00:49:52,600 --> 00:49:58,480 Elimizdeki sensör, tüm şehrin tam hareketli videosunu kayıt altına alabiliyor. 592 00:49:58,480 --> 00:50:01,480 Ayrıca yedişer kişilik üç ekip… 593 00:50:01,680 --> 00:50:06,360 sürekli çalışıyor ve bilgilerin yüzde 15’ini işliyor. 594 00:50:06,360 --> 00:50:09,880 Geri kalan bilgi, kurgu odasına gidiyor. 595 00:50:11,120 --> 00:50:14,040 Buradan şunu söylemek mümkün: 596 00:50:14,040 --> 00:50:17,800 “YZ ve makine öğrenimi, bilgilerin tamamını işlememize yardımcı olabilir.” 597 00:50:25,400 --> 00:50:28,600 Google’ın uzun zamandır mottosu, “Kötü biri olma.” 598 00:50:28,760 --> 00:50:30,640 Kamuoyu nezdinde… 599 00:50:30,640 --> 00:50:35,080 şeffaf olduklarına dair bir imaj oluşturmayı bilmişler. 600 00:50:35,080 --> 00:50:39,200 Ama Google, yavaş yavaş savunma bakanlığı için çalışan… 601 00:50:39,200 --> 00:50:41,720 bir yüklenici hâline geldikçe gizliliği koruma yoluna gidiyor. 602 00:50:41,720 --> 00:50:45,280 Google üstelik… 603 00:50:45,280 --> 00:50:49,040 kimsenin bilmediği programlar üzerine çalışan işverenlerle iş tutuyor. 604 00:51:01,840 --> 00:51:03,280 Genelde Google’da… 605 00:51:03,280 --> 00:51:07,160 # Tyler Breisacher Eski Google Çalışanı # herkesin şirketin başka bir kısmında yürütülen… 606 00:51:07,160 --> 00:51:09,840 bir proje hakkında bilgi almasına izin verilir. 607 00:51:11,200 --> 00:51:14,320 Bu Ehil Projesi ile birlikte her şey gizlenmeye başlandı. 608 00:51:14,320 --> 00:51:18,760 Bence şirkette pek görülmeyen böylesi bir durum, insanları endişeye sürükledi. 609 00:51:20,640 --> 00:51:22,960 Bu hikâye açığa çıkınca… 610 00:51:22,960 --> 00:51:25,560 çıkarttığı yangın tüm şirketi sardı. 611 00:51:25,560 --> 00:51:28,440 Tepkisini ortaya koymak için kimileri istifa etti, 612 00:51:28,440 --> 00:51:31,920 bazıları da bu çalışmaya itiraz eden bir dilekçeyi imzaya açtılar. 613 00:51:34,120 --> 00:51:37,680 “Artık bu işin parçası olmak istemiyorum” demelisiniz. 614 00:51:38,840 --> 00:51:41,760 Savunma bakanlığına iş yapan şirketler var elbette. 615 00:51:41,760 --> 00:51:45,840 Google o şirketlerden biri olmamalı. 616 00:51:45,840 --> 00:51:50,040 Çünkü insanlar Google’a güvenmeli ki Google çalışabilsin. 617 00:51:52,080 --> 00:51:55,720 Günaydın, Google I/O’ya hoş geldiniz. 618 00:51:57,320 --> 00:52:00,160 Google’ın çalışanlarını, dron hedef tespit programının sadece… 619 00:52:00,160 --> 00:52:03,360 9 milyon dolar değerinde olduğuna, 620 00:52:03,360 --> 00:52:06,760 Google gibi dev bir şirketin… 621 00:52:06,920 --> 00:52:10,720 dişinin kovuğunu doldurmayacağına dair… 622 00:52:11,160 --> 00:52:13,520 sözlerle yanlış yönlendirdiğine dair epostalara şahit olduk. 623 00:52:14,400 --> 00:52:17,320 Oysa şirket kaynaklı epostalardan anlaşıldığı kadarıyla… 624 00:52:17,320 --> 00:52:21,400 şirket, Ehil Projesi’nin 250 milyon dolar kazandıracağını düşünüyor, 625 00:52:21,520 --> 00:52:26,520 tüm bu çabanın Google’ın… 626 00:52:26,640 --> 00:52:29,920 10 milyar doları bulacak… 627 00:52:29,920 --> 00:52:32,680 daha büyük bakanlık ihalelerine kapı aralayacak onayı… 628 00:52:32,680 --> 00:52:35,000 almasını sağlayacağını umut ediyordu. 629 00:52:45,720 --> 00:52:49,760 Ordu ihaleleri için rekabet etmenin yarattığı basınç, esasen rakiplerin de… 630 00:52:49,760 --> 00:52:53,800 kendi alışkanlıklarını değiştirdiği bir dönemde gündeme gelmişti. 631 00:52:55,840 --> 00:53:00,080 Aynı şekilde Amazon da orduya ve polis teşkilâtına kur yapıyordu. 632 00:53:00,080 --> 00:53:02,280 IBM gibi önde gelen şirketler de… 633 00:53:02,280 --> 00:53:04,880 ordu ve emniyetle ilişki kurmaya çalışıyordu. 634 00:53:05,840 --> 00:53:09,440 Rekabet gücünü koruyabilmek için Google, kendisini yavaş yavaş dönüştürdü. 635 00:53:10,520 --> 00:53:14,520 Lockheed Martin Reklâmı 636 00:53:15,160 --> 00:53:18,920 Savunma Bakanlığı Bilim Kurulu… 637 00:53:18,920 --> 00:53:22,040 bugün yaşanan tüm teknolojik ilerlemeler içinde en önemli adımın… 638 00:53:22,160 --> 00:53:26,760 yapay zekâ ve onun öncülük ettiği… 639 00:53:26,800 --> 00:53:30,800 otonom operasyonlar olduğunu söylüyordu. 640 00:53:30,800 --> 00:53:32,600 Bu alanlara yeterince yatırım yapıyor muyuz, asıl soru bu. 641 00:53:37,800 --> 00:53:41,200 Otonom ölümcül silâhlar, kontrol dışı silâhlar geliştirirseniz, 642 00:53:41,240 --> 00:53:45,840 gerçekten otonom olan silâhlar üretirseniz… 643 00:53:45,840 --> 00:53:51,520 geçmişte bir başkanın dediği gibi, 644 00:53:51,520 --> 00:53:54,000 “uluslararası hukukun canı cehenneme, 645 00:53:54,000 --> 00:53:56,400 bu silâhlar bizim elimizde. 646 00:53:56,400 --> 00:53:58,560 Onlarla dilediğimiz şeyi yaparız” dersiniz. 647 00:54:02,560 --> 00:54:03,920 O günlere artık çok yakınız. 648 00:54:03,960 --> 00:54:06,360 Elinizde zaten belirli bir donanım varsa ve… 649 00:54:06,360 --> 00:54:10,240 tek yapmanız gereken, onu tümüyle otonom kılacak düğmeye basmaksa… 650 00:54:10,360 --> 00:54:13,240 bunu yapmanıza ne mani olabilir ki? 651 00:54:14,680 --> 00:54:19,080 Savaş mekanizmasının ulaştığı hız gerçekten de korkulacak düzeyde. 652 00:54:19,880 --> 00:54:24,360 # Liz O’Sullivan Ehil Projesi Muhbiri # Peki ya siz makine iseniz, 653 00:54:24,360 --> 00:54:28,040 milyonlarca farklı senaryoyu uyguluyorsanız ve elinizdeki dronların yarısını… 654 00:54:28,080 --> 00:54:30,800 kontrol ediyorsanız ve aynı anda işbirliği içinde hareket ediyorsanız? 655 00:54:30,800 --> 00:54:35,600 O dron sürüsünün görevi bir şehre saldırmaksa ne olur? 656 00:54:37,480 --> 00:54:39,880 O şehri nasıl ele geçirirler? 657 00:54:39,880 --> 00:54:42,760 Sorunun cevabını bu yaşanana dek bilemeyeceğiz. 658 00:54:50,040 --> 00:54:53,920 Bir YZ sisteminin kime saldırılacağına… 659 00:54:53,920 --> 00:54:56,200 karar vermesini istemiyoruz, 660 00:54:56,200 --> 00:54:59,520 böylece otoriter rakiplerimize karşı gelmiş oluyoruz. 661 00:54:59,520 --> 00:55:02,360 Kanaatime göre otoriter bir rejim, 662 00:55:02,440 --> 00:55:05,720 ölümle sonuçlanacak kararlar alma konusunda… 663 00:55:05,720 --> 00:55:08,480 bir makineye yetki vermekte hiçbir sorun yaşamayacaktır. 664 00:55:09,400 --> 00:55:12,640 Dolayısıyla yaşayıp göreceğiz olan biteni. 665 00:55:37,280 --> 00:55:41,040 YZ sayesinde bugün hep birlikte… 666 00:55:41,040 --> 00:55:44,320 en temel düzeyde, 667 00:55:44,400 --> 00:55:46,320 insan olmanın anlamını düşünmek zorunda kalıyoruz. 668 00:55:48,640 --> 00:55:50,520 Bugün insan olarak süper akıllı bir makinenin… 669 00:55:50,520 --> 00:55:53,000 yapabildiklerinden daha iyi neleri yapabiliyorum? 670 00:55:56,320 --> 00:56:00,800 Önce kendi teknolojimizi yaratıyoruz, ardından da o bizi yeniden yaratıyor. 671 00:56:01,000 --> 00:56:05,640 Bizim bizi güzel insan kılan şeylerin bir kısmının… 672 00:56:05,640 --> 00:56:07,520 elimizden kayıp gitmediğinden emin olmamız gerekiyor. 673 00:56:11,840 --> 00:56:14,400 Zeki makineler yapınca… 674 00:56:14,400 --> 00:56:16,720 insan oluşumuzu tefekkür etmemize yarayan… 675 00:56:16,920 --> 00:56:20,680 felsefi dağarcık bize yetmemeye başladı. 676 00:56:23,000 --> 00:56:25,960 # Tobias Rees Felsefeci, Berggruen Enstitüsü # Kendi insanlığınızı tarif etmede kullandığınız terimleri… 677 00:56:25,960 --> 00:56:28,960 listelemenizi istesem… 678 00:56:28,960 --> 00:56:31,120 elinizde çok fazla terim olmadığını görürsünüz. 679 00:56:31,120 --> 00:56:38,160 Kültür, tarih, toplumsallık, belki siyaset, medeniyet, 680 00:56:38,840 --> 00:56:45,120 Öznellik… tüm bu terimler… 681 00:56:45,680 --> 00:56:48,040 insanın sadece hayvan olmadığı, 682 00:56:49,000 --> 00:56:52,200 makineden fazlası olduğuna dair önermeleri temel alırlar. 683 00:56:55,160 --> 00:56:59,080 Eğer makineler gerçekten düşünürlerse… 684 00:56:59,280 --> 00:57:03,520 o zaman zihinlere şu türden felsefi sorular üşüşür: 685 00:57:04,880 --> 00:57:09,080 Biz kimiz? Dünyadaki yerimiz nedir? Dünya nedir? Nasıl bir yapıya sahiptir? 686 00:57:09,080 --> 00:57:12,200 Elimizdeki kategoriler güvenilir mi? 687 00:57:12,200 --> 00:57:14,520 Hâlâ işe yarıyorlar mı? Eskiden de mi yanlışlardı? 688 00:57:19,520 --> 00:57:22,240 Birçok insan zekâyı sadece bizim gibi biyolojik organizmalarda varolabilen… 689 00:57:22,240 --> 00:57:26,200 gizemli bir şey sanıyor, oysa… 690 00:57:26,200 --> 00:57:29,280 zekâ, bilgileri işleme meselesinden başka bir şey değil. 691 00:57:30,280 --> 00:57:32,240 Zekânın hücre ve beyindeki karbon atomlarıyla mı yoksa… 692 00:57:32,240 --> 00:57:35,960 bilgisayarlardaki… 693 00:57:35,960 --> 00:57:38,040 silikon atomlarıyla mı işlendiğinin bir önemi yok. 694 00:57:38,160 --> 00:57:41,520 Beyinden İlham Alan Zekâ Araştırmaları Merkezi Çin Bilimler Akademisi Otomasyon Enstitüsü 695 00:57:41,520 --> 00:57:44,000 Yapay zekâ kısmen… 696 00:57:44,000 --> 00:57:47,560 evrim sürecinin ürettiği büyük fikirleri kullanabildiği için başarılı. 697 00:57:47,560 --> 00:57:49,240 Örneğin gördük ki beynin içindeki… 698 00:57:49,320 --> 00:57:52,920 tüm nöronlar, karmaşık yollardan birbiriyle bağlantılı. 699 00:57:52,920 --> 00:57:55,680 Biz bu fikri aldık, 700 00:57:55,680 --> 00:57:58,360 bilgisayarlardaki yapay nöral ağlara aktardık, 701 00:57:59,320 --> 00:58:02,800 makine zekâsı meselesini bu şekilde devrimcileştirdik. 702 00:58:07,680 --> 00:58:10,280 Eğer bir gün Yapay Genel Zekâ’ya kavuşursak, 703 00:58:10,320 --> 00:58:14,080 YZ yapay zekâ programlama işini daha iyi yapar, 704 00:58:14,320 --> 00:58:18,920 böylece YZ alanındaki ilerleme sürecine… 705 00:58:18,920 --> 00:58:22,960 programcı insanlar değil bizzat YZ hâkim olur. 706 00:58:25,440 --> 00:58:29,080 Kendi kendisini geliştiren YZ insan zekâsını geride bırakır… 707 00:58:29,080 --> 00:58:33,000 ve süper zekânın oluşmasını sağlar. 708 00:58:34,960 --> 00:58:37,960 Bu da bizim ürettiğimiz son inovasyon olur, 709 00:58:37,960 --> 00:58:40,520 çünkü o icat edilecek her şeyi… 710 00:58:40,520 --> 00:58:42,000 çok daha hızlı icat eder. 711 00:59:54,040 --> 00:59:59,040 Gelecek hakkında konuşmak zorundayız. 712 00:59:59,120 --> 01:00:02,440 Yapay zekâlı geleceği sadece insanlığın nereye gittiği değil… 713 01:00:02,440 --> 01:00:06,280 ayrıca o geleceğe gitmek toplum için ne anlam ifade ediyor… 714 01:00:06,280 --> 01:00:09,640 soruları üzerinden sorgulamak gerekiyor. 715 01:00:10,920 --> 01:00:14,600 # Brad Smith Microsoft Başkanı # Mesele, bilgisayarların yapabildikleri değil… 716 01:00:14,640 --> 01:00:17,600 onların yapması gereken şeylerin ne olduğu. 717 01:00:17,600 --> 01:00:21,960 YZ’yi geleceğe taşıyan kuşağın parçası olarak… 718 01:00:22,200 --> 01:00:27,680 biz öncelikle bu soruya cevap bulmalıyız. 719 01:00:34,560 --> 01:00:37,360 İnsan gibi düşünen makineyi henüz yaratmadık ama… 720 01:00:37,400 --> 01:00:39,440 o ana giderek yaklaşıyoruz. 721 01:00:41,120 --> 01:00:44,800 Belki de beş yıl içinde YZ insan zekâsı seviyesine ulaşacak, 722 01:00:44,800 --> 01:00:47,440 belki de bu süreç, elli veya yüz yıl sürecek. 723 01:00:47,680 --> 01:00:51,560 Sürenin artık bir önemi kalmadı. Tüm insanlık tarihi dikkate alındığında… 724 01:00:51,560 --> 01:00:56,080 bu süre artık çok kısa. 725 01:01:01,200 --> 01:01:02,520 Çok güzel. 726 01:01:15,760 --> 01:01:19,360 YZ denilen saha fazlasıyla beynelmilel. 727 01:01:19,360 --> 01:01:23,800 Çin yükselişte, YZ öğrenimine katkı sunacak çokça veri toplama… 728 01:01:23,800 --> 01:01:26,960 ve YZ ardındaki işlem gücü açısından… 729 01:01:26,960 --> 01:01:29,640 ABD, Avrupa ve… 730 01:01:29,760 --> 01:01:33,120 Japonya ile yarışıyor. 731 01:01:35,960 --> 01:01:40,560 Genç bir Çinli araştırmacılar kuşağı var artık. 732 01:01:40,560 --> 01:01:43,920 Yeni devrimin nereden kaynaklanacağını kimse bilmiyor. 733 01:01:44,520 --> 01:01:48,160 Ne Düşünüyorsunuz? Çin, Silikon Vadisi’ni Ne Zaman Sollar? 734 01:01:50,120 --> 01:01:54,280 Çin, hep dünyanın süper gücü olmak istemiştir. 735 01:01:56,120 --> 01:01:59,400 Çin devleti, YZ’nin teknoloji ve iş dünyası sahasında… 736 01:01:59,400 --> 01:02:03,920 kendisini en ileri noktaya taşıyacağını düşünüyor. 737 01:02:04,200 --> 01:02:07,800 Bu nedenle devlet, YZ’yi muazzam bir fırsat olarak görüyor. 738 01:02:09,160 --> 01:02:13,680 # Zeng Liang Melek Yatırımcı # Elde bayrak öne çıkıp “bu saha güzel. 739 01:02:13,680 --> 01:02:16,320 Şirketler bu sahaya girmeli” diyor. 740 01:02:16,320 --> 01:02:18,320 Sonra ticaret dünyası ve şirketler de… 741 01:02:18,320 --> 01:02:20,680 “tamam devlet öne geçti. Bu bizim için hayırlı. 742 01:02:20,800 --> 01:02:22,520 Bu işe para yatıralım” diyorlar. 743 01:02:23,920 --> 01:02:28,000 Baidu, Tencent ve AliBaba gibi Çinli teknoloji devleri… 744 01:02:28,080 --> 01:02:31,800 YZ sahasına ciddi yatırımlar yapıyorlar. 745 01:02:33,400 --> 01:02:36,720 Çin’in YZ geliştirme çalışmalarındaki hızlı artışın sebebi bu. 746 01:02:43,440 --> 01:02:47,200 Çin’de herkesin Alipay ve WeChat gibi ödeme platformlarında bir hesabı var. 747 01:02:47,360 --> 01:02:49,480 Cep telefonuyla ödeme yaygınlaştı. 748 01:02:50,440 --> 01:02:53,520 Bu sayede harcama alışkanlıkları, kredi notu gibi konulara dair bilgiler… 749 01:02:53,520 --> 01:02:58,000 # Yixin Chen Yapay Zekâ Mühendisi # artık daha çok YZ üzerinden analiz ediliyor. 750 01:03:01,160 --> 01:03:06,120 Çin’deki havalimanlarında ve tren istasyonlarında… 751 01:03:06,120 --> 01:03:08,240 yüz tanıma teknolojisi yaygın olarak kullanılıyor. 752 01:03:09,040 --> 01:03:11,560 Gelecekte, belki de birkaç ay içinde… 753 01:03:11,560 --> 01:03:14,400 trene binmek için kâğıt bilet almak zorunda kalmayacaksınız. 754 01:03:14,800 --> 01:03:16,320 Sadece bir yüze sahip olmak kâfi gelecek! 755 01:03:24,640 --> 01:03:29,720 Dünyanın en büyük yüz tanıma platformunu üretiyoruz. 756 01:03:32,560 --> 01:03:37,320 Platformumuzu kullanan 300.000 geliştirici var. 757 01:03:38,320 --> 01:03:41,560 Birçok özçekim kamera applikasyonu mevcut. 758 01:03:41,560 --> 01:03:43,960 Bunlar, sizin daha güzel görünmenizi sağlıyor. 759 01:03:46,560 --> 01:03:49,800 Dünyada milyonlarca kamera var, 760 01:03:50,760 --> 01:03:54,880 bence bunların her biri birer veri üreticisi. 761 01:03:58,840 --> 01:04:02,600 Makine, sizin yüzünüzün özelliklerini ayrıştırıyor, 762 01:04:02,800 --> 01:04:06,640 sonra da yüzünüz bir kod paragrafına dönüşüyor. 763 01:04:07,720 --> 01:04:12,000 Böylelikle yaşınızı, cinsiyetinizi… 764 01:04:12,000 --> 01:04:13,480 ve duygularınızı tespit edebiliyoruz. 765 01:04:16,640 --> 01:04:20,120 Alışveriş, ne tür bir şey aradığınızla, neye baktığınızla ilgili bir mesele. 766 01:04:20,120 --> 01:04:25,360 Gözbebeklerinizi izliyoruz, bir ürüne odaklandığınızda… 767 01:04:25,640 --> 01:04:28,680 bu süreçte sizi takip ediyoruz ve 768 01:04:28,680 --> 01:04:32,120 ne tür insanlar ne tür ürünler seviyor sorusuna cevap bulabiliyoruz. 769 01:04:42,440 --> 01:04:45,800 Görevimiz, Çin’de milyonlarca YZ geliştiricinin çalışmasını sağlayacak… 770 01:04:45,960 --> 01:04:50,320 bir platform kurmak. 771 01:04:51,240 --> 01:04:58,040 Elde edebildiğimiz tüm verileri inceliyoruz. 772 01:05:00,440 --> 01:05:04,360 Sadece kullanıcı profillerini değil… 773 01:05:04,360 --> 01:05:08,400 şuan ne yaptığınızı, 774 01:05:09,480 --> 01:05:12,080 coğrafi konumunuzu da ele alıyoruz. 775 01:05:15,400 --> 01:05:21,840 Bu platform öyle değerli ki… 776 01:05:21,840 --> 01:05:27,680 kâr konusunda bir endişemiz yok çünkü kâr tam da orada. 777 01:05:29,680 --> 01:05:34,440 Çin’deki sosyal kredi sistemi bu türden aplikasyonlardan biri sadece. 778 01:05:46,000 --> 01:05:48,040 Çin devleti YZ, 779 01:05:48,040 --> 01:05:50,800 büyük veri platformları, yüz tanıma, 780 01:05:50,800 --> 01:05:53,640 ses tanıma gibi farklı teknoloji türlerini… 781 01:05:53,640 --> 01:05:57,040 halkının yaptıklarını… 782 01:05:57,040 --> 01:05:58,800 izlemek için kullanıyor. 783 01:06:01,880 --> 01:06:04,120 Bence Çin, elindeki verileri toplumsal mühendislik ürünü… 784 01:06:04,240 --> 01:06:09,240 muhalifsiz bir toplum kurmak için kullanmakla ilgili niyetini… 785 01:06:09,600 --> 01:06:13,320 açıktan beyan eden bir devlet. 786 01:06:16,040 --> 01:06:19,080 # Sophie Richardson İnsan Hakları Gözlemevi # Çin devletinin sosyal kredi sisteminin mantığı… 787 01:06:19,080 --> 01:06:23,200 şu düşünceye dayanıyor: 788 01:06:23,200 --> 01:06:27,680 Herkes kredi alacak kıymete sahip olmalıdır. 789 01:06:27,920 --> 01:06:31,840 Buna bir de politik boyut ekleniyor ve şu sorular soruluyor: 790 01:06:31,880 --> 01:06:34,280 “Güvenilir bir insan mısınız?” 791 01:06:36,520 --> 01:06:40,280 “İnternette ne söylediniz, devlet kurumlarını hiç eleştirdiniz mi?” 792 01:06:40,280 --> 01:06:42,840 “Sabıka kaydınız var mı?” 793 01:06:43,720 --> 01:06:47,360 Tüm bu bilgiler bir araya getiriliyor, 794 01:06:47,360 --> 01:06:51,840 devletin görüşüne göre insanların performansı bu bilgiler ışığında ölçülüyor, 795 01:06:51,840 --> 01:06:56,520 böylece gerekli notu alanlar hizmetlerden veya yardımlarından yararlanma imkânı buluyor. 796 01:06:57,800 --> 01:06:59,720 Ama iyi bir not alamazsanız, 797 01:06:59,720 --> 01:07:02,160 cezalandırılıyorsunuz veya belirli kısıtlamalara tabi tutuluyorsunuz. 798 01:07:05,960 --> 01:07:09,040 İnsanların bu tür etiketleme girişimlerine karşı çıkması imkânsız. 799 01:07:09,040 --> 01:07:12,120 Devlet hizmeti alma, 800 01:07:12,120 --> 01:07:18,000 uçağa binme, pasaport edinme, 801 01:07:18,000 --> 01:07:20,480 çocuğu okula yazdırma hakkına kavuştuğunda… 802 01:07:20,480 --> 01:07:23,600 etiketlendiğini anlıyor ve… 803 01:07:23,600 --> 01:07:27,560 bunun olumsuz sonuçları olduğunu görüyor. 804 01:07:44,960 --> 01:07:48,640 Son bir iki yılımızın büyük bir kısmını Çin genelinde gözetleme teknolojisinin… 805 01:07:48,680 --> 01:07:53,200 kötüye kullanım örneklerini inceleyerek geçirdik. 806 01:07:53,200 --> 01:07:56,040 Ülkenin kuzeybatısındaki, Türk Müslüman, Uygur, Kazak ve Hui halkından kişilerin… 807 01:07:57,600 --> 01:08:01,240 yarısından fazlasının yaşadığı… 808 01:08:01,240 --> 01:08:05,880 Sincan bölgesinde birçok çalışma yaptık. 809 01:08:08,440 --> 01:08:11,000 Çin devleti, bu bölgeyi ve halkını… 810 01:08:11,000 --> 01:08:14,920 politik açıdan şüpheli veya hain olarak görüyor. 811 01:08:17,600 --> 01:08:20,040 Bu süreçte… 812 01:08:20,160 --> 01:08:23,120 Entegre Ortak Operasyonlar Platformu konusunda kimi bilgiler elde ettik. 813 01:08:23,120 --> 01:08:27,200 Bu tahmine dayalı polislik programı… 814 01:08:27,200 --> 01:08:30,560 yeniden politik eğitimden geçirilmesi gereken insanların… 815 01:08:30,640 --> 01:08:33,560 bulunduğu listeler hazırlıyor. 816 01:08:39,080 --> 01:08:42,760 Rapor için görüşülen insanlar, Sincan’daki politik eğitim kamplarından söz ettiler. 817 01:08:42,760 --> 01:08:46,120 Bu açıklamalar, gözetleme devletine dair… 818 01:08:46,120 --> 01:08:50,400 sıra dışı bir resim sunmaktaydı. 819 01:08:53,480 --> 01:08:56,400 Bölge, yüz tarama amaçlı gözetleme kameralarıyla, 820 01:08:56,400 --> 01:09:00,400 kontrol noktalarıyla, vücut tarayıcılarıyla, 821 01:09:00,600 --> 01:09:04,040 evlerin dışına konulmuş QR kodlarıyla doluydu. 822 01:09:05,680 --> 01:09:10,480 Evet, gördüklerimiz distopya filmi gibiydi, o an… 823 01:09:10,680 --> 01:09:13,160 “Vay be, böylesi bir dünyada yaşamak gerçekten tüyler ürpertici” diye düşündük. 824 01:09:13,160 --> 01:09:16,520 Şuan Çin’de 13 milyon… 825 01:09:16,520 --> 01:09:19,160 Türk Müslüman yaşıyor. 826 01:09:30,840 --> 01:09:33,080 Intercept’in haberine göre Google… 827 01:09:33,080 --> 01:09:36,320 Çin’de kendi arama motorunun sansürlü hâlini kullanıma sokmaya hazırlanıyor. 828 01:09:36,480 --> 01:09:38,720 Pekin’deki sansür kurallarına rağmen, Google’ın yeni pazar arayışı… 829 01:09:38,720 --> 01:09:42,160 onun yolunu Çin’e düşürüyor. 830 01:09:42,160 --> 01:09:44,080 Sansür, baskı ve gözetleme konusundaki suç ortaklığından bahsettiniz. 831 01:09:44,080 --> 01:09:46,640 Bu yüzden istifa etmenin ahlaki sorumluluk olduğunu söylüyorsunuz. 832 01:09:46,640 --> 01:09:51,040 Bu konuda başka neler söyleyebilirsiniz? 833 01:09:51,080 --> 01:09:54,240 Çin’de faaliyet yürütmek için… 834 01:09:54,240 --> 01:09:56,240 Google adına Çin’de bir girişim şirketi kurulmak zorunda. 835 01:09:56,240 --> 01:09:58,920 Asıl soru şu: bu girişim şirketi, kara listeyi ne düzeyde kontrol edecek, 836 01:09:58,920 --> 01:10:01,960 gözetlenen Çinlilere ulaşma konusunda… 837 01:10:01,960 --> 01:10:05,200 ne düzeyde bir serbestliğe sahip olacak? 838 01:10:05,240 --> 01:10:07,480 Bence Google’ın bu konuda insan hakları örgütlerinin… 839 01:10:07,480 --> 01:10:12,040 sorularına cevap vermiyor oluşu herkesi fazlasıyla rahatsız etmeli. 840 01:10:16,640 --> 01:10:21,120 Demokrasilerin işleyişi konusunda muhalefet zaruridir. 841 01:10:21,120 --> 01:10:25,560 Böyle düşündüğüm için muhalifler üzerindeki koruma kalkanının zayıflamasından… 842 01:10:25,560 --> 01:10:27,520 nemalanmak veya bu sürece katkı sunmamak adına mecburen istifa ettim. 843 01:10:28,560 --> 01:10:30,920 Bugün BM… 844 01:10:30,920 --> 01:10:34,200 yeniden eğitim kamplarında… 845 01:10:34,200 --> 01:10:36,520 200.000 ilâ bir milyon arasında Uygur’un kaybolduğunu söylüyor. 846 01:10:36,520 --> 01:10:39,280 Google; Çin’de denetimli bir versiyonunu faaliyete geçirirse… 847 01:10:39,280 --> 01:10:42,440 suça ortak olacak gibi ciddi bir tartışma var. 848 01:10:45,080 --> 01:10:51,280 # Jack Poulson Google Muhbiri # Yusufçuk, Çin’deki mevzuatı araştıracak projenin adı. 849 01:10:51,400 --> 01:10:55,640 Bu çalışma sansürlenen içerikleri, 850 01:10:55,800 --> 01:10:59,520 insan haklarına ilişkin temel sorguları, 851 01:10:59,520 --> 01:11:03,080 politik temsilcilerle ilgili, engellenmiş bilgileri, 852 01:11:03,200 --> 01:11:07,080 öğrenci eylemlerine dair, engellenmiş bilgileri kapsıyor. 853 01:11:07,080 --> 01:11:09,200 Bu, işin küçük bir kısmı. 854 01:11:09,200 --> 01:11:12,280 Belki de asıl üzerinde durulması gereken konu, gözetleme meselesi. 855 01:11:16,080 --> 01:11:19,600 Müdürlerime ve arkadaşlarıma meseleyi aktardığımda, 856 01:11:19,600 --> 01:11:23,400 herkes endişelendi ama “ben bir şey bilmiyorum” demekle yetindi. 857 01:11:27,760 --> 01:11:30,200 Sonra son bir toplantı yaptık. 858 01:11:30,200 --> 01:11:35,080 Bu konuyla bağlantılı olan ciddi konuların hiçbirisi el alınmadı. 859 01:11:37,000 --> 01:11:39,800 Ben de istifamı müdüre sunmakla yetinmeyip… 860 01:11:39,800 --> 01:11:42,960 tüm şirkete dağıttım. 861 01:11:42,960 --> 01:11:45,440 Aktardıklarım o mektuptan. 862 01:11:50,360 --> 01:11:55,960 O süreçte gözüme uyku girmedi. Sürekli baş ağrısı çektim. 863 01:11:55,960 --> 01:11:58,520 Geceleri terleyerek uyandım. 864 01:12:00,640 --> 01:12:03,360 O mektupta söylediklerimle birlikte, 865 01:12:03,360 --> 01:12:07,960 konuştuğum günden beri dünya genelinde olumlu tepkiler aldım. 866 01:12:10,360 --> 01:12:13,920 Mühendisler, teknik katkılarının… 867 01:12:13,920 --> 01:12:16,280 nerede kullanıldıklarını bilmeli, 868 01:12:16,280 --> 01:12:19,360 ahlaki karar sürecine dahil olabilmeliler. 869 01:12:27,040 --> 01:12:29,600 Birçok yurttaş kurallara dayalı teknolojinin… 870 01:12:29,600 --> 01:12:32,280 ne anlama geldiğini pek idrak edemiyor. 871 01:12:33,720 --> 01:12:36,280 Herkes işi dilimliyor, 872 01:12:36,280 --> 01:12:38,320 sadece kendisine düşen payı biliyor, 873 01:12:38,320 --> 01:12:41,160 o payın bütün içinde nereye denk düştüğünü anlamıyor. 874 01:12:44,640 --> 01:12:51,040 Bu noktada akla fizikçilerin atom bombası ile ilgili çalışmaları gelmeli. 875 01:12:53,840 --> 01:12:56,600 Benim parçası olduğum cemaat de böyle. 876 01:12:59,240 --> 01:13:03,480 Nükleer bilimci değilim, uygulamalı matematikçiyim, 877 01:13:04,400 --> 01:13:09,400 doktora programıma para, silâh laboratuvarlarında çalışacak insanları eğitmek için aktarıldı. 878 01:13:12,960 --> 01:13:17,080 Ortada varoluşsal bir tehdit söz konusu. 879 01:13:17,840 --> 01:13:22,080 Yapay zekâya yön verenler, askeri alanda da öncülüğü elde edecek. 880 01:13:31,440 --> 01:13:34,080 Çin, en büyük ekonomi olan ABD’yi geçmeyi umut ediyor. 881 01:13:34,240 --> 01:13:37,480 Çin, yapay zekânın kendisine daha hızlı ve… 882 01:13:37,480 --> 01:13:42,440 daha büyük sıçrama imkânı sunacağına inanıyor. 883 01:13:43,880 --> 01:13:46,480 Ayrıca Çin, askeri güç açısından… 884 01:13:46,480 --> 01:13:49,840 ABD’yi geçebileceğini görüyor. 885 01:13:57,600 --> 01:13:59,640 Planları çok basit. 886 01:13:59,840 --> 01:14:03,640 2020’de ABD’yi yakalamak, bu teknolojilere kavuşmak, 887 01:14:03,640 --> 01:14:07,840 2025’te bu alanda ABD’yi geçmek, 888 01:14:07,920 --> 01:14:12,600 2030’da YZ ve otonom teknolojiler konusunda dünya lideri olmak istiyorlar. 889 01:14:15,120 --> 01:14:16,880 Ulusal planları bu şekilde. 890 01:14:16,880 --> 01:14:21,800 Plan, en az 150 milyar dolarlık bir yatırımla destekleniyor. 891 01:14:21,800 --> 01:14:25,080 Bunun bir yarış olduğu çok açık. 892 01:14:50,080 --> 01:14:52,080 YZ, tıpkı ateş gibi. 893 01:14:53,360 --> 01:14:56,280 Ateş, 700.000 yıl önce icat edildi. 894 01:14:57,480 --> 01:14:59,840 Olumlu ve olumsuz sonuçları oldu. 895 01:15:01,960 --> 01:15:06,800 Ateş, geceleri ısınmak veya yemek yapmak için kullanılabildiği gibi… 896 01:15:08,520 --> 01:15:14,440 insanları öldürmek için de kullanılabilir. 897 01:15:19,840 --> 01:15:24,280 Ateş de YZ gibi büyüyor. 898 01:15:24,320 --> 01:15:27,440 İnsanın müdahalesi olmadan çoğalıyor. 899 01:15:30,520 --> 01:15:35,960 Avantajları dezavantajlarından fazla oldukça… 900 01:15:35,960 --> 01:15:39,760 onu geliştirmeye devam ediyoruz. 901 01:15:49,560 --> 01:15:51,200 Avrupa uyanıyor. 902 01:15:52,160 --> 01:15:58,400 Avrupa’daki birçok şirket, yeni YZ dalgasının… 903 01:15:58,720 --> 01:16:01,520 mevcut dalgadan daha büyük olacağını görüyor. 904 01:16:03,320 --> 01:16:08,000 Yeni YZ dalgası, robotlarla ilgili. 905 01:16:09,800 --> 01:16:15,440 Her şeyi üreten makineler, 906 01:16:15,440 --> 01:16:19,360 başka makineleri üreten makineler daha da akıllı hâle gelecekler. 907 01:16:26,680 --> 01:16:29,960 Çok yakın bir gelecekte… 908 01:16:29,960 --> 01:16:33,320 çocuklarımızı eğitir gibi eğiteceğimiz robotlarımız olacak. 909 01:16:35,640 --> 01:16:38,680 Örneğin küçük bir robotla konuşup ona… 910 01:16:39,960 --> 01:16:42,560 “bak buraya robot. 911 01:16:42,560 --> 01:16:44,640 Bir akıllı telefon montajlayalım. 912 01:16:44,640 --> 01:16:48,400 Bir tabaka plastik bir de tornavidamızı alalım, 913 01:16:48,720 --> 01:16:52,320 her şeyi bu şekilde vidalayalım. 914 01:16:52,320 --> 01:16:54,320 Hayır böyle değil. 915 01:16:54,320 --> 01:16:57,720 Bu şekilde robot, bu şekilde” diyeceğim. 916 01:16:58,840 --> 01:17:01,680 Robot bir iki sefer beceremeyecek… 917 01:17:01,880 --> 01:17:05,840 ama aynı işi benden daha iyi yapmayı öğrenecek. 918 01:17:06,720 --> 01:17:11,400 Sonra öğrenmeyi bırakıp milyonlarca telefon üretecek ve satacak. 919 01:17:32,400 --> 01:17:35,800 YZ mevzuatı, kulağa çekici bir fikirmiş gibi geliyor… 920 01:17:35,800 --> 01:17:38,200 Ama ben, bunun mümkün olduğunu sanmıyorum. 921 01:17:40,240 --> 01:17:42,720 İşe yaramayacak olmasının bir sebebi de… 922 01:17:42,720 --> 01:17:46,360 bilim insanlarındaki merak. 923 01:17:47,280 --> 01:17:49,600 Onlar mevzuat yönetmelik falan takmazlar. 924 01:17:52,640 --> 01:17:56,760 Askeri güçler de takmaz. 925 01:17:56,760 --> 01:17:59,040 Onlar “biz Amerikalılar yapmazsak… 926 01:17:59,040 --> 01:18:00,640 Çinliler yapacak… 927 01:18:00,720 --> 01:18:03,160 Çinliler ise “Biz yapmazsak… 928 01:18:03,160 --> 01:18:04,840 Ruslar yapacak.” derler. 929 01:18:07,720 --> 01:18:10,800 Politik mevzuatın türü cinsi önemsizdir. 930 01:18:10,920 --> 01:18:14,640 Tüm askeri endüstriyel kompleksler… 931 01:18:14,680 --> 01:18:17,600 geri kalmamak istedikleri için… 932 01:18:18,680 --> 01:18:21,280 her türden mevzuatı görmezden gelmeye mecburdurlar. 933 01:18:26,040 --> 01:18:27,640 Xinhua’ya hoş geldiniz. 934 01:18:27,680 --> 01:18:30,240 Ben dünyanın ilk kadın yapay zekâlı haber sunucusuyum. 935 01:18:30,280 --> 01:18:32,720 Beni Xinhua ve arama motoru şirketi Sogou birlikte geliştirdi. 936 01:18:33,040 --> 01:18:36,320 OpenAI şirketinin geliştirdiği program… 937 01:18:36,320 --> 01:18:39,520 tıpkı insanlar gibi belirli tutarlılığı ve güvenirliği olan hikâyeler yazabiliyor. 938 01:18:39,520 --> 01:18:41,480 Bu, makine için küçük… 939 01:18:41,520 --> 01:18:44,320 tüm makineler için dev bir adım. 940 01:18:44,320 --> 01:18:47,160 IBM’in en yeni yapay zekâ sistemi deneyimli tartışmacı insanlarla… 941 01:18:47,160 --> 01:18:51,560 karşı karşıya geldi ve canlı tartışmayı kazandı. 942 01:18:51,560 --> 01:18:54,160 Bilgisayarın ürettiği sahte video tekniğiyle… 943 01:18:54,160 --> 01:18:58,000 porno filmlerdeki kadınların yüzleri değiştiriliyor. 944 01:19:02,520 --> 01:19:06,480 Yapay zekâ, korkunç bir hızla gelişiyor. 945 01:19:07,960 --> 01:19:10,160 Çok hızlı ilerliyor. 946 01:19:10,200 --> 01:19:12,960 Bazı yönlerden biz, şuan sadece başlangıç aşamasındayız. 947 01:19:14,480 --> 01:19:17,600 Bu potansiyeli olan aplikasyonlar altın madeninden farksız. 948 01:19:19,600 --> 01:19:23,440 2012’den beri derin öğrenme… 949 01:19:23,440 --> 01:19:25,360 bilgisayar vizyonu oluşturanlar açısından oyunu değiştirdi. 950 01:19:25,360 --> 01:19:28,720 Derin öğrenme tekniğini ilk biz benimsedik. 951 01:19:28,720 --> 01:19:31,080 Onu bilgisayar grafikleri sahasına uyguluyoruz. 952 01:19:34,640 --> 01:19:39,800 Devlet ve askeri istihbarat kurumları birçok araştırmamıza fon aktarıyor. 953 01:19:43,960 --> 01:19:47,840 Gerçekçi fotoğrafik haritalar oluştururken… 954 01:19:47,840 --> 01:19:50,320 iki hususa, 955 01:19:50,320 --> 01:19:53,760 bir kaynağa ve hedefe ihtiyaç duyuyoruz. Bu noktadan sonra yüzü değiştirebiliyoruz. 956 01:19:58,880 --> 01:20:03,720 Örneğin bir aplikasyon sayesinde yüz değiştiriyorum… 957 01:20:03,720 --> 01:20:06,120 ve ona söylemediği şeyleri söylettiriyorum. 958 01:20:08,920 --> 01:20:12,160 Eğlence ve yaratıcılık için kullanmak mümkün bunu. 959 01:20:12,160 --> 01:20:16,120 Ama aynı zamanda bu aplikasyonu… 960 01:20:16,120 --> 01:20:18,360 videoları değiştirmek ve sahte haber yapmak için kullanabilirsiniz. 961 01:20:21,040 --> 01:20:23,320 Bu çok tehlikeli sonuçlara yol açabilir ama. 962 01:20:24,800 --> 01:20:29,320 Yanlış kişilerin eline geçerse hızla kontrolden çıkabilir. 963 01:20:33,360 --> 01:20:35,760 Bu yeni dönemde düşmanlarımız… 964 01:20:35,760 --> 01:20:39,600 bizi başkaları gibi gösterebilir, 965 01:20:39,600 --> 01:20:41,840 istediği zaman söylemediğimiz sözleri bize söylettirebilir. 966 01:20:42,440 --> 01:20:46,960 İlerlerken bir yandan internetten gelen her şeye karşı daha fazla uyanık olmak zorunda kalıyoruz. 967 01:20:46,960 --> 01:20:50,720 Basit gelebilir ama enformasyon çağında… 968 01:20:50,720 --> 01:20:55,200 ilerleme yöntemimiz… 969 01:20:55,200 --> 01:20:58,120 Berbat bir distopyada yaşamakla… 970 01:20:58,160 --> 01:21:00,280 hayatta kalmak arasındaki ayrımı verir. 971 01:22:31,080 --> 01:22:36,960 Çalışmalarım konusunda en fazla dillendirilen eleştiri şu: 972 01:22:37,320 --> 01:22:43,600 “Eskiden kafatasına veya yüze bakıp karakter analizi yapan aptal çalışmalar vardı. 973 01:22:45,120 --> 01:22:49,160 Bir kişinin karakterini yüzünden okuyabileceğini… 974 01:22:49,200 --> 01:22:52,000 iddia eden insanlar vardı. 975 01:22:53,840 --> 01:22:55,880 Bu zırvadan başka bir şey değil. 976 01:22:56,040 --> 01:23:01,040 Burada ırkçılık ve batıl inanç söz konusu.” 977 01:23:05,320 --> 01:23:09,480 Ama birinin geçmişte bir iddiada bulunması ve bu iddiayı geçersiz bir mantıkla… 978 01:23:09,640 --> 01:23:14,640 desteklemeye çalışması… 979 01:23:14,960 --> 01:23:18,960 doğalında söz konusu iddiayı boşa çıkarmaz. 980 01:23:23,800 --> 01:23:25,720 İnsanlar elbette cinsel yönelim veya politik görüşler noktasında… 981 01:23:26,080 --> 01:23:30,200 gizlilik hakkına sahip olmalıdır ama… 982 01:23:32,320 --> 01:23:35,600 korkarım teknolojinin mevcut gerçekliğinde… 983 01:23:35,600 --> 01:23:38,240 gizlilik kesinlikle imkânsızdır. 984 01:23:42,640 --> 01:23:44,920 İnsanlar geriye dönüşün mümkün olmadığını anlamalılar. 985 01:23:44,920 --> 01:23:48,360 Algoritmalardan kaçış mümkün değil. 986 01:23:51,120 --> 01:23:55,680 O kaçınılmaz ve rahatsız edici gerçeği, yani gizliliğin kalmadığı gerçeğini… 987 01:23:56,560 --> 01:23:59,440 ne kadar erken kabul edersek toplumların gizlilik sonrası çağa… 988 01:24:01,760 --> 01:24:05,360 ne kadar hazır olduklarını… 989 01:24:05,400 --> 01:24:10,680 düşünmeye o kadar erken başlamış oluruz. 990 01:24:20,800 --> 01:24:23,800 Yahudi Soykırımı Anıtı, Berlin 991 01:24:35,080 --> 01:24:37,080 Yüz tanıma meselesi gündeme geldiğinde… 992 01:24:37,080 --> 01:24:43,320 # Věra Jourová Avrupa Komisyonu Üyesi # aklıma, tarihimizin en karanlık dönemi geliyor. 993 01:24:45,480 --> 01:24:49,000 Toplumun bir kısmının kabul gördüğü, 994 01:24:49,040 --> 01:24:52,680 bir kısmının ise ölüme mahkum edildiği… 995 01:24:53,680 --> 01:24:56,920 bir sistemin içinde yaşanılan o dönem. 996 01:25:01,680 --> 01:25:06,200 Bu tür bir aygıt Mengele’nin elinde olsaydı ne yapardı? 997 01:25:10,760 --> 01:25:14,400 Onu doğal seçim için en hızlı ve verimli yol olarak kullanır, 998 01:25:18,400 --> 01:25:22,120 kıyamet anlayışına temel teşkil ederdi. 999 01:26:15,880 --> 01:26:19,880 Yakın gelecek tüm hikâyeniz yüzlere, 1000 01:26:19,880 --> 01:26:25,360 genlere, davranışlara ve duygulara ait, 1001 01:26:25,760 --> 01:26:28,400 birbiriyle bağlantılı bir dizi veri tabanında kayıtlı olacak. 1002 01:26:30,960 --> 01:26:35,320 Böylelikle yurttaş olarak yapıp ettiklerinizi, ilişkilerinizi, 1003 01:26:35,320 --> 01:26:39,520 politik ve cinsel yönelimlerinizi kaydeden… 1004 01:26:39,520 --> 01:26:41,920 çevrim içi bir… 1005 01:26:41,920 --> 01:26:45,920 dijital avatarınız olacak. 1006 01:26:50,040 --> 01:26:54,040 Tüm bu veriler üzerinden algoritmalar davranışlarımızı epey hassas biçimde… 1007 01:26:54,120 --> 01:26:58,400 manipüle edecek, düşünme tarzımızı, 1008 01:26:58,400 --> 01:27:03,920 hatta duygularımızı değiştirecek. 1009 01:27:25,680 --> 01:27:30,520 İlk YGZ’lerin inançları ve arzuları epey önemli olacak. 1010 01:27:32,720 --> 01:27:35,560 Demek ki önemli olan, onları doğru biçimde programlamaktır. 1011 01:27:36,200 --> 01:27:37,840 Bu yapılmazsa… 1012 01:27:38,800 --> 01:27:44,200 doğal seleksiyonun evrimsel niteliği… 1013 01:27:44,200 --> 01:27:48,360 o sistemler lehine işleyecek ve onların bekasını her şeyin üzerine yerleştirecek. 1014 01:27:51,880 --> 01:27:56,680 İnsanlardan nefret edip onlara zarar vermek istemeyecek ama… 1015 01:27:58,800 --> 01:28:01,120 çok güçlü olacak ve… 1016 01:28:01,400 --> 01:28:05,480 insanların hayvanları tehdit ettiği gibi o da insanları tehdit edecek. 1017 01:28:06,960 --> 01:28:08,200 Mesele, bizim hayvanlardan nefret etmemiz değil. 1018 01:28:08,280 --> 01:28:11,960 Bence insanlar hayvanları sever, 1019 01:28:12,360 --> 01:28:17,200 ama iki şehir arasına otoban inşa etme fikri gündeme geldiğinde… 1020 01:28:17,600 --> 01:28:20,120 gidip hayvanlardan izin almayız. 1021 01:28:20,120 --> 01:28:23,320 O yolu sırf bizim için önemli diye yaparız. 1022 01:28:24,240 --> 01:28:29,000 Bence otonom olan ve kendi adına çalışan YGZ’lerle… 1023 01:28:29,000 --> 01:28:34,680 bizim aramızda bu türden bir ilişki kurulacaktır. 1024 01:28:47,200 --> 01:28:51,400 Önce YGZ’yi inşa etme konusunda farklı güçler arasında bir tür silâh yarışı yaşanırsa… 1025 01:28:51,400 --> 01:28:54,160 bu güçler, inşa ettikleri şeyin… 1026 01:28:54,160 --> 01:28:58,040 insanlar için olup olmadığından… 1027 01:28:58,440 --> 01:29:00,520 emin olma noktasında çok fazla zaman bulamayacaklardır. 1028 01:29:03,520 --> 01:29:06,520 Çünkü görebildiğim kadarıyla… 1029 01:29:06,560 --> 01:29:09,240 YGZ’yi geliştirmek için yoğun bir çalışma söz konusudur. 1030 01:29:09,240 --> 01:29:12,320 Bu muazzam, durdurulması mümkün olmayan bir güçtür. 1031 01:29:15,800 --> 01:29:18,760 Kanaatimce tüm yeryüzü ileride… 1032 01:29:18,760 --> 01:29:22,080 güneş panelleri ve veri merkezleriyle kaplanacak. 1033 01:29:26,240 --> 01:29:28,720 Bu tür endişelerin varolduğu koşullarda… 1034 01:29:28,720 --> 01:29:32,840 önemli olan, YGZ’yi bir şekilde… 1035 01:29:32,840 --> 01:29:35,600 birden fazla ülkeyle işbirliği içerisinde kurmaktır. 1036 01:29:38,080 --> 01:29:41,200 Gelecek, yapay zekâlar için hayırlı olacak. 1037 01:29:42,120 --> 01:29:45,000 İnsanlar için de hayırlı olsa iyi olur tabii. 1038 01:30:06,760 --> 01:30:10,600 Bu omuzlarıma fazla sorumluluk yüklüyor mu? 1039 01:30:10,600 --> 01:30:11,840 Pek de yüklemiyor. 1040 01:30:13,440 --> 01:30:16,760 Einstein’ın ailesinin omuzlarında… 1041 01:30:16,760 --> 01:30:19,120 fazla sorumluluk var mıydı? 1042 01:30:20,200 --> 01:30:21,800 O aile ki Einstein’ı var etmiş, 1043 01:30:22,160 --> 01:30:25,280 ama onlar, oğullarının yapacaklarını önceden tahmin edemezlerdi, 1044 01:30:25,440 --> 01:30:27,280 Dünyayı değiştireceğini bilemezlerdi. 1045 01:30:28,600 --> 01:30:32,560 Dolayısıyla onları bu şey için sorumlu tutamazsınız. 1046 01:30:57,640 --> 01:31:00,240 Ben, pek insan merkezci biri değilimdir. 1047 01:31:01,840 --> 01:31:05,520 Ben, evrenin daha da karmaşıklaştığı evrim sürecinde… 1048 01:31:05,520 --> 01:31:08,080 küçük bir sıçrama tahtasıyım. 1049 01:31:10,840 --> 01:31:14,880 Diğer taraftan şu benim için net: ben yaratılışın zirvesi değilim. 1050 01:31:14,880 --> 01:31:19,360 İnsanlık da genel olarak yaratılışın zirvesi değil. 1051 01:31:21,160 --> 01:31:26,320 Biz, bizi aşacak olan, bizden daha büyük bir şey için sahneyi kuruyoruz. 1052 01:31:29,000 --> 01:31:32,800 Sonrasında o şey, insanların yürüyemeyeceği bir yol açacak, 1053 01:31:32,800 --> 01:31:37,960 tüm evreni en azından erişilebilir olan evreni dönüştürecek. 1054 01:31:41,520 --> 01:31:46,520 Bu büyük çalışmanın parçası olmak… 1055 01:31:46,640 --> 01:31:50,280 hem güzel hem korkutucu. 1056 01:32:14,080 --> 01:32:16,040 Yapay zekâ kaçınılmaz. 1057 01:32:17,560 --> 01:32:23,360 Yapay zekânın silâha dönüştürülmesine… 1058 01:32:23,360 --> 01:32:27,920 mani olacak mevzuata sahip olmak şart. 1059 01:32:28,680 --> 01:32:32,000 Böylesine güçlü bir aygıtın silâha… 1060 01:32:32,000 --> 01:32:33,960 dönüştürülmesine artık ihtiyacımız yok. 1061 01:32:37,120 --> 01:32:42,000 Bence en önemli şeylerden biri de bir ihtiyaç olarak uluslararası yönetimin kendisi. 1062 01:32:43,920 --> 01:32:46,320 Burada güç dengesizliği söz konusu, çünkü bugün… 1063 01:32:46,320 --> 01:32:49,160 şirketler tüm ülkelerden daha fazla güce, 1064 01:32:49,160 --> 01:32:51,120 kudrete ve beceriye sahipler. 1065 01:32:51,120 --> 01:32:54,080 İnsanların seslerinin işitileceğinden nasıl emin olacağız? 1066 01:32:58,040 --> 01:32:59,720 Kanunsuz bir alan olamaz bu. 1067 01:32:59,920 --> 01:33:02,080 Hakların belirlenmesi şart. 1068 01:33:02,120 --> 01:33:05,880 Bu yüzyılda tüm bu muhteşem yeni teknolojileri… 1069 01:33:05,880 --> 01:33:10,400 elde etmek için çok kavga verdiğimiz, 1070 01:33:10,400 --> 01:33:15,400 artık kırılgan hâle gelmiş insan haklarını tesis etmeden… 1071 01:33:15,640 --> 01:33:19,200 benimseyemeyiz. 1072 01:33:28,680 --> 01:33:32,200 YZ ne iyi ne de kötü bir şey. 1073 01:33:32,200 --> 01:33:36,480 O sadece onu kontrol edenlerin arzularına ve hedeflerine hizmet edecek. 1074 01:33:36,880 --> 01:33:41,240 Bugün YZ, çok çok küçük bir grubun kontrolünde. 1075 01:33:44,440 --> 01:33:49,280 Tarihin bu noktasında kendimize sormamız gereken en önemli soruyu… 1076 01:33:49,280 --> 01:33:51,400 cevaplamak için teknik bilgiye ihtiyaç yok. 1077 01:33:51,600 --> 01:33:57,560 Asıl soru şu: 1078 01:33:57,560 --> 01:33:59,760 tüm bu teknolojiyle ileride ne tür bir toplum oluşturmak istiyoruz? 1079 01:34:01,400 --> 01:34:05,120 Biz, insanların bu dünyada nasıl bir rol oynamalarını istiyoruz? 1080 01:35:10,120 --> 01:35:15,640 Google ve Facebook film için yaptığımız röportaj teklifini geri çevirdi. 1081 01:35:15,960 --> 01:35:18,560 Çeviri ve altyazı: Puruli Kültür Sanat