1 00:00:16,142 --> 00:00:17,977 ‫כשניהלתי את מיקרוסופט…‬ 2 00:00:18,061 --> 00:00:20,480 ‫גבירותיי ורבותיי,‬ ‫קבלו בבקשה את ביל גייטס.‬ 3 00:00:21,397 --> 00:00:25,026 ‫…הצלחנו באופן מדהים,‬ 4 00:00:25,109 --> 00:00:28,404 ‫אבל הבנתי כבר אז שיהיה מגוון דעות.‬ 5 00:00:28,488 --> 00:00:29,822 ‫תתחברו לאינטרנט‬ 6 00:00:29,906 --> 00:00:33,034 ‫ובמהרה תגלו‬ ‫מה אנשים מסוימים חושבים על ביל גייטס.‬ 7 00:00:33,117 --> 00:00:34,535 ‫אפשר לתת לו אגרוף.‬ 8 00:00:34,619 --> 00:00:36,662 ‫אפשר אפילו להטיח עוגה בפניו.‬ 9 00:00:37,163 --> 00:00:41,375 ‫זה היה מאוחר יותר‬ ‫כשעסקתי בפילנתרופיה באופן מלא,‬ 10 00:00:41,459 --> 00:00:43,377 ‫שזה התחיל להיות ממש מטורף.‬ 11 00:00:43,461 --> 00:00:46,297 ‫האם זה נכון‬ ‫שאילו הפלת שטר של 10,000 דולר,‬ 12 00:00:46,380 --> 00:00:49,550 ‫לא היית מבזבז זמן‬ ‫כדי להתכופף ולהרים אותו?‬ 13 00:00:49,634 --> 00:00:50,468 ‫לא.‬ 14 00:00:51,385 --> 00:00:55,807 ‫עושר קיצוני בהחלט מעורר‬ ‫שאלות לגבי המניעים שלך,‬ 15 00:00:55,890 --> 00:00:58,643 ‫אבל זה ברמה חדשה לגמרי.‬ 16 00:00:59,268 --> 00:01:01,145 ‫- קונספירציות שנמצאות באינטרנט -‬ 17 00:01:01,229 --> 00:01:03,064 ‫בוא נלך על מספר אחת. בוא נראה.‬ 18 00:01:06,275 --> 00:01:10,571 ‫"ביל גייטס והסדר העולמי הליברלי זוממים‬ 19 00:01:10,655 --> 00:01:12,365 ‫"לאלץ אנשים לאכול חרקים.‬ 20 00:01:13,324 --> 00:01:15,952 ‫"האג'נדה שלהם‬ ‫היא להחליש את המעמדות הנמוכים‬ 21 00:01:16,035 --> 00:01:18,621 ‫"עם דיאטות חרקים דלות בחלבון."‬ 22 00:01:20,498 --> 00:01:22,500 ‫הייתי מרגיש רע אילו עשיתי את זה.‬ 23 00:01:22,583 --> 00:01:23,543 ‫בסדר. הבאה בתור.‬ 24 00:01:24,377 --> 00:01:28,631 ‫זאת אפילו טובה יותר.‬ ‫"ביל גייטס הוא לטאה משנה צורה,‬ 25 00:01:28,714 --> 00:01:32,718 ‫"חלק מגזע הזוחלים‬ ‫שכולל את טום הנקס וליידי גאגא.‬ 26 00:01:33,511 --> 00:01:36,889 ‫"אנשי הלטאה האלה‬ ‫מפעילים בחשאי שליטה גלובלית."‬ 27 00:01:39,642 --> 00:01:41,269 ‫מישהו סיפר לי על זאת,‬ 28 00:01:41,352 --> 00:01:45,106 ‫אבל לא ידעתי שטום הנקס מעורב בזה.‬ ‫כלומר, זה נהדר.‬ 29 00:01:45,189 --> 00:01:46,399 ‫הבאה בתור.‬ 30 00:01:47,275 --> 00:01:51,279 ‫"ביל גייטס מנסה להשיג חיי נצח‬ ‫על ידי צריכת דם של תינוקות.‬ 31 00:01:53,030 --> 00:01:58,452 ‫"האדמות החקלאיות העצומות שבבעלות ביל גייטס‬ ‫מספקות בחשאי תפוחי אדמה למקדונלד'ס‬ 32 00:01:58,536 --> 00:02:03,124 ‫"כדי להחדיר לצ'יפס שלהם חיסונים‬ ‫בכל 'הפי מיל'."‬ 33 00:02:04,125 --> 00:02:05,585 ‫אני אוכל מקדונלד'ס.‬ 34 00:02:05,668 --> 00:02:07,003 ‫טוב, עוד אחת אחרונה.‬ 35 00:02:08,045 --> 00:02:09,547 ‫"אחרי תאונת דרכים קטלנית,‬ 36 00:02:10,047 --> 00:02:13,467 ‫"ביל גייטס ואשתו לשעבר מלינדה‬ ‫הוחלפו בשיבוטים.‬ 37 00:02:14,427 --> 00:02:17,138 ‫"צוות של מדענים יצר מחליפים‬ 38 00:02:17,221 --> 00:02:20,391 ‫"כדי לשמור ששליטתו בעולם תימשך לנצח."‬ 39 00:02:20,474 --> 00:02:21,726 ‫שמעת את זה בעבר?‬ 40 00:02:21,809 --> 00:02:24,020 ‫לא, מלינדה, היא עדיין אדם אמיתי.‬ 41 00:02:24,103 --> 00:02:25,313 ‫ואתה?‬ 42 00:02:25,396 --> 00:02:26,731 ‫אני עושה כמיטב יכולתי.‬ 43 00:02:27,648 --> 00:02:31,944 ‫- מה הלאה? -‬ 44 00:02:32,528 --> 00:02:37,074 ‫- אמת או השלכות? -‬ 45 00:02:37,158 --> 00:02:39,785 ‫- שגיאת מערכת -‬ 46 00:02:43,956 --> 00:02:46,709 ‫אז רציתי לשאול אותך על אמת.‬ 47 00:02:47,293 --> 00:02:51,005 ‫אתה נראה לי כמו מישהו‬ ‫שמונע על ידי נתונים ומספרים.‬ 48 00:02:51,088 --> 00:02:53,716 ‫אתה חושב שיש הבדל בין נתונים לבין אמת?‬ 49 00:02:54,675 --> 00:03:00,640 ‫לא ממש. כלומר, נתונים הם מערכת העובדות‬ 50 00:03:01,140 --> 00:03:03,893 ‫בנוגע לכמה דברים נמכרים,‬ 51 00:03:03,976 --> 00:03:05,436 ‫כמה אנשים יש שם,‬ 52 00:03:06,145 --> 00:03:08,731 ‫באילו פעילויות הם עוסקים?‬ 53 00:03:08,814 --> 00:03:11,484 ‫ככה אנחנו מקבלים החלטות.‬ 54 00:03:12,777 --> 00:03:15,613 ‫אבל לפעמים אנשים לא מקבלים החלטות‬ ‫על סמך עובדות.‬ 55 00:03:15,696 --> 00:03:18,324 ‫הם מקבלים אותן על סמך רגשות או נרטיב, או…‬ 56 00:03:18,407 --> 00:03:21,410 ‫משהו שאנשים מרגישים שהם מאמינים שהוא נכון.‬ 57 00:03:22,620 --> 00:03:24,705 ‫- שרה ט' רוברטס‬ ‫פרופ' ללימודי מידע, UCLA -‬ 58 00:03:24,789 --> 00:03:27,583 ‫"מה דעתי על מושג כמו אמת"?‬ 59 00:03:27,667 --> 00:03:29,460 ‫- ד"ר אליז ואנג‬ ‫היסטוריונית תאוריות קונספירציה -‬ 60 00:03:29,543 --> 00:03:31,921 ‫רצית להתחיל עם שאלה קלה.‬ 61 00:03:32,004 --> 00:03:34,590 ‫טוב, אני חושבת‬ ‫שיש דברים שנקראים עובדות.‬ 62 00:03:34,674 --> 00:03:37,051 ‫אם אכניס את ידי לאש, זה יכאב.‬ 63 00:03:37,551 --> 00:03:41,514 ‫אבל לאנשים יש דרכים שונות‬ ‫להסביר בהיגיון, לעשות רציונליזציה,‬ 64 00:03:41,597 --> 00:03:43,057 ‫לטענות שהם יודעים דבר מה.‬ 65 00:03:43,140 --> 00:03:47,520 ‫התחלתי לחשוב הרבה יותר במכוון‬ ‫על האופן שבו אנחנו יוצרים אמת.‬ 66 00:03:47,603 --> 00:03:48,896 ‫אמת למי?‬ 67 00:03:48,980 --> 00:03:51,399 ‫ואז האמת הופכת למשהו שנתון למשא ומתן,‬ 68 00:03:51,482 --> 00:03:53,776 ‫והיא הופכת למשהו שדומה יותר לדעה‬ 69 00:03:53,859 --> 00:03:56,070 ‫או אפילו גרוע יותר, לאמונה.‬ 70 00:03:58,698 --> 00:04:01,409 ‫טוב, העולם הרבה יותר מדי מסובך‬ 71 00:04:01,909 --> 00:04:08,207 ‫מכדי שתהיה לך דרך‬ ‫לגמרי מבוססת עובדות להבנת התנהגות‬ 72 00:04:08,291 --> 00:04:11,377 ‫ומזג אוויר וכלכלה וכל הדברים האלה,‬ 73 00:04:11,460 --> 00:04:15,381 ‫אז אנחנו משתמשים בקיצורי דרך כמו,‬ ‫"אני סומך על האדם הזה".‬ 74 00:04:16,799 --> 00:04:18,676 ‫סי-בי-אס טלוויז'ן מציגה‬ 75 00:04:18,759 --> 00:04:22,179 ‫את הכתב המכובד‬ ‫ואנליסט החדשות אדוארד ר' מורו.‬ 76 00:04:22,263 --> 00:04:25,683 ‫לראשונה אדם יכול לשבת בבית‬ ‫ולהביט בשני אוקיינוסים בו זמנית.‬ 77 00:04:25,766 --> 00:04:31,731 ‫התרשמנו מחשיבותו של האמצעי הזה.‬ ‫נקווה שנלמד להשתמש בו בלי לנצל אותו לרעה.‬ 78 00:04:32,857 --> 00:04:36,652 ‫זו הייתה תקופה קצרה‬ ‫שבה החשבנו את עצמנו ליצורים הגיוניים‬ 79 00:04:36,736 --> 00:04:40,197 ‫שהיו להם אמונות שהתבססו‬ ‫על מעין עובדות ניתנות לאימות,‬ 80 00:04:40,281 --> 00:04:42,325 ‫אבל לא ככה אנחנו מתקיימים.‬ 81 00:04:42,408 --> 00:04:45,661 ‫זה ייקח יותר מדי זמן‬ ‫אם לא תאמין למה שאנשים אומרים לך.‬ 82 00:04:45,745 --> 00:04:49,498 ‫מומחים אומרים,‬ ‫"אל תאמינו לזה רק כי זה פורסם".‬ 83 00:04:49,582 --> 00:04:52,460 ‫קיו-אנון התפשט כמו אש בשדה קוצים‬ ‫בחודשים האחרונים.‬ 84 00:04:53,044 --> 00:04:56,255 ‫האינטרנט מאפשר את הפנטזיה הזאת‬ 85 00:04:56,339 --> 00:04:59,133 ‫שאנחנו בעצם מבינים את הדברים האלה בעצמנו,‬ 86 00:05:00,217 --> 00:05:02,011 ‫אבל אמון נע על חוגה אחת.‬ 87 00:05:02,094 --> 00:05:06,974 ‫אי אפשר להקטין אמון בתחום מסוים בחברה‬ ‫ולהעצים אותו בתחום אחר.‬ 88 00:05:07,058 --> 00:05:10,186 ‫אפשר רק להגביר או להנמיך,‬ ‫ואם מחליטים להנמיך,‬ 89 00:05:10,269 --> 00:05:12,188 ‫מערערים יציבות של הרבה דברים.‬ 90 00:05:12,271 --> 00:05:15,149 ‫כל מה שתשמע, אתה תשב ותחשוב…‬ 91 00:05:15,232 --> 00:05:17,276 ‫אף אחד לא יודע במה לבטוח ובמה לא.‬ 92 00:05:17,360 --> 00:05:19,862 ‫האמון של אנשים בשכניהם, במנהיגיהם…‬ 93 00:05:19,945 --> 00:05:21,697 ‫אנשים, תתעוררו!‬ 94 00:05:21,781 --> 00:05:23,366 ‫…ובמוסדות ידע…‬ 95 00:05:23,449 --> 00:05:25,159 ‫אתה סי-אן-אן. אתה פייק ניוז.‬ 96 00:05:25,743 --> 00:05:27,870 ‫…וזה יחזור אליך ויפגע בך.‬ 97 00:05:27,953 --> 00:05:29,997 ‫אתם לא מבינים שאני מנסה להגן עליכם?‬ 98 00:05:30,081 --> 00:05:32,833 ‫למה יש…‬ ‫-חופש!‬ 99 00:05:33,417 --> 00:05:35,878 ‫- ניו יורק -‬ 100 00:05:38,255 --> 00:05:40,591 ‫תמיד היו תאוריות קונספירציה. תמיד.‬ 101 00:05:41,175 --> 00:05:44,637 ‫אנחנו מזלזלים ביצירתיות של האמריקאים,‬ 102 00:05:44,720 --> 00:05:47,890 ‫ואני חושב שאני לעיתים קרובות יוצא לשטח‬ 103 00:05:47,973 --> 00:05:52,603 ‫עם רעיון, שאלה,‬ ‫ואולי טיעון הגיוני בנוגע לשאלה הזאת.‬ 104 00:05:52,686 --> 00:05:56,732 ‫הלכתי לעצרות של טראמפ במדינות‬ ‫המתנדנדות הקריטיות אוהיו וויסקונסין‬ 105 00:05:56,816 --> 00:06:00,027 ‫כדי לגלות מה התומכים שלו יודעים‬ ‫שכל השאר לא יודעים.‬ 106 00:06:00,111 --> 00:06:03,239 ‫לברק אובמה היה חלק גדול ב-11 בספטמבר.‬ ‫-איזה חלק?‬ 107 00:06:03,322 --> 00:06:06,742 ‫שהוא לא היה נוכח,‬ ‫תמיד בחופשה, אף פעם לא במשרד.‬ 108 00:06:06,826 --> 00:06:10,538 ‫למה אתה חושב שברק אובמה‬ ‫לא היה בחדר הסגלגל ב-11 בספטמבר?‬ 109 00:06:10,621 --> 00:06:11,705 ‫את זה אני לא יודע.‬ 110 00:06:11,789 --> 00:06:14,542 ‫זה באמת התחיל בתקופת טראמפ ההיא,‬ 111 00:06:14,625 --> 00:06:18,462 ‫שנחשפנו לסיפורים ולתאוריות‬ ‫שהיו מחוץ לנורמה.‬ 112 00:06:18,546 --> 00:06:19,964 ‫שהרחיקו מעבר לאמירה,‬ 113 00:06:20,047 --> 00:06:23,467 ‫"אני לא מסכים עם נקודת המבט שלך.‬ ‫יש לי נקודת מבט שמרנית",‬ 114 00:06:23,551 --> 00:06:25,970 ‫עד ל"רקחתי מציאות חדשה",‬ 115 00:06:26,053 --> 00:06:29,014 ‫וגם דברים שפשוט לא שמעתי עליהם.‬ ‫דברים מטורפים.‬ 116 00:06:29,098 --> 00:06:33,060 ‫בשלב הזה אתה חושב, "אני רוצה לדעת עוד‬ ‫על איפה הדבר הזה נולד ומתפתח".‬ 117 00:06:33,727 --> 00:06:36,689 ‫אם אתם בקטע של קונספירציות‬ ‫ו/או מחשבים,‬ 118 00:06:36,772 --> 00:06:40,067 ‫אולי שמעתם על ביל גייטס.‬ ‫אני מקווה שאני אומר את השם נכון.‬ 119 00:06:40,151 --> 00:06:44,196 ‫מבקרת אוכלוסייה ועד למיקרו-שבבים בחיסונים,‬ 120 00:06:44,280 --> 00:06:48,200 ‫התאוריות עצומות,‬ ‫וההשלכות בעולם האמיתי הן אמיתיות,‬ 121 00:06:48,284 --> 00:06:52,746 ‫אז כדי לעזור לי לחקור את זה,‬ ‫יש לי את קתרין ג'ויס ואייק סריסקנדראג'ה.‬ 122 00:06:53,414 --> 00:06:57,585 ‫אתם תעזרו לי לבחון‬ ‫איך הקונספירציות האלה נקשרות למישהו כזה,‬ 123 00:06:57,668 --> 00:07:01,005 ‫מה האמיתות בחלק מהתאוריות האלה,‬ 124 00:07:01,088 --> 00:07:03,007 ‫ובאיזה מהן אני צריך להאמין,‬ 125 00:07:03,090 --> 00:07:06,135 ‫כי אני תמיד מחפש קונספירציה טובה‬ ‫שאפשר ליהנות ממנה‬ 126 00:07:06,218 --> 00:07:09,472 ‫ו/או לתת לה את הכסף שלי,‬ ‫אז אני מקווה שתוכלו לעזור לי בזה.‬ 127 00:07:09,972 --> 00:07:12,266 ‫בואו נחזור קצת אחורה בזמן. בסדר?‬ 128 00:07:12,766 --> 00:07:14,435 ‫בואו נחזור ל-2010.‬ 129 00:07:15,102 --> 00:07:19,607 ‫כשהקרן שלנו התחילה,‬ ‫היא התמקדה בבריאות הרבייה‬ 130 00:07:19,690 --> 00:07:23,652 ‫כי גידול האוכלוסייה במדינות עניות‬ ‫הוא הבעיה הגדולה ביותר שלהן.‬ 131 00:07:23,736 --> 00:07:26,572 ‫חייבים לתת לאימהות‬ ‫שרוצות להגביל את גודל המשפחה‬ 132 00:07:26,655 --> 00:07:28,866 ‫את הכלים וההשכלה לעשות זאת.‬ 133 00:07:29,492 --> 00:07:34,872 ‫בקרן גייטס התמקדו בקהילה כפרית בגאנה,‬ 134 00:07:35,456 --> 00:07:40,252 ‫והם חיפשו דרכים‬ ‫להרחיב את הגישה לאמצעי מניעה בטוחים,‬ 135 00:07:40,336 --> 00:07:45,674 ‫עבור נשים שרצו להיות מסוגלות לווסת‬ ‫את הפוריות שלהן או לתכנן את הלידות שלהן.‬ 136 00:07:46,217 --> 00:07:50,387 ‫זה הפך לתאוריית קונספירציה ממש מסובכת‬ 137 00:07:50,471 --> 00:07:55,643 ‫לפיה קרן גייטס מממנת ניסוי בקרת אוכלוסייה‬ 138 00:07:55,726 --> 00:07:58,354 ‫כדי להגביל את האוכלוסייה האפריקנית.‬ 139 00:07:58,437 --> 00:07:59,772 ‫מאיפה מגיע חוסר האמון?‬ 140 00:07:59,855 --> 00:08:03,359 ‫זה מתקשר להרבה דברים ישנים וחזקים.‬ 141 00:08:04,276 --> 00:08:06,487 ‫היו הפרות של זכויות אדם.‬ 142 00:08:06,570 --> 00:08:07,905 ‫בשנות ה-60‬ 143 00:08:07,988 --> 00:08:11,450 ‫שליש מהנשים הפורטוריקניות עוקרו.‬ 144 00:08:12,034 --> 00:08:14,453 ‫היה את ניסוי העגבת בטסקיגי.‬ 145 00:08:14,537 --> 00:08:16,121 ‫יש המון דברים.‬ 146 00:08:16,205 --> 00:08:18,123 ‫אנחנו, כחברה, עשינו את זה.‬ 147 00:08:18,207 --> 00:08:23,087 ‫עיקרנו אנשים בכוח.‬ ‫-שיהיה ברור, אני לא עשיתי את זה.‬ 148 00:08:23,170 --> 00:08:26,131 ‫אני יכול לומר לכם‬ ‫שהיו שנים בתקופת לימודיי בקולג'‬ 149 00:08:26,215 --> 00:08:30,302 ‫שאני לא ממש זוכר מה עשיתי בהן,‬ ‫אבל אני יכול להבטיח לכם שזה לא היה זה.‬ 150 00:08:31,512 --> 00:08:32,346 ‫זה טוב.‬ 151 00:08:32,429 --> 00:08:36,642 ‫תודה. אבל איך זה מגיע מהר כל כך‬ ‫מאפס לבקרת אוכלוסייה,‬ 152 00:08:36,725 --> 00:08:38,561 ‫במיוחד עם ביל גייטס?‬ 153 00:08:38,644 --> 00:08:40,938 ‫זה כולל פעילים נגד הפלות…‬ 154 00:08:41,021 --> 00:08:43,065 ‫- מצעד לחיים -‬ 155 00:08:43,148 --> 00:08:47,111 ‫שמשתמשים באופן ציני מאוד‬ ‫בחששות הלגיטימיים האלה,‬ 156 00:08:47,778 --> 00:08:48,904 ‫ואז ב-2012,‬ 157 00:08:48,988 --> 00:08:53,576 ‫כשקרן גייטס נעשית ממש מעורבת‬ ‫במסע קידום גדול וחדש,‬ 158 00:08:53,659 --> 00:08:55,244 ‫כל זה מקבל משמעות.‬ 159 00:08:55,327 --> 00:08:58,581 ‫הארגונים המערביים העשירים האלה,‬ 160 00:08:58,664 --> 00:09:01,875 ‫לא רק שהם אמרו לנו‬ ‫לנהל בקרה על האוכלוסייה שלנו,‬ 161 00:09:01,959 --> 00:09:04,670 ‫הם גם באו עם התרופות שלהם.‬ 162 00:09:04,753 --> 00:09:06,547 ‫זאת טרגדיה!‬ 163 00:09:06,630 --> 00:09:07,548 ‫- עצרת נגד הפלות -‬ 164 00:09:07,631 --> 00:09:09,216 ‫זה רצח עם.‬ 165 00:09:11,885 --> 00:09:14,888 ‫חלק מהסיבה לכך שתאוריות קונספירציה כאלה‬ ‫הופכות למחשמלות כל כך‬ 166 00:09:14,972 --> 00:09:17,016 ‫הוא כי יש גרעין קטן של אמת בכך‬ 167 00:09:17,099 --> 00:09:19,727 ‫שגישה לטיפול רפואי אינה‬ ‫וגם לא הייתה הוגנת.‬ 168 00:09:20,811 --> 00:09:24,064 ‫- וושינגטון הבירה -‬ 169 00:09:25,274 --> 00:09:28,319 ‫אני אומרת שוב ושוב לאנשים‬ ‫שביל גייטס הוא לא דארת' ויידר.‬ 170 00:09:28,402 --> 00:09:29,236 ‫"מניין לך?"‬ 171 00:09:29,320 --> 00:09:31,530 ‫"אני מכירה אותו. הוא עסוק בדברים אחרים."‬ 172 00:09:31,614 --> 00:09:33,907 ‫פגשתי אותו 109 פעמים.‬ 173 00:09:34,491 --> 00:09:36,785 ‫איך אתם רואים את מצב העולם ברגע זה,‬ 174 00:09:36,869 --> 00:09:38,454 ‫במיוחד בתחום האינטרנט?‬ 175 00:09:39,163 --> 00:09:42,583 ‫אנחנו נביט לאחור ונחשוב‬ ‫שזאת אחת מתקופות ההמצאה הגדולות.‬ 176 00:09:42,666 --> 00:09:45,836 ‫אני חושבת שהרבה אנשים‬ ‫שהתחילו את האינטרנט ראו בו דרך‬ 177 00:09:45,919 --> 00:09:50,382 ‫לאחד בינינו, להרחיב ידע,‬ ‫והרבה מהדברים המוקדמים היו כאלה.‬ 178 00:09:50,466 --> 00:09:51,300 ‫מה קרה?‬ 179 00:09:51,842 --> 00:09:53,677 ‫טוב, זה השתנה, נכון?‬ 180 00:09:54,261 --> 00:09:55,262 ‫- התחבר -‬ 181 00:09:55,346 --> 00:09:56,680 ‫יש לך דוא"ל.‬ 182 00:09:58,140 --> 00:10:00,934 ‫זו הייתה החלטה עסקית בשלב מוקדם מאוד‬ 183 00:10:01,018 --> 00:10:05,189 ‫ליצור פלטפורמה,‬ ‫ליצור ארגז חול, ליצור מגרש משחקים,‬ 184 00:10:05,272 --> 00:10:07,066 ‫ולהזמין את כולם להיכנס.‬ 185 00:10:07,149 --> 00:10:11,153 ‫כשהשקנו לראשונה‬ ‫קיווינו אולי ל-500-400 איש.‬ 186 00:10:11,236 --> 00:10:15,199 ‫כרגע יש לנו 100,000 איש,‬ ‫אז מי יודע לאן נמשיך מכאן.‬ 187 00:10:15,282 --> 00:10:20,704 ‫כי בלי שכולנו ברחבי העולם‬ ‫כל הזמן נמלא את החללים האלה‬ 188 00:10:20,788 --> 00:10:25,167 ‫עם הביטוי העצמי שלנו, תהא צורתו אשר תהא,‬ 189 00:10:25,751 --> 00:10:27,920 ‫אלה יהיו בעצם כלים ריקים,‬ 190 00:10:28,504 --> 00:10:32,299 ‫אז זה הפך למודל עסקי‬ ‫של "נפתור את זה אחר כך".‬ 191 00:10:33,133 --> 00:10:36,095 ‫החוק הזה הוא חקיקה מהפכנית באמת‬ 192 00:10:36,762 --> 00:10:38,847 ‫שתביא את העתיד אל סף דלתנו.‬ 193 00:10:39,473 --> 00:10:42,518 ‫בתחילת הדרך, אם היית אחראי‬ ‫על כל מה שבפלטפורמה שלך,‬ 194 00:10:42,601 --> 00:10:45,896 ‫היו עלולים לתבוע אותך עד להרס מוחלט‬ ‫עוד לפני שבכלל התחלת,‬ 195 00:10:45,979 --> 00:10:48,565 ‫אז הם ניסו ליצור הגנה מסוימת‬ 196 00:10:48,649 --> 00:10:50,317 ‫כדי שהחברות האלה יצמחו.‬ 197 00:10:50,401 --> 00:10:54,321 ‫האינטרנט משתנה מהר מדי.‬ ‫התוכן שבו משתנה מהר מדי.‬ 198 00:10:54,405 --> 00:10:58,534 ‫אם הממשלה תחליט שהיא יכולה לשלוט בו,‬ ‫להגדיר אותו ולפקח עליו‬ 199 00:10:58,617 --> 00:11:01,829 ‫כל עוד הוא עדיין בשלב ראשוני, הוא ייכשל.‬ 200 00:11:02,454 --> 00:11:08,085 ‫אז בחקיקה המסוימת הזאת,‬ ‫שנקראת סעיף 230, הוחלט‬ 201 00:11:08,168 --> 00:11:14,466 ‫שבמקום שהפלטפורמות יהיו אחראיות‬ ‫לדברים שעלו במסגרתן,‬ 202 00:11:14,550 --> 00:11:19,221 ‫הן למעשה קיבלו פטור מאחריות לחומר הזה.‬ 203 00:11:19,888 --> 00:11:22,725 ‫הצעת החוק הזאת‬ ‫מגינה על הצרכנים נגד מונופולים.‬ 204 00:11:22,808 --> 00:11:26,687 ‫היא מבטיחה את מגוון הקולות‬ ‫שהדמוקרטיה שלנו תלויה בו.‬ 205 00:11:27,479 --> 00:11:31,066 ‫אולי יותר מכול, היא מחזקת את טובת הכלל.‬ 206 00:11:31,692 --> 00:11:33,944 ‫אבל בזמן שסעיף 230 נכנס לתוקף,‬ 207 00:11:34,027 --> 00:11:37,489 ‫דיברנו על חברה שהיה לה קיר של מודמים‬ 208 00:11:37,573 --> 00:11:39,742 ‫וחיבור T1 לאינטרנט,‬ 209 00:11:39,825 --> 00:11:44,788 ‫אז היה הגיוני לראות בחברות האלה לא יותר‬ 210 00:11:44,872 --> 00:11:48,751 ‫מאשר צינור ניטרלי למידע שסעיף 230 חזה.‬ 211 00:11:49,960 --> 00:11:55,507 ‫ועכשיו החוק הזה מגן על החברות העשירות‬ ‫והחזקות ביותר בהיסטוריה של העולם.‬ 212 00:11:57,217 --> 00:12:00,220 ‫נראה לי שהם לא צפו‬ ‫שזה יהיה אמצעי טוב כל כך‬ 213 00:12:00,304 --> 00:12:03,557 ‫להסתתרות ולאנונימיות מרושעת.‬ 214 00:12:04,308 --> 00:12:08,020 ‫טלוויזיה ושידור, אפילו לשידור יש מגבלות.‬ 215 00:12:08,645 --> 00:12:11,315 ‫לעיתונים יש מגבלות.‬ ‫לדברים פיזיים יש מגבלות,‬ 216 00:12:11,398 --> 00:12:14,443 ‫אבל אז אתה מכניס את הדבר הזה‬ ‫שהוא ממכר ומהנה‬ 217 00:12:14,526 --> 00:12:16,069 ‫ומלא דברים מטורפים.‬ 218 00:12:16,570 --> 00:12:18,447 ‫הוא כל כך יפה. הוא כל כך בוהק.‬ 219 00:12:18,530 --> 00:12:21,366 ‫הוא כל כך מעניין, והחיים שלך משעממים.‬ 220 00:12:21,450 --> 00:12:23,577 ‫זה כדי לגרום למעורבות, נכון?‬ 221 00:12:23,660 --> 00:12:26,413 ‫ואם הוא משאיר אותך שם,‬ ‫ומתחיל להעלות דברים‬ 222 00:12:26,497 --> 00:12:29,500 ‫שממשיכים לגרור אותך במורד מחילת ארנב,‬ 223 00:12:29,583 --> 00:12:30,876 ‫אז לעולם לא תחזור.‬ 224 00:12:33,086 --> 00:12:34,213 ‫היי.‬ ‫-היי, ביל.‬ 225 00:12:35,255 --> 00:12:36,673 ‫הרקע שלנו די שונה.‬ 226 00:12:37,257 --> 00:12:39,885 ‫אני לא אמן ואת לא מתכנתת.‬ 227 00:12:39,968 --> 00:12:44,097 ‫בסדר, אבל להגיד שאתה לא אמן,‬ ‫אני מרגישה שזה לא ממש הוגן.‬ 228 00:12:44,181 --> 00:12:47,100 ‫טוב, זה נחמד מצידך.‬ ‫-אבל אני בהחלט לא מתכנתת.‬ 229 00:12:47,851 --> 00:12:51,980 ‫בהתחשב בכל הדברים שקרו לנו עם מידע מוטעה,‬ 230 00:12:52,064 --> 00:12:55,359 ‫את מרגישה שזה אינטנסיבי יותר‬ ‫בארבע השנים האחרונות?‬ 231 00:12:55,442 --> 00:13:00,531 ‫אני חושבת ששנינו ראינו דרכים שונות‬ ‫שבהן מידע מוטעה יכול להרוס חיים של אנשים.‬ 232 00:13:00,614 --> 00:13:01,824 ‫בהחלט.‬ 233 00:13:01,907 --> 00:13:05,410 ‫יש דרך שבה אנחנו חווים מידע עכשיו‬ 234 00:13:05,494 --> 00:13:07,329 ‫שהיא קשורה מאוד‬ 235 00:13:07,412 --> 00:13:11,083 ‫לכך שבידור ומידע קרובים הרבה יותר זה לזה‬ 236 00:13:11,166 --> 00:13:12,668 ‫מאשר היו אי פעם.‬ 237 00:13:13,335 --> 00:13:16,755 ‫כן, הרעיון שאם זה שערורייתי ומצחיק,‬ 238 00:13:17,464 --> 00:13:18,465 ‫זה כמעט…‬ 239 00:13:18,549 --> 00:13:22,594 ‫"טוב, אולי זה לא נכון, אבל זה הצחיק אותי".‬ 240 00:13:22,678 --> 00:13:24,638 ‫או, "הלוואי שזה היה נכון".‬ 241 00:13:24,721 --> 00:13:26,890 ‫כן, הסיפור המשעשע הוא:‬ 242 00:13:26,974 --> 00:13:31,395 ‫"ביל גייטס שונא את מה שאנשים אומרים עליו‬ ‫ביחס לחיסונים",‬ 243 00:13:31,478 --> 00:13:34,648 ‫או "ליידי גאגא מבועתת מהשמועות האלה",‬ 244 00:13:34,731 --> 00:13:35,566 ‫אבל מבחינתי,‬ 245 00:13:35,649 --> 00:13:38,861 ‫אני התרגלתי לכך ששקרים מודפסים עליי‬ ‫מאז שהייתי בת 20,‬ 246 00:13:38,944 --> 00:13:41,697 ‫אז אני אמנית במה. אני חושבת שזה די מצחיק.‬ 247 00:13:42,698 --> 00:13:45,033 ‫ברור שאנשים חושבים שאת לא מי שאת‬ 248 00:13:45,117 --> 00:13:47,494 ‫כי יש עלייך הרבה איפור ו…‬ 249 00:13:47,578 --> 00:13:51,498 ‫ככה אני באמת. זה בדיוק מה שאני באמת.‬ 250 00:13:51,582 --> 00:13:54,334 ‫זה הספל שאני שותה ממנו בכל יום.‬ 251 00:13:54,418 --> 00:13:58,088 ‫זה היהלום שאני מכניסה לקפה כשאני לחוצה.‬ 252 00:13:58,171 --> 00:13:59,965 ‫זה לא יהלום אמיתי. הוא מזויף.‬ 253 00:14:00,632 --> 00:14:05,971 ‫אני יודעת ממקור ראשון עד כמה הציבור‬ ‫ממש שונא שעושים עליו מניפולציה.‬ 254 00:14:06,471 --> 00:14:09,933 ‫בידור כסוג של מניפולציה‬ ‫הוא חלק גדול מהקריירה שלי.‬ 255 00:14:10,517 --> 00:14:16,398 ‫כשהלכתי לטקס פרסי אם-טי-וי עם חיילים‬ ‫משוחררים, בתקופת "אל תשאל, אל תספר",‬ 256 00:14:17,065 --> 00:14:18,692 ‫לבשתי את שמלת הבשר,‬ 257 00:14:18,775 --> 00:14:22,195 ‫והיו מעריצים שלי שאהבו את זה‬ ‫כי הם חשבו שזה חכם.‬ 258 00:14:22,279 --> 00:14:26,241 ‫הם אמרו, "היא משתמשת בבידור‬ ‫כדי לקדם את האג'נדה הפוליטית שלה",‬ 259 00:14:26,325 --> 00:14:31,914 ‫אבל זה ממש הפריע לאנשים שלא רצו לדבר‬ ‫על זכויות להטב"ק באותו זמן.‬ 260 00:14:31,997 --> 00:14:34,207 ‫הפסיקו את ההופעה של ליידי גאגא!‬ 261 00:14:34,291 --> 00:14:38,253 ‫כן, טוב, הדרכים הסוטות שלך‬ ‫לא ממש מתאימות לאלוהים, יקירתי.‬ 262 00:14:38,337 --> 00:14:39,463 ‫דרכיי הסוטות?‬ 263 00:14:40,505 --> 00:14:44,509 ‫אז בכך שעשיתי משהו מטריד…‬ ‫אני מניחה שמה שאני מנסה לומר‬ 264 00:14:44,593 --> 00:14:47,804 ‫זה שאני יודעת ממקור ראשון כאמנית‬ ‫כמה הציבור שונא את זה.‬ 265 00:14:48,388 --> 00:14:51,183 ‫במקרה שלי, הרבה מזה קשור לחיסונים,‬ 266 00:14:51,850 --> 00:14:54,937 ‫ואני אכן קשור לחיסונים. החלק הזה נכון,‬ 267 00:14:55,020 --> 00:14:59,149 ‫אבל אילו הייתה רק כמות קטנה,‬ ‫וזו לא הייתה תופעה רחבה,‬ 268 00:14:59,232 --> 00:15:00,609 ‫הייתי מנסה לומר,‬ 269 00:15:00,692 --> 00:15:04,571 ‫"היי, חכו רגע. תיטפלו למשהו אחר.‬ ‫אל תיטפלו לחיסונים."‬ 270 00:15:05,155 --> 00:15:07,908 ‫אתה אולי לא נפגע מזה באופן אישי,‬ 271 00:15:07,991 --> 00:15:13,789 ‫אבל זה יכול להשפיע במשך עשור‬ ‫על היחס של אנשים לחיסונים ועל האמון שלהם,‬ 272 00:15:14,289 --> 00:15:18,377 ‫ואם הציבור יאבד אמון,‬ ‫אין דרך לעצור את זה.‬ 273 00:15:18,460 --> 00:15:19,294 ‫כן.‬ 274 00:15:20,462 --> 00:15:21,588 ‫- בשידור -‬ 275 00:15:21,672 --> 00:15:24,424 ‫עכשיו, אייק,‬ ‫אני רוצה להכניס גם אותך לשיחה כאן.‬ 276 00:15:24,508 --> 00:15:26,426 ‫יש משהו באופי האמריקאי,‬ 277 00:15:26,510 --> 00:15:28,178 ‫הצורך בהוספת פרטים שגויים.‬ 278 00:15:28,261 --> 00:15:32,557 ‫בכל צעד, מעלים מחדש רעיון‬ ‫ואז מוסיפים עובדה שגויה נוספת.‬ 279 00:15:32,641 --> 00:15:36,103 ‫זה משחק טלפון שבור על סטרואידים.‬ 280 00:15:36,186 --> 00:15:39,648 ‫ככה מגיעים לתאוריית הקונספירציה‬ ‫של מיקרו-שבבים בחיסונים.‬ 281 00:15:39,731 --> 00:15:41,441 ‫יש לנו כבר שם טוב בשבילה?‬ 282 00:15:41,525 --> 00:15:43,944 ‫האם זו קונספירציית הקורונה? המיקרו-שבבים?‬ 283 00:15:44,027 --> 00:15:47,447 ‫הייתי קורא לה תאוריית הקונספירציה‬ ‫של מיקרו-שבבים בחיסונים.‬ 284 00:15:47,531 --> 00:15:49,366 ‫בסדר. כן.‬ ‫-יש לך משהו טוב יותר?‬ 285 00:15:49,449 --> 00:15:53,912 ‫לא. כלומר, יש בזה הרבה מילים,‬ ‫אבל יש בזה את כל המונחים הניתנים לחיפוש,‬ 286 00:15:53,996 --> 00:15:55,622 ‫וזה מועיל ברדיט.‬ 287 00:15:55,706 --> 00:15:59,167 ‫זה מותאם למנועי חיפוש.‬ ‫-אז מה זה? תתאר לי בקווים כלליים.‬ 288 00:15:59,251 --> 00:16:02,129 ‫טוב, אז האזנתי ל"מועדון ארוחת הבוקר"…‬ 289 00:16:02,713 --> 00:16:05,298 ‫בוקר טוב לכולם. זה "מועדון ארוחת הבוקר".‬ 290 00:16:05,382 --> 00:16:08,593 ‫אם הרגע הצטרפתם אלינו,‬ ‫דיברנו על דונלד טראמפ.‬ 291 00:16:08,677 --> 00:16:11,304 ‫התפרסם אתמול שלו ולאשתו יש קורונה,‬ 292 00:16:11,388 --> 00:16:13,932 ‫אז אתם חושבים שזה אמיתי? שזו מתיחה?‬ 293 00:16:14,016 --> 00:16:16,393 ‫אתם חושבים שבאמת יש לו את נגיף הקורונה?‬ 294 00:16:17,269 --> 00:16:18,729 ‫אז הוא אלתר בבוקר‬ 295 00:16:18,812 --> 00:16:22,524 ‫ואז לקח את השיחה לכיוון שלא צפיתי אותו.‬ 296 00:16:22,607 --> 00:16:27,195 ‫כאן שרלמיין דה גוד, לנארד מקלווי מדבר.‬ ‫אני לא מאמין. כל זה יכול להיות תרגיל‬ 297 00:16:27,279 --> 00:16:30,949 ‫לגרום לאחד מהחיסונים הזולים האלה‬ ‫שהם ממהרים להכין, להיראות בטוח.‬ 298 00:16:31,033 --> 00:16:33,827 ‫הוא יופיע בטלוויזיה, פתאום בריא,‬ 299 00:16:33,910 --> 00:16:36,705 ‫וייתן לציבור האמריקאי אשליה שהחיסון בטוח.‬ 300 00:16:36,788 --> 00:16:39,332 ‫הוא ייראה כמו גיבור,‬ ‫כאחד הראשונים שמתחסנים.‬ 301 00:16:39,416 --> 00:16:43,462 ‫מיליוני אנשים יעמדו בתור להתחסן ובום!‬ ‫שתלי מיקרו-שבבים לכולם.‬ 302 00:16:44,337 --> 00:16:48,300 ‫וחשבתי, "רגע. הוא…‬ ‫כלומר, כולם יודעים שהוא צוחק, נכון?"‬ 303 00:16:48,383 --> 00:16:50,093 ‫אני זוכר את זה בזמן הקורונה.‬ 304 00:16:50,177 --> 00:16:53,180 ‫בזמן הקורונה כולם קצת נטרפו מההסתגרות,‬ 305 00:16:53,263 --> 00:16:56,224 ‫והרעיון הזה,‬ ‫האם עלינו לסמוך על החיסון הזה או לא,‬ 306 00:16:56,308 --> 00:16:58,602 ‫זה היה נושא שיחה.‬ 307 00:16:58,685 --> 00:17:02,189 ‫כן, אבל הוא אמר את זה ארבע פעמים.‬ 308 00:17:02,272 --> 00:17:05,609 ‫מיקרו-שבב. שתל מיקרו-שבב!‬ ‫מיקרו-שבבים. ב*** שלכם.‬ 309 00:17:05,692 --> 00:17:06,902 ‫חשבתי, "רגע,‬ 310 00:17:06,985 --> 00:17:11,531 ‫"אני חושש שאנשים ישמעו את זה‬ ‫ולא יחשבו שהוא צוחק",‬ 311 00:17:12,115 --> 00:17:13,825 ‫והייתה לי שאלה עיתונאית.‬ 312 00:17:13,909 --> 00:17:17,954 ‫"האם אנשים מאמינים לזה?‬ ‫כמה אנשים מאמינים לזה?‬ 313 00:17:18,705 --> 00:17:22,959 ‫"ואיזו השפעה תהיה לזה‬ ‫על המאבק שלנו בנגיף הקורונה?"‬ 314 00:17:23,043 --> 00:17:26,963 ‫האמת שאני מופתע שבשלב הזה‬ ‫עוד הייתה לך תקווה שמסר יכול להיות ברור.‬ 315 00:17:27,047 --> 00:17:28,048 ‫כן.‬ 316 00:17:28,131 --> 00:17:30,759 ‫הזיכרון שלי מאותו זמן‬ ‫הוא שהמוח שלנו נדפק,‬ 317 00:17:30,842 --> 00:17:33,011 ‫חשבנו על "חיות רעות" ומתכוני מחמצת.‬ 318 00:17:33,970 --> 00:17:39,976 ‫אז תהיתי אם אפשר‬ ‫ליישם את המתודולוגיה של איתור מגע‬ 319 00:17:40,060 --> 00:17:43,605 ‫כדי לאתר את המקור לשקר,‬ 320 00:17:43,688 --> 00:17:47,275 ‫ותאוריית הקונספירציה הספציפית הזו‬ 321 00:17:47,359 --> 00:17:50,070 ‫לגבי חיסונים עם מיקרו-שבבים מתחילה‬ 322 00:17:50,737 --> 00:17:54,908 ‫ברדיט "שאלו אותי הכול" שביל גייטס אירח.‬ 323 00:17:54,991 --> 00:17:56,034 ‫- עובד מהבית -‬ 324 00:17:56,118 --> 00:18:00,288 ‫והוא חוזה שבעתיד לכולנו‬ 325 00:18:00,372 --> 00:18:03,667 ‫יהיה דרכון דיגיטלי כלשהו.‬ 326 00:18:03,750 --> 00:18:07,546 ‫לא מיקרו-שבב, לא משהו שהושתל בגופך,‬ 327 00:18:07,629 --> 00:18:09,339 ‫אבל שם זה התחיל.‬ 328 00:18:09,422 --> 00:18:14,386 ‫אז כדי להמשיך משם, מה קרה אחרי‬ ‫שאנשים ראו את ה"שאלו אותי הכול" הזה?‬ 329 00:18:14,970 --> 00:18:19,349 ‫זה עבר דרך האינטרנט לשוודיה.‬ 330 00:18:20,308 --> 00:18:22,394 ‫שם כמה ביו-האקרים…‬ 331 00:18:22,477 --> 00:18:27,190 ‫אלה האנשים שאוהבים להחדיר טכנולוגיה‬ ‫לגוף שלהם, כדי שיהפכו ל"איירון מן"?‬ 332 00:18:27,774 --> 00:18:30,569 ‫טוב, החבר'ה האלה תומכים בזה.‬ 333 00:18:30,652 --> 00:18:32,445 ‫הם מזריקים עופרת לוורידים,‬ 334 00:18:32,529 --> 00:18:35,866 ‫והם תומכים ברעיון שאדם יהפוך לרובוט?‬ ‫-כן.‬ 335 00:18:35,949 --> 00:18:40,453 ‫הם תומכים נלהבים בטכנולוגיה שניתנת להשתלה.‬ 336 00:18:40,537 --> 00:18:43,456 ‫אני לא כאן מטעם ביו-האקרים.‬ ‫-בחייך.‬ 337 00:18:43,540 --> 00:18:46,793 ‫לכן אנשים לא יכולים לבטוח בתקשורת.‬ ‫אל תלך סחור סחור.‬ 338 00:18:46,877 --> 00:18:49,337 ‫טוב, החבר'ה האלה קצת מעורערים.‬ ‫-תודה.‬ 339 00:18:49,421 --> 00:18:52,549 ‫אתם רואים שזה שניים על 12 מ"מ.‬ 340 00:18:52,632 --> 00:18:56,136 ‫זה בגודל של גרגר אורז יוקרתי.‬ 341 00:18:56,720 --> 00:19:00,140 ‫הביו-האקרים האלה מחפשים הזדמנויות‬ 342 00:19:00,223 --> 00:19:04,686 ‫לקדם את הנושא של מיקרו-שבבים‬ ‫שניתן להשתיל בבני אדם.‬ 343 00:19:04,769 --> 00:19:07,355 ‫אני עושה הזדהות חד-פעמית במחשב הנייד שלי,‬ 344 00:19:07,439 --> 00:19:10,066 ‫פותח את הטלפון, נכנס לבית שלי.‬ 345 00:19:11,193 --> 00:19:13,987 ‫סייפר, הביו-האקר ששם לב לזה,‬ 346 00:19:14,070 --> 00:19:17,657 ‫פרסם כותרת, קצת פרובוקטיבית, קצת מטעה.‬ 347 00:19:17,741 --> 00:19:23,747 ‫הכותרת היא, "ביל גייטס ישתמש‬ ‫בשתלי מיקרו-שבבים למלחמה בקורונה".‬ 348 00:19:23,830 --> 00:19:25,081 ‫הוא פרסם כותרת.‬ 349 00:19:25,165 --> 00:19:27,459 ‫מה זה אומר? יש לו עיתון?‬ 350 00:19:28,376 --> 00:19:31,630 ‫זו הבעיה כאן.‬ ‫אפשר לפרסם כותרת כאילו זו עובדה.‬ 351 00:19:32,214 --> 00:19:33,715 ‫אז הוא עושה קפיצת אמונה ואומר,‬ 352 00:19:33,798 --> 00:19:36,509 ‫"זה יהיה משהו שיוזרק לגוף שלכם".‬ 353 00:19:36,593 --> 00:19:38,970 ‫כן, ואתה יודע איך האינטרנט עובד.‬ 354 00:19:39,054 --> 00:19:42,599 ‫הוא הורס את האנושות‬ ‫מהר מכפי שיכולנו לצפות?‬ 355 00:19:42,682 --> 00:19:43,516 ‫אתה יודע…‬ 356 00:19:43,600 --> 00:19:45,769 ‫צריך לדבר עם הבחור שבאמת היה בהתחלה‬ 357 00:19:45,852 --> 00:19:47,979 ‫של כל תנועת המחשבים הזאת. מה שמו?‬ 358 00:19:49,231 --> 00:19:50,899 ‫ביל. ביל גייטס.‬ 359 00:19:54,945 --> 00:19:56,071 ‫- חוק החירות -‬ 360 00:19:56,154 --> 00:19:59,908 ‫שלום, כאן אדם מ"חוק החירות".‬ ‫אני רוצה לשתף אתכם במאמר היום.‬ 361 00:19:59,991 --> 00:20:00,992 ‫תראו את זה.‬ 362 00:20:01,076 --> 00:20:05,872 ‫אז המאמר הזה נוחת על השולחן‬ ‫של כומר מג'קסונוויל,‬ 363 00:20:05,956 --> 00:20:08,166 ‫אז הוא מצלם סרטון יוטיוב.‬ 364 00:20:08,250 --> 00:20:09,668 ‫במאמר כתוב,‬ 365 00:20:09,751 --> 00:20:12,671 ‫"ביל גייטס ישיק קפסולות‬ ‫שניתן להשתיל בבני אדם‬ 366 00:20:12,754 --> 00:20:15,090 ‫"שיש להן 'תעודות דיגיטליות'‬ 367 00:20:15,173 --> 00:20:19,177 ‫"שיכולות להראות מי נדבק בקורונה".‬ 368 00:20:19,261 --> 00:20:23,807 ‫זה די מדאיג עבור כל נוצרי‬ ‫שמאמין בכתבי הקודש‬ 369 00:20:23,890 --> 00:20:26,393 ‫ביודעו מה כתוב בכתבי הקודש על אחרית הימים.‬ 370 00:20:26,476 --> 00:20:30,355 ‫ביודעו שבכתבי הקודש כתוב שיהיה אנטיכריסט,‬ 371 00:20:30,438 --> 00:20:35,360 ‫אדם שמצהיר שהוא אלוהים‬ ‫שמעניק תהילה לדרקון,‬ 372 00:20:35,443 --> 00:20:36,361 ‫שהוא השטן.‬ 373 00:20:36,444 --> 00:20:43,159 ‫הוא קרא לסרטון שלו, "ביל גייטס,‬ ‫שתלי מיקרו-שבבים בחיסונים למלחמה בקורונה".‬ 374 00:20:44,202 --> 00:20:46,204 ‫אז הוא הוסיף את המילה "חיסונים".‬ 375 00:20:46,288 --> 00:20:47,455 ‫- ביל גייטס רשע -‬ 376 00:20:47,539 --> 00:20:48,415 ‫- תגידו לא לדוקר -‬ 377 00:20:48,498 --> 00:20:52,711 ‫קראתי מאמרים על זה ששמים שבב קטן בחיסון.‬ 378 00:20:52,794 --> 00:20:56,589 ‫מתי לשון הנחש של ביל גייטס תצא לו מהפה,‬ 379 00:20:56,673 --> 00:20:59,634 ‫ומתי קרניו וזנבו יופיעו?‬ 380 00:20:59,718 --> 00:21:02,512 ‫אז כשמצלמות הדור החמישי יצאו לשוק, מה?‬ 381 00:21:02,595 --> 00:21:04,764 ‫יסרקו את כולם? חובה שניסרק?‬ 382 00:21:05,682 --> 00:21:09,728 ‫כן, אני זוכר שהייתי‬ ‫בעצרת נגד חיסונים במחוז אורנג',‬ 383 00:21:09,811 --> 00:21:11,938 ‫ואנשים דיברו הרבה על ביל גייטס.‬ 384 00:21:12,564 --> 00:21:14,816 ‫הם דיברו עליו כמעט כאילו הוא תאנוס.‬ 385 00:21:14,899 --> 00:21:18,445 ‫כאילו הוא רצה‬ ‫ששישית מהאוכלוסייה פשוט תיעלם.‬ 386 00:21:23,908 --> 00:21:26,494 ‫אני מניח שחשוב לומר שאפילו לפני המגפה,‬ 387 00:21:27,120 --> 00:21:29,622 ‫הייתה קבוצה של אנשים שהתנגדו לחיסונים.‬ 388 00:21:29,706 --> 00:21:31,124 ‫- חיסונים הורגים -‬ 389 00:21:31,207 --> 00:21:33,585 ‫יש כאלה שנראים יותר מהשמאל,‬ 390 00:21:33,668 --> 00:21:35,587 ‫כאלה שנראים יותר מהימין,‬ 391 00:21:35,670 --> 00:21:38,381 ‫ובשתי הקבוצות יש את נושא החופש‬ 392 00:21:38,465 --> 00:21:40,675 ‫והאם בממשלה יודעים מה הם עושים?‬ 393 00:21:40,759 --> 00:21:45,472 ‫איך זה הפך ל"יש שבב בחיסון",‬ 394 00:21:45,555 --> 00:21:50,310 ‫ש… איך הוא עובר דרך המחט?‬ ‫אני לא יודע. ומה מקור האנרגייה?‬ 395 00:21:51,269 --> 00:21:56,691 ‫זו הפעם הראשונה שחוויתי‬ ‫תאוריית קונספירציה מלאה‬ 396 00:21:56,775 --> 00:22:00,153 ‫שלפיה יש לי קשר ליצירת המגפה.‬ 397 00:22:00,236 --> 00:22:02,864 ‫זאת אחת מהתאוריות הקיצוניות יותר,‬ 398 00:22:03,573 --> 00:22:08,119 ‫אז זה היה דבר חדש מאוד ומפתיע מאוד.‬ 399 00:22:08,703 --> 00:22:11,247 ‫- וושינגטון הבירה -‬ 400 00:22:11,331 --> 00:22:15,543 ‫במהלך המגפה, היינו משוחחים באופן קבוע.‬ 401 00:22:15,627 --> 00:22:20,298 ‫הרבה מזה היה, "טוב, וואו.‬ ‫העולם נעשה קצת מטורף. אתה בסדר?"‬ 402 00:22:20,382 --> 00:22:23,676 ‫ו"אתה חושב על זה כמוני?"‬ ‫ו"שמעת על הדבר החדש?"‬ 403 00:22:23,760 --> 00:22:30,016 ‫התקשורת התמידית שלנו בנושא הזה‬ ‫הייתה טיפולית באופן מאוד פסיכולוגי.‬ 404 00:22:31,434 --> 00:22:32,268 ‫כי הייתי אומר‬ 405 00:22:32,352 --> 00:22:35,814 ‫שלפחות אני יודע שמישהו מבין מה אני עובר.‬ 406 00:22:35,897 --> 00:22:39,359 ‫להרוג את ביל גייטס!‬ 407 00:22:39,442 --> 00:22:43,363 ‫בתחילת המגפה,‬ ‫אנשים האשימו אותי בכך שאני מרוויח כסף,‬ 408 00:22:43,446 --> 00:22:47,951 ‫והרחיקו לכת עד כדי לומר‬ ‫שאני בכוונה מספק חיסונים‬ 409 00:22:48,034 --> 00:22:50,412 ‫שגרמו למיליוני מקרי מוות.‬ 410 00:22:50,495 --> 00:22:52,789 ‫כן.‬ ‫-אז זה כמו להפוך את האמת.‬ 411 00:22:52,872 --> 00:22:55,834 ‫במקום להשקיע מיליארדים‬ ‫כדי להציל מיליונים,‬ 412 00:22:55,917 --> 00:22:58,878 ‫אני הורג מיליונים כדי להרוויח מיליארדים.‬ 413 00:22:58,962 --> 00:23:02,590 ‫כן, וכשאתה מדבר עם מישהו שהעלה רעיון‬ 414 00:23:02,674 --> 00:23:05,176 ‫שהוא לא נכון באופן חריג, ואתה אומר,‬ 415 00:23:05,260 --> 00:23:09,139 ‫"זה פשוט לא נכון. איך הגעת למסקנה הזאת?"‬ 416 00:23:09,222 --> 00:23:12,600 ‫אני חייב לומר לך שלעיתים קרובות זה,‬ ‫"מישהו הראה לי ציוץ".‬ 417 00:23:13,184 --> 00:23:14,936 ‫אז אתה יכול לקחת שקר,‬ 418 00:23:15,019 --> 00:23:19,065 ‫לצייץ אותו, ולצייץ אותו מחדש 100,000 פעם,‬ ‫ואז זה הופך לעובדה.‬ 419 00:23:21,109 --> 00:23:22,861 ‫- ניו יורק -‬ 420 00:23:22,944 --> 00:23:25,071 ‫אני זוכר שהיו לנו כללים לפיהם‬ 421 00:23:25,155 --> 00:23:28,658 ‫הייתה שעה מסוימת בערב‬ ‫שבה לא היית אמורה לקבל את הטלפון שלך,‬ 422 00:23:28,741 --> 00:23:33,538 ‫ולפעמים אימא הייתה הולכת לישון,‬ ‫ואני הייתי אמור לאכוף את הכללים,‬ 423 00:23:33,621 --> 00:23:36,791 ‫אבל אז התברר שיש לך טלפון נוסף או משהו.‬ 424 00:23:36,875 --> 00:23:40,670 ‫אבל האם את מוצאת את עצמך‬ ‫אפילו בגיל הזה, משתמשת בטלפון שלך‬ 425 00:23:40,753 --> 00:23:43,131 ‫ונשארת במדיה החברתית‬ ‫יותר מכפי שאת רוצה?‬ 426 00:23:43,214 --> 00:23:47,218 ‫אלוהים, כן. טיקטוק כל כך ממכר.‬ ‫אני נמצאת בו כל הזמן.‬ 427 00:23:47,302 --> 00:23:50,513 ‫האם נתקלת פעם במידע מוטעה מטורף עליי?‬ 428 00:23:51,222 --> 00:23:53,892 ‫מידע מוטעה מטורף עליך? כל הזמן.‬ 429 00:23:53,975 --> 00:23:56,811 ‫אפילו חברים ניתקו איתי קשר‬ ‫בגלל השמועות על החיסונים,‬ 430 00:23:56,895 --> 00:24:00,690 ‫אבל אני סטודנטית לבריאות הציבור בסטנפורד,‬ ‫ויש כל כך הרבה דקויות‬ 431 00:24:00,773 --> 00:24:05,528 ‫לגבי איך מתקשרים מידע מדויק‬ ‫שקשור לבריאות הציבור או נתונים מדעיים.‬ 432 00:24:05,612 --> 00:24:09,491 ‫אני לא יודע. אני צריך ללמוד עוד‬ 433 00:24:09,574 --> 00:24:12,327 ‫כי אני עדיין מאמין בתמימותי‬ 434 00:24:13,244 --> 00:24:17,999 ‫שתקשורת דיגיטלית יכולה להיות כוח‬ ‫שיחבר בינינו כדי שננהל דיון הגיוני.‬ 435 00:24:18,082 --> 00:24:21,377 ‫אני חושבת שדבר אחד‬ ‫שאתה לא ממש מבין לגבי האינטרנט‬ 436 00:24:21,461 --> 00:24:24,130 ‫זה שהיגיון ועובדות לא ממש מנצחים שם.‬ 437 00:24:24,214 --> 00:24:27,717 ‫אנשים רוצים מפלט.‬ ‫הם רוצים לצחוק. הם רוצים סרטון מקסים.‬ 438 00:24:27,800 --> 00:24:30,803 ‫הם רוצים שייקחו אותם מהמציאות המשעממת,‬ 439 00:24:30,887 --> 00:24:34,933 ‫אז הסרטון הכי פופולרי שלך ברשת‬ ‫הוא זה שבו אתה מנסה לעשות את ה"דאב".‬ 440 00:24:35,016 --> 00:24:37,018 ‫ביל, תוכל לעשות את ה"דאב" בזריזות?‬ 441 00:24:37,101 --> 00:24:38,978 ‫לא ייאמן, ביל!‬ 442 00:24:39,062 --> 00:24:40,188 ‫או קופץ מעל הכיסא.‬ 443 00:24:40,271 --> 00:24:43,441 ‫זה נכון שאתה יכול לקפוץ מעל כיסא‬ ‫ממצב עמידה?‬ 444 00:24:44,025 --> 00:24:45,527 ‫זה תלוי בגודל הכיסא.‬ 445 00:24:45,610 --> 00:24:46,903 ‫אני ארמה קצת.‬ 446 00:24:48,154 --> 00:24:48,988 ‫יש!‬ 447 00:24:49,572 --> 00:24:52,367 ‫אלה הפופולריים ביותר‬ ‫כי אנשים רוצים לברוח,‬ 448 00:24:52,450 --> 00:24:54,911 ‫אז עובדות והיגיון לא תמיד מנצחים ברשת.‬ 449 00:24:54,994 --> 00:24:58,498 ‫אבל הרעיון הזה‬ ‫שאני מרוויח המון כסף מחיסונים,‬ 450 00:24:58,581 --> 00:25:00,625 ‫קשה לי להבין מאיפה זה מגיע.‬ 451 00:25:00,708 --> 00:25:06,548 ‫זה לא כמו ארגון פוליטי.‬ ‫זה פשוט טירוף, ומי מקדם את זה?‬ 452 00:25:06,631 --> 00:25:09,759 ‫אני חושבת שזה פחד.‬ ‫כולם היו תקועים בבית בזמן מגפה.‬ 453 00:25:09,842 --> 00:25:11,344 ‫כולנו חששנו לחיינו.‬ 454 00:25:11,427 --> 00:25:13,805 ‫אף אחד לא באמת ידע במה לבטוח או להאמין,‬ 455 00:25:13,888 --> 00:25:15,807 ‫אז זה מה שהחברה שלנו עושה.‬ 456 00:25:15,890 --> 00:25:20,311 ‫כן, בתקופת המגפה המדיה החברתית‬ ‫בהחלט הייתה בזמנה הגרוע ביותר.‬ 457 00:25:21,229 --> 00:25:23,189 ‫מפשטת דברים יתר על המידה.‬ 458 00:25:23,273 --> 00:25:24,649 ‫זה כל כך מפחיד אותי‬ 459 00:25:25,149 --> 00:25:28,236 ‫שאני חושב על דמוקרטיה‬ ‫כוויכוח על סדרה של נושאים‬ 460 00:25:28,319 --> 00:25:32,574 ‫בניגוד להפרדה מוחלטת בין "אנחנו" ו"הם",‬ 461 00:25:32,657 --> 00:25:35,535 ‫ומה אם תהיה לנו מגפה גרועה פי עשרה…‬ 462 00:25:35,618 --> 00:25:38,079 ‫אל תגיד את זה.‬ ‫הם יחשבו שאתה תגרום לה.‬ 463 00:25:38,162 --> 00:25:41,165 ‫נכון. אני עובד על זה.‬ ‫-אל תגיד את זה. תפסיק.‬ 464 00:25:42,959 --> 00:25:45,503 ‫אתה לא יכול לספר לאנשים שמשהו עומד לקרות,‬ 465 00:25:45,587 --> 00:25:47,714 ‫וכשזה יקרה הם יחשבו, "אה!"‬ 466 00:25:47,797 --> 00:25:48,798 ‫זה לא מצחיק?‬ 467 00:25:49,716 --> 00:25:54,137 ‫זה תוכן קצר גרוע שיגיע לכל מקום,‬ ‫מיליוני צפיות, אם אתה אומר את זה.‬ 468 00:25:54,220 --> 00:25:55,054 ‫בסדר.‬ 469 00:25:58,391 --> 00:26:03,187 ‫אני חוקרת היסטוריה משפטית של ימי הביניים,‬ ‫ואני בוחנת איך היסטוריות נוצרות.‬ 470 00:26:03,271 --> 00:26:06,482 ‫אז ההיסטוריות הרשמיות, איך הן נבנות?‬ 471 00:26:06,566 --> 00:26:08,109 ‫אילו חלקים נכנסים לתוכן?‬ 472 00:26:08,943 --> 00:26:11,613 ‫זה תמיד שילוב של גורמים,‬ 473 00:26:11,696 --> 00:26:15,700 ‫אבל לתאוריית קונספירציה‬ ‫תמיד יש בערך את אותו הסיפור.‬ 474 00:26:17,410 --> 00:26:21,289 ‫היה היה פעם‬ ‫זמן שבו היינו מאושרים והכול היה טוב.‬ 475 00:26:22,915 --> 00:26:25,668 ‫היינו בשליטה, והיינו מוגנים,‬ 476 00:26:27,211 --> 00:26:31,382 ‫ואז המפלצות השתלטו,‬ ‫אבל אף אחד לא ידע שהן השתלטו.‬ 477 00:26:32,550 --> 00:26:37,347 ‫הכול נראה בסדר‬ ‫כי המפלצות דאגו שכל זה יישמר בסוד.‬ 478 00:26:37,430 --> 00:26:41,517 ‫הן יכלו לשנות צורות וגדלים,‬ ‫והן יכלו להיראות כמו כל דבר שהוא.‬ 479 00:26:42,310 --> 00:26:46,397 ‫אבל העניין עם המפלצות האלה‬ ‫הוא שהן שולטות בתקשורת.‬ 480 00:26:46,481 --> 00:26:48,524 ‫הן שולטות בתדמית שלהן,‬ 481 00:26:48,608 --> 00:26:52,403 ‫ולכן רק מעט מאוד אנשים‬ ‫יכולים ממש לראות את המפלצות האלה.‬ 482 00:26:52,987 --> 00:26:54,989 ‫ואם אתם מיוחדים,‬ 483 00:26:55,073 --> 00:26:58,618 ‫תוכלו לזהות את המפלצות‬ ‫לא משנה איך הן נראות.‬ 484 00:27:00,620 --> 00:27:03,373 ‫רק גיבורי הסיפור ידעו את האמת‬ 485 00:27:03,456 --> 00:27:05,500 ‫ואז הם הגיעו כדי להציל את העולם.‬ 486 00:27:05,583 --> 00:27:07,794 ‫ברור שזה סיפור משכנע.‬ 487 00:27:07,877 --> 00:27:10,296 ‫אני קוטלת דרקונים? כן, אני בעניין!‬ 488 00:27:10,380 --> 00:27:15,134 ‫ואז הגיע מכשיר קסום שנקרא האינטרנט.‬ 489 00:27:16,844 --> 00:27:18,638 ‫זו אגדה על מי שאתה,‬ 490 00:27:18,721 --> 00:27:21,599 ‫וזה מעין סיפור מסע גיבורים על עצמך,‬ 491 00:27:21,683 --> 00:27:27,772 ‫והליבה של תאוריית קונספירציה‬ ‫היא הדרך שבה היא עוזרת לך לראות את עצמך.‬ 492 00:27:28,356 --> 00:27:33,528 ‫זה היה קרב של טוב נגד רע,‬ ‫וככה הם ראו את העולם.‬ 493 00:27:34,654 --> 00:27:35,780 ‫הסוף.‬ ‫-הסוף.‬ 494 00:27:36,656 --> 00:27:38,116 ‫זה ספר מוזר.‬ 495 00:27:38,199 --> 00:27:41,494 ‫שנקרא אותו שוב?‬ ‫-לא!‬ 496 00:27:41,577 --> 00:27:43,079 ‫בסדר.‬ 497 00:27:45,915 --> 00:27:47,792 ‫- משרדי "גייטס ונצ'רס" -‬ 498 00:27:47,875 --> 00:27:50,294 ‫התחלנו לעקוב באופן מבני אחר מידע מוטעה‬ 499 00:27:50,378 --> 00:27:52,046 ‫רק בתחילת המגפה.‬ 500 00:27:52,130 --> 00:27:53,631 ‫שלום.‬ ‫-היי, ביל.‬ 501 00:27:53,715 --> 00:27:54,549 ‫היי.‬ ‫-היי, ביל.‬ 502 00:27:54,632 --> 00:27:57,009 ‫אני חושב שהחשש הגדול ביותר של ביל‬ ‫הוא מידע מוטעה‬ 503 00:27:57,093 --> 00:27:59,345 ‫לגבי הנושאים והבעיות שהוא עובד עליהם.‬ 504 00:27:59,429 --> 00:28:03,307 ‫אם זה שינוי האקלים, מוכנות למגפה,‬ ‫בריאות עולמית באופן רחב יותר,‬ 505 00:28:03,391 --> 00:28:06,394 ‫אנחנו רק צריכים להיות מוכנים‬ ‫למה שקורה בתחום הזה.‬ 506 00:28:06,477 --> 00:28:10,106 ‫אנחנו נסביר לך משהו שעוד לא ראית.‬ 507 00:28:10,189 --> 00:28:12,775 ‫אנחנו נראה לך‬ ‫כמה מהדברים הפופולריים עכשיו,‬ 508 00:28:12,859 --> 00:28:15,903 ‫ואני גם צריך להתנצל.‬ ‫חלק מהדברים האלה אפלים.‬ 509 00:28:15,987 --> 00:28:18,948 ‫אז אילו הייתה קשת‬ ‫של מה שקרה במידע מוטעה,‬ 510 00:28:19,031 --> 00:28:20,950 ‫פעם היה מדובר בנושאים נפרדים,‬ 511 00:28:21,033 --> 00:28:24,120 ‫ומה שקרה הוא שאנשים הצליחו מאוד‬ 512 00:28:24,203 --> 00:28:27,081 ‫לשלב בין דברים‬ ‫ולהרכיב תאוריות קונספירציה עצומות‬ 513 00:28:27,165 --> 00:28:29,834 ‫שכוללות מיקרו-שבבים, אדמה חקלאית,‬ 514 00:28:29,917 --> 00:28:33,045 ‫טכנולוגיית חיסונים,‬ ‫ונוגעות לשליטה בענייני העולם.‬ 515 00:28:33,129 --> 00:28:37,258 ‫אז זה לוח מחוונים בזמן אמת‬ ‫של כל המידע המוטעה עליך.‬ 516 00:28:37,759 --> 00:28:39,844 ‫אז מה שאתה רואה עכשיו‬ 517 00:28:39,927 --> 00:28:44,974 ‫הם כל הפוסטים והנושאים‬ ‫שתורמים לכל הנפח הזה.‬ 518 00:28:45,057 --> 00:28:47,602 ‫אבל אני תוהה אם יש דברים‬ ‫כמו המיקרו-שבבים,‬ 519 00:28:47,685 --> 00:28:49,979 ‫זה ירד לאפס, או שזה עדיין שם?‬ ‫-לא.‬ 520 00:28:50,605 --> 00:28:54,192 ‫זה בערך רבע מהרבה מהחלקים האלה.‬ 521 00:28:54,692 --> 00:28:56,652 ‫זה אחד די מעניין.‬ 522 00:28:56,736 --> 00:28:59,447 ‫הקו הכחול הזה הוא רק על אקלים.‬ 523 00:29:00,281 --> 00:29:03,701 ‫הרבה מזה הוא על שליטה באספקת המזון.‬ 524 00:29:03,785 --> 00:29:05,828 ‫תן לי לגלול קצת לכאן.‬ 525 00:29:06,496 --> 00:29:09,749 ‫אז במסגרת השמועות‬ ‫ותאוריות הקונספירציה שמתפתחות,‬ 526 00:29:09,832 --> 00:29:13,836 ‫יש תאוריה שלפיה‬ ‫אתה הנדסת קרציות שכשהן נושכות אנשים,‬ 527 00:29:13,920 --> 00:29:17,215 ‫הן גורמות להם להיות אלרגיים לבשר מסורתי,‬ 528 00:29:17,298 --> 00:29:22,136 ‫ולפי התאוריה הזו ‬ ‫זה נועד להגביר את הביקוש לבשר סינתטי.‬ 529 00:29:22,220 --> 00:29:26,933 ‫כפי הנראה 450,000 אמריקאים‬ ‫ננשכו על ידי הקרציות האלה,‬ 530 00:29:27,016 --> 00:29:30,353 ‫ועכשיו הם יעברו לתחליפי בשר,‬ 531 00:29:30,436 --> 00:29:33,981 ‫וזה חלק מתוכנית הפקעת מחירים‬ ‫של בשרים סינתטיים.‬ 532 00:29:34,065 --> 00:29:35,775 ‫ברור שהאופי המוזר של זה,‬ 533 00:29:35,858 --> 00:29:39,612 ‫אני חושב שמשתפים את זה באופן נרחב יותר‬ ‫כי זה פשוט מדהים כל כך‬ 534 00:29:39,695 --> 00:29:42,490 ‫שאנשים נורמליים חושבים, "זה מטורף",‬ 535 00:29:42,573 --> 00:29:45,076 ‫וזה נחשב כדבר ניטרלי או חיובי.‬ 536 00:29:45,159 --> 00:29:48,120 ‫אני שמח שאתה צוחק.‬ ‫אני חשבתי שזה מדכא במיוחד.‬ 537 00:29:48,204 --> 00:29:51,123 ‫אבל מעניין לדעת איך נלחמים בזה,‬ 538 00:29:51,749 --> 00:29:54,585 ‫כי הרבה דרכים להילחם‬ ‫יכולות אפילו להחמיר את המצב.‬ 539 00:29:54,669 --> 00:29:57,088 ‫נכון. שמנו לב שאם עושים בדיקת עובדות,‬ 540 00:29:57,171 --> 00:30:00,132 ‫לעיתים קרובות‬ ‫זה רק מדגיש את הסיפור לאנשים נוספים.‬ 541 00:30:00,216 --> 00:30:01,217 ‫כן.‬ 542 00:30:01,300 --> 00:30:03,719 ‫אני אוהב את מקבץ המילים הזה. זה נהדר.‬ 543 00:30:03,803 --> 00:30:06,055 ‫כן.‬ ‫-זו רשימת המטלות שלי.‬ 544 00:30:08,474 --> 00:30:11,561 ‫כשמדובר במידע מוטעה, לביל יש עור די עבה.‬ 545 00:30:11,644 --> 00:30:15,773 ‫חלק מהדברים האלה כל כך מטורפים‬ ‫שזה כמעט מצחיק אותו.‬ 546 00:30:17,066 --> 00:30:18,860 ‫אבל כשמדברים עם ביל,‬ 547 00:30:18,943 --> 00:30:22,613 ‫אני חושב שהוא תוהה מאוד לגבי מידע מוטעה,‬ 548 00:30:22,697 --> 00:30:27,368 ‫כי עדיין לא ברור איך נטפל בבעיה‬ 549 00:30:27,451 --> 00:30:30,288 ‫בדרך שהיא מערכתית ויסודית.‬ 550 00:30:30,788 --> 00:30:31,831 ‫בזמן המגפה,‬ 551 00:30:31,914 --> 00:30:35,835 ‫צפינו בסרטונים‬ ‫של אנשים בבית החולים שאומרים,‬ 552 00:30:35,918 --> 00:30:37,753 ‫"עכשיו אני רוצה את החיסון",‬ 553 00:30:37,837 --> 00:30:41,132 ‫וראינו איך מסבירים להם‬ ‫שזה פשוט מאוחר מדי.‬ 554 00:30:42,633 --> 00:30:45,094 ‫אפשר לייחס מיליוני מקרי מוות‬ 555 00:30:45,177 --> 00:30:48,723 ‫להשלכות של חלק מהמידע המוטעה הזה.‬ 556 00:30:49,223 --> 00:30:55,271 ‫פשוט קשה לעכל את זה בראש ובלב.‬ 557 00:30:58,774 --> 00:31:02,945 ‫כשהייתי בשנות ה-20 המוקדמות שלי,‬ ‫הייתה שמועה שאני גבר,‬ 558 00:31:03,654 --> 00:31:05,990 ‫ונסעתי בכל רחבי העולם.‬ 559 00:31:06,073 --> 00:31:10,244 ‫נסעתי לסיורי הופעות,‬ ‫כדי לקדם את התקליטים שלי,‬ 560 00:31:10,328 --> 00:31:13,956 ‫וכמעט בכל ריאיון שהיה לי,‬ ‫אמרו, "את יודעת, אנחנו…"‬ 561 00:31:14,040 --> 00:31:17,001 ‫היה תצלום מזויף באינטרנט.‬ 562 00:31:17,084 --> 00:31:17,919 ‫וואו.‬ 563 00:31:18,002 --> 00:31:22,715 ‫ואמרו, "יש שמועה שאת גבר.‬ ‫מה יש לך לומר על זה?"‬ 564 00:31:22,798 --> 00:31:24,884 ‫את גולשת ברשת לפעמים, ליידי גאגא?‬ 565 00:31:24,967 --> 00:31:27,720 ‫אני משתדלת שלא.‬ ‫-כן. היא מלאה בשמועות מטורפות.‬ 566 00:31:27,803 --> 00:31:28,721 ‫באמת?‬ ‫-כן.‬ 567 00:31:30,181 --> 00:31:32,642 ‫תרצי לשמוע כמה?‬ ‫-אני בטוחה שאין לי ברירה.‬ 568 00:31:33,643 --> 00:31:37,605 ‫מישהו אמר שליידי גאגא‬ ‫היא בעצם בחור צעיר מצויד היטב.‬ 569 00:31:37,688 --> 00:31:40,566 ‫מה עם השמועות המטורפות‬ ‫על זה שאת הרמאפרודיט?‬ 570 00:31:40,650 --> 00:31:42,443 ‫מה את מרגישה כשאת קוראת את זה?‬ 571 00:31:43,402 --> 00:31:46,113 ‫זה מעניין. אמנים רבים היו מפרסמים הצהרה,‬ 572 00:31:46,197 --> 00:31:48,532 ‫"זה לגמרי לא נכון". את משתעשעת בזה.‬ 573 00:31:48,616 --> 00:31:50,743 ‫למה שאני אבזבז את הזמן שלי‬ 574 00:31:50,826 --> 00:31:53,579 ‫ואמסור הודעה לתקשורת‬ ‫על האם יש לי פין או לא?‬ 575 00:31:53,663 --> 00:31:55,748 ‫למעריצים שלי לא אכפת וגם לי לא.‬ 576 00:31:56,290 --> 00:31:58,584 ‫הסיבה שלא עניתי על השאלה היא…‬ 577 00:31:59,377 --> 00:32:02,797 ‫שלא הרגשתי כמו קורבן עם השקר הזה,‬ 578 00:32:03,381 --> 00:32:06,926 ‫אבל חשבתי, מה עם ילד שמאשימים אותו בזה‬ 579 00:32:07,009 --> 00:32:10,179 ‫שיחשוב שדמות ציבורית כמוני תרגיש בושה?‬ 580 00:32:10,763 --> 00:32:13,933 ‫אני מניחה שמה שאני אומרת זה שהייתי במצבים‬ 581 00:32:14,016 --> 00:32:17,687 ‫שבהם תיקון שמועה לא היה לטובת…‬ 582 00:32:17,770 --> 00:32:20,398 ‫חשבתי על רווחתם של אנשים אחרים.‬ 583 00:32:21,107 --> 00:32:22,149 ‫אז במקרה כזה‬ 584 00:32:22,233 --> 00:32:25,152 ‫אני מנסה לעורר מחשבה ולהטריד בדרך אחרת.‬ 585 00:32:25,236 --> 00:32:29,365 ‫מנסה להשתמש במידע המוטעה‬ ‫כדי ליצור עוד טענה מטרידה.‬ 586 00:32:29,949 --> 00:32:34,203 ‫אנשים, אני חושבת,‬ ‫מניחים שמישהי כמוני שמופיעה,‬ 587 00:32:34,286 --> 00:32:37,081 ‫שההופעה שלי היא מה שלא אמיתי,‬ 588 00:32:37,164 --> 00:32:41,002 ‫אבל בשבילי זה הדבר הכי אמיתי שתראה עליי.‬ 589 00:32:41,085 --> 00:32:42,586 ‫זה הרבה יותר אמיתי‬ 590 00:32:42,670 --> 00:32:49,427 ‫מכל השמועות שנועדו להקיף אותי‬ ‫כדי להשיג עוד קליקים.‬ 591 00:32:49,510 --> 00:32:50,344 ‫כן.‬ 592 00:32:52,972 --> 00:32:55,725 ‫אתה חושב שיש לנו טקטיקה להפחית את זה?‬ 593 00:32:55,808 --> 00:33:01,022 ‫זה נושא רגיש מאוד כי אנחנו רוצים לוודא‬ 594 00:33:01,105 --> 00:33:03,983 ‫שיש אלמנט חזק מאוד של חופש הביטוי.‬ 595 00:33:04,775 --> 00:33:09,613 ‫רק שחופש הביטוי לא מאפשר‬ ‫שתצעק "שרפה" באולם קולנוע,‬ 596 00:33:09,697 --> 00:33:12,658 ‫אז אתה צריך לשקול מחדש‬ ‫מה אתה יכול לעשות בקשר לזה?‬ 597 00:33:12,742 --> 00:33:13,743 ‫מחקר חדש טוען‬ 598 00:33:13,826 --> 00:33:17,747 ‫שייתכן ש"טיקטוק" מקדם תוכן מזיק‬ ‫למשתמשים הצעירים שלו.‬ 599 00:33:18,330 --> 00:33:19,832 ‫בעיקרון צריך לבחור.‬ 600 00:33:19,915 --> 00:33:24,795 ‫האם טועים לכיוון של חופש הביטוי,‬ 601 00:33:24,879 --> 00:33:30,384 ‫או שטועים לכיוון הרצון להסיר תוכן מזיק?‬ 602 00:33:31,677 --> 00:33:34,472 ‫נראה לי שיש הפרה חמורה מאוד‬ ‫של התיקון הראשון‬ 603 00:33:34,555 --> 00:33:37,391 ‫מבחינת מידת השליטה‬ ‫שהייתה לממשלה על טוויטר הישן,‬ 604 00:33:37,475 --> 00:33:39,435 ‫וכבר אין לה שליטה,‬ 605 00:33:39,518 --> 00:33:42,021 ‫אז יש סיבה לקיומו של התיקון הראשון.‬ 606 00:33:42,104 --> 00:33:45,816 ‫אני לא צריכה הרצאה על חופש הביטוי‬ ‫מאילון מאסק. אני לא.‬ 607 00:33:46,400 --> 00:33:49,945 ‫הוא רק מחליט מתי הוא יקדם‬ ‫חופש ביטוי בפלטפורמה שבבעלותו.‬ 608 00:33:50,029 --> 00:33:52,239 ‫חופש הביטוי לא נהגה לקנה מידה כזה,‬ 609 00:33:52,323 --> 00:33:55,493 ‫ולכן הוא נותן כוח עצום לשחקנים חורשי רעה.‬ 610 00:33:58,370 --> 00:34:02,792 ‫לעיתים קרובות אני חוזרת‬ ‫לתיק משפטי בשם פאקר נגד יוטה.‬ 611 00:34:02,875 --> 00:34:06,670 ‫יוטה הוציאה מחוץ לחוק‬ ‫תליית פרסומות לטבק במדינה,‬ 612 00:34:06,754 --> 00:34:08,839 ‫ופאקר, שהייתה חברת טבק, אמרה,‬ 613 00:34:08,923 --> 00:34:12,134 ‫"יש לנו זכויות של חופש הביטוי.‬ ‫מותר לנו לתלות פרסומת."‬ 614 00:34:12,218 --> 00:34:14,220 ‫התיק הגיע לבית המשפט העליון,‬ 615 00:34:14,303 --> 00:34:16,889 ‫ופסק הדין נכתב על ידי השופט ברנדייס,‬ 616 00:34:17,598 --> 00:34:19,767 ‫והוא בעצם טען‬ 617 00:34:19,850 --> 00:34:23,145 ‫שעצם תליית הפרסומת‬ ‫על שלט חוצות במרחב קהילתי‬ 618 00:34:23,229 --> 00:34:25,773 ‫יצרה תנאים שבהם אנשים נאלצו להפנות מבט.‬ 619 00:34:25,856 --> 00:34:27,316 ‫הם נאלצו להסיט את מבטם.‬ 620 00:34:27,399 --> 00:34:30,569 ‫נתת יותר מדי זכויות לחוק חופש הדיבור‬ 621 00:34:30,653 --> 00:34:32,071 ‫ולא מספיק למאזין.‬ 622 00:34:32,655 --> 00:34:36,575 ‫מדיה חברתית היא לא שאלה‬ ‫של ביטוי או מעשי ביטוי.‬ 623 00:34:36,659 --> 00:34:38,202 ‫זו שאלה של הגברה.‬ 624 00:34:38,285 --> 00:34:42,623 ‫אם אבחר להירשם למידע שלך, בסדר,‬ 625 00:34:42,706 --> 00:34:45,167 ‫אבל מה זה אומר להיאלץ לראות?‬ 626 00:34:45,251 --> 00:34:46,752 ‫אלה דברים שונים.‬ 627 00:34:48,504 --> 00:34:51,132 ‫זכותך להיות אידיוט, זכותך לשנוא,‬ 628 00:34:51,215 --> 00:34:54,426 ‫אתה יכול לעשות את זה,‬ ‫והתוכן יכול להמשיך להתקיים.‬ 629 00:34:54,510 --> 00:34:58,222 ‫הוא יכול להיות בפלטפורמה.‬ ‫אנשים שרוצים לחפש אותו ימצאו אותו,‬ 630 00:34:58,305 --> 00:35:00,558 ‫אבל הפלטפורמה לא מחויבת בשום אופן‬ 631 00:35:00,641 --> 00:35:02,768 ‫לדחוף אותו לפיד אלגוריתמי.‬ 632 00:35:03,644 --> 00:35:06,730 ‫אז השאלה הזו, מי קובע איפה עובר הגבול‬ 633 00:35:06,814 --> 00:35:10,359 ‫בין זכותך לחופש הביטוי‬ ‫ובין נזק בעולם האמיתי,‬ 634 00:35:10,442 --> 00:35:13,320 ‫אני חושבת שהיא השאלה של העת הזאת.‬ 635 00:35:13,404 --> 00:35:15,573 ‫- שולחן עגול בנושא מידע מוטעה‬ ‫סטנפורד -‬ 636 00:35:15,656 --> 00:35:20,077 ‫כל מה שנבנה היום נבנה בעידן הקיטוב,‬ 637 00:35:20,161 --> 00:35:22,496 ‫שזה משהו, כפי שאנשי מדעי החברה ציינו,‬ 638 00:35:22,580 --> 00:35:23,956 ‫שקדם לאינטרנט.‬ ‫-כן.‬ 639 00:35:24,039 --> 00:35:27,877 ‫אנחנו מדברים על מידע מטעה,‬ ‫שמועות, מידע מוטעה,‬ 640 00:35:27,960 --> 00:35:30,254 ‫וזה נהיה אישי עבור אנשים מסוימים.‬ 641 00:35:30,796 --> 00:35:33,007 ‫מר גייטס, ראית את זה קורה?‬ 642 00:35:33,090 --> 00:35:37,303 ‫זה היה משהו שהיית מודע לו,‬ ‫או שזו הייתה תופעה מפתיעה לחלוטין?‬ 643 00:35:37,887 --> 00:35:44,768 ‫לא חשבתי שהעולם הדיגיטלי‬ ‫יאפשר לאנשים להתקבץ‬ 644 00:35:44,852 --> 00:35:48,898 ‫וליהנות מדברים‬ ‫שהם לעיתים קרובות לא אמיתיים,‬ 645 00:35:48,981 --> 00:35:51,567 ‫אז אני בעצם די מודאג לגבי זה.‬ 646 00:35:51,650 --> 00:35:53,861 ‫והאם זה משהו שרק יחמיר בעתיד,‬ 647 00:35:53,944 --> 00:35:56,906 ‫או שתהיה נקודת מפנה כלשהי‬ ‫שבה אולי המצב ישתפר קצת?‬ 648 00:35:57,448 --> 00:36:00,451 ‫אני חושבת שיש בעיות טכנולוגיות‬ ‫ובעיות חברתיות,‬ 649 00:36:00,534 --> 00:36:02,077 ‫וברור שיש הצטלבות,‬ 650 00:36:02,161 --> 00:36:04,622 ‫ומכיוון שהמדיה החברתית‬ ‫הכניסה את כולם לאותם חללים,‬ 651 00:36:04,705 --> 00:36:07,249 ‫שמה אותם באותה תשתית, יש דינמיקה מעניינת‬ 652 00:36:07,333 --> 00:36:09,585 ‫לפיה כמה המלצות והחלטות אוצרות תוכן,‬ 653 00:36:09,668 --> 00:36:12,796 ‫פשוט כמה החלטות תכנון גרועות‬ ‫נעשו לגמרי בלי כוונה.‬ 654 00:36:14,882 --> 00:36:18,761 ‫הדרך שבה רוב הפלטפורמות משאירות אנשים‬ ‫מקוונים היא במתן תחושת קהילה.‬ 655 00:36:18,844 --> 00:36:21,055 ‫השתמשתי במטפורה של להקות זרזירים.‬ 656 00:36:21,138 --> 00:36:23,349 ‫התנועות של הלהקה, מהירות ומצד לצד.‬ 657 00:36:23,432 --> 00:36:27,394 ‫וזה קורה כי כל ציפור יכולה לראות‬ ‫את שבע הציפורים הכי קרובות אליה.‬ 658 00:36:27,895 --> 00:36:29,396 ‫אז ציפור אחת משנה כיוון,‬ 659 00:36:29,480 --> 00:36:33,150 ‫ואז יש לזה אפקט אשד‬ ‫שבו דברים זזים מהר מאוד,‬ 660 00:36:34,151 --> 00:36:37,029 ‫אבל אין לציפור מושג מה שאר הלהקה עושה.‬ 661 00:36:37,529 --> 00:36:41,659 ‫אתה רואה משהו. הוא מופיע בפיד שלך,‬ ‫ואתה לוחץ על כפתור הלייק,‬ 662 00:36:41,742 --> 00:36:44,787 ‫ואתה לא בהכרח חושב שיש לזה השפעה,‬ 663 00:36:44,870 --> 00:36:48,707 ‫אבל ברגע שאתה נעשה מעורב,‬ ‫אתה מזין עוד מידע על תחומי העניין שלך.‬ 664 00:36:48,791 --> 00:36:51,752 ‫אם אתה בקבוצה נגד חיסונים,‬ ‫אתה תאהב את כמטריילס.‬ 665 00:36:51,835 --> 00:36:54,171 ‫אם אהבת את כמטריילס, הנה כדור ארץ שטוח,‬ 666 00:36:54,255 --> 00:36:58,550 ‫אז זה כל הזמן דוחף לך המלצות‬ ‫כי זה מתחרה על תשומת הלב שלך‬ 667 00:36:58,634 --> 00:37:01,303 ‫מול הפלטפורמות האחרות‬ ‫שעושות את אותו הדבר.‬ 668 00:37:01,387 --> 00:37:03,389 ‫- נגד חיסונים - ספקן לגבי קורונה -‬ 669 00:37:03,472 --> 00:37:07,059 ‫אני חושב שהטעות שעשיתי הייתה‬ ‫שחשבתי שכשאנשים יהיו ברשת,‬ 670 00:37:07,142 --> 00:37:09,478 ‫הם בעיקר ינסו לאסוף עובדות‬ 671 00:37:09,561 --> 00:37:12,648 ‫ויהיה פחות מידע מוטעה.‬ 672 00:37:12,731 --> 00:37:15,192 ‫אבל ככל שאנחנו מתקשרים עם דברים באינטרנט,‬ 673 00:37:15,276 --> 00:37:16,860 ‫אפילו אני,‬ 674 00:37:16,944 --> 00:37:19,113 ‫אם לכתבה יש כותרת שאומרת,‬ 675 00:37:19,196 --> 00:37:23,409 ‫"אנשים שאתה לא מסכים איתם מבחינה פוליטית‬ ‫הם טיפשים יותר משחשבת",‬ 676 00:37:23,492 --> 00:37:28,956 ‫אולי אלחץ על זה ואחשוב,‬ ‫"היי, כן! הם באמת טיפשים. כן."‬ 677 00:37:29,915 --> 00:37:32,918 ‫כתוצאה מזה, כתוצאה מהקיטוב בארצות הברית,‬ 678 00:37:33,002 --> 00:37:36,171 ‫השיחה הזאת הפכה לקרב מפלגתי מאוד‬ 679 00:37:36,255 --> 00:37:37,756 ‫כשזה בעצם קורה בכל העולם.‬ 680 00:37:38,424 --> 00:37:39,466 ‫- קהיר, מצרים -‬ 681 00:37:39,550 --> 00:37:42,428 ‫ב-2010, קבוצות אקטיביסטיות החלו להבין‬ 682 00:37:42,511 --> 00:37:45,347 ‫שהאינטרנט הוא בעצם כלי רב עוצמה לארגון.‬ 683 00:37:45,431 --> 00:37:48,100 ‫זה היה הכי בולט באביב הערבי.‬ 684 00:37:50,978 --> 00:37:53,272 ‫זה העיר ממשלות.‬ 685 00:37:53,355 --> 00:37:57,443 ‫הן כבר לא חשבו על זה כעל אנשים‬ ‫שרק מדברים באינטרנט. זה הפיל משטרים.‬ 686 00:37:57,526 --> 00:38:01,155 ‫אז מה שמתחילים לראות‬ ‫זה ממשלות שמשלבות את האינטרנט‬ 687 00:38:01,238 --> 00:38:03,699 ‫במנגנון התעמולה שלהן.‬ 688 00:38:03,782 --> 00:38:06,827 ‫כלומר, המדינה האסלאמית,‬ ‫הם מפיקים קטעי תעמולה‬ 689 00:38:06,910 --> 00:38:08,829 ‫בכל יום ויום.‬ 690 00:38:09,538 --> 00:38:13,000 ‫מה שדאעש עושה מאוד בגלוי,‬ ‫רוסיה עושה מאוד בחשאי,‬ 691 00:38:13,083 --> 00:38:16,086 ‫ופתאום יש מלחמה של כולם נגד כולם‬ 692 00:38:16,170 --> 00:38:19,089 ‫שבה פלגים שונים נלחמים על תשומת לב והשפעה‬ 693 00:38:19,173 --> 00:38:21,091 ‫ואז על כוח אמיתי בעולם האמיתי.‬ 694 00:38:21,592 --> 00:38:26,055 ‫ראינו מבצעי השפעה‬ ‫שמקורם בערב הסעודית, מצרים, הודו,‬ 695 00:38:26,138 --> 00:38:28,849 ‫פקיסטן, ירדן, בחיי, ארצות הברית.‬ 696 00:38:28,932 --> 00:38:30,225 ‫ארצות הברית.‬ ‫-נכון?‬ 697 00:38:31,018 --> 00:38:34,980 ‫אין מי שלא מנסה לעשות מניפולציה‬ ‫במרחב המידע של האויב שלו,‬ 698 00:38:35,064 --> 00:38:38,400 ‫ושוב, זה קשור לתפיסות ישנות מאוד‬ ‫של מלחמה ושליטה,‬ 699 00:38:38,484 --> 00:38:41,528 ‫שלפיהן אם תפעיל‬ ‫קבוצת אנשים קטנה בתוך מדינה אחת‬ 700 00:38:41,612 --> 00:38:43,697 ‫כך שתילחם בקבוצת אנשים במדינה אחרת,‬ 701 00:38:43,781 --> 00:38:48,202 ‫אתה יכול לערער את האויב שלך‬ ‫אך ורק באמצעות מתחים אמיתיים‬ 702 00:38:48,285 --> 00:38:49,703 ‫שקיימים בעולם.‬ 703 00:38:50,621 --> 00:38:54,333 ‫הנושא הזה של מידע מטעה התגבר באופן עצום‬ 704 00:38:54,416 --> 00:38:58,462 ‫כי אנחנו שטופים ומוצפים במידע.‬ 705 00:38:58,545 --> 00:39:03,092 ‫בקושי יש לנו זמן או מרחב להרהר,‬ ‫שלא לדבר על לעכל משהו לעומק,‬ 706 00:39:03,175 --> 00:39:06,929 ‫וכתוצאה מכך,‬ ‫אנחנו פשוט מקבלים את מה שמגיע אלינו,‬ 707 00:39:07,930 --> 00:39:10,474 ‫ואני חושב שאנשים הם חשדניים וספקניים‬ 708 00:39:10,557 --> 00:39:14,395 ‫כלפי העולם שמוצג בפניהם,‬ ‫אבל אין לנו ברירה אחרת.‬ 709 00:39:16,814 --> 00:39:19,650 ‫בסופו של דבר, זו בעיה חברתית,‬ 710 00:39:19,733 --> 00:39:22,736 ‫ויצטרכו להיות חוקים ותקנות‬ 711 00:39:22,820 --> 00:39:25,823 ‫שיניעו את הפתרון לזה.‬ 712 00:39:27,116 --> 00:39:30,244 ‫מן הסתם, מדינות שונות‬ ‫יתמודדו עם זה בדרכים שונות,‬ 713 00:39:30,327 --> 00:39:33,539 ‫אבל בארה"ב זה מסובך מאוד.‬ 714 00:39:34,498 --> 00:39:37,000 ‫שמעתי אתכם מדברים על הרפורמות שעשיתם,‬ 715 00:39:37,084 --> 00:39:39,420 ‫אבל אני חושב שאתם לא תפתרו את הבעיה.‬ 716 00:39:39,503 --> 00:39:41,797 ‫אני חושב שהקונגרס יצטרך לעזור לכם.‬ 717 00:39:42,423 --> 00:39:48,220 ‫אנחנו כבר לא יכולים לבטוח במטא,‬ ‫ולמען האמת, בכל מדיה חברתית אחרת‬ 718 00:39:48,303 --> 00:39:52,641 ‫שיספקו אמצעי הגנה מהסוג‬ ‫שילדים והורים ראויים להם.‬ 719 00:39:52,724 --> 00:39:57,938 ‫מר צוקרברג, למה שהחברה שלך לא תיתבע על כך?‬ 720 00:39:58,564 --> 00:40:00,107 ‫אתה לא צריך לשאת באחריות?‬ 721 00:40:00,190 --> 00:40:02,776 ‫סנטור, אני חושב שכבר עניתי על זה. זה…‬ 722 00:40:02,860 --> 00:40:05,529 ‫אז תענה שוב. האם תיקח אחריות אישית?‬ 723 00:40:05,612 --> 00:40:07,448 ‫יש כאן משפחות של קורבנות היום.‬ 724 00:40:07,531 --> 00:40:11,618 ‫האם תרצה להתנצל עכשיו‬ ‫בפני הקורבנות שנפגעו מהפוסטים שלך?‬ 725 00:40:11,702 --> 00:40:12,870 ‫תראו לו את התמונות.‬ 726 00:40:14,121 --> 00:40:17,624 ‫אי אפשר לצפות שהם ייקחו אחריות‬ ‫ויפקחו על עצמם.‬ 727 00:40:17,708 --> 00:40:20,919 ‫אנחנו צריכים לבנות מחדש את כל המנגנון‬ 728 00:40:21,003 --> 00:40:23,505 ‫שבתוכו תאגידי הטכנולוגיה האלה יפעלו‬ 729 00:40:23,589 --> 00:40:27,092 ‫כדי להבטיח שהאנשים באמת מוגנים,‬ 730 00:40:27,176 --> 00:40:29,636 ‫במיוחד אלה הפגיעים ביותר בחברה שלנו.‬ 731 00:40:30,429 --> 00:40:35,100 ‫אני מאמין בזירת הגבלת תוכן מבוזרת יותר‬ 732 00:40:35,184 --> 00:40:37,644 ‫שבה למשתמשים תהיה יותר שליטה,‬ 733 00:40:37,728 --> 00:40:42,941 ‫במקום שמארק צוקרברג או אחרים‬ ‫יחליטו שזו המדיניות,‬ 734 00:40:43,025 --> 00:40:45,277 ‫ואז היא תוחל על שני מיליארד איש.‬ 735 00:40:45,360 --> 00:40:49,323 ‫על האינטרנט שילמו משלמי מיסים,‬ ‫אז הם לקחו משהו שאנחנו שילמנו עליו,‬ 736 00:40:49,406 --> 00:40:54,369 ‫ואז הם קיבלו את ההחלטות‬ ‫שמשפיעות על החברה, שבאמת משפיעות,‬ 737 00:40:54,453 --> 00:40:58,081 ‫בין אם זו התמכרות‬ ‫או התקוממות או הקצנה,‬ 738 00:40:58,165 --> 00:41:00,334 ‫אבל אין להם שום אחריות על זה.‬ 739 00:41:00,417 --> 00:41:03,378 ‫לא עשינו כלום לגבי זה. שום דבר. אפס.‬ 740 00:41:06,340 --> 00:41:10,260 ‫אני חושבת שמידע מטעה מונצח על ידי כולנו.‬ 741 00:41:10,344 --> 00:41:11,512 ‫בהחלט.‬ 742 00:41:11,595 --> 00:41:15,307 ‫אני חושבת שזה לא משהו‬ ‫שאפשר סתם להאשים בו את הרשתות החברתיות‬ 743 00:41:15,390 --> 00:41:18,435 ‫על כך שלא וידאו שיש להן שיטות טובות יותר.‬ 744 00:41:18,519 --> 00:41:22,272 ‫אני חושבת שגם אנחנו‬ ‫נצטרך לעמוד בסטנדרטים‬ 745 00:41:22,356 --> 00:41:25,776 ‫של מה שאנחנו מוכנים להנציח‬ ‫בפלטפורמות שלנו.‬ 746 00:41:25,859 --> 00:41:27,945 ‫הפכנו את זה לקל כל כך‬ 747 00:41:29,321 --> 00:41:31,114 ‫לפרסם כל דבר.‬ 748 00:41:31,698 --> 00:41:36,787 ‫אז מישהו שבמגרש המשחקים‬ ‫הוא גס רוח ומגעיל,‬ 749 00:41:37,287 --> 00:41:40,624 ‫טוב, כמה עשרות ילדים שומעים את זה,‬ ‫זה לא נהדר,‬ 750 00:41:41,333 --> 00:41:43,001 ‫אבל יש לקוות שהוא יתבגר.‬ 751 00:41:43,085 --> 00:41:45,629 ‫אבל אתה יושב בבית שלך,‬ 752 00:41:45,712 --> 00:41:49,967 ‫ואם מישהו מטיל ספק‬ ‫בערכים המסורתיים שלך,‬ 753 00:41:50,050 --> 00:41:52,553 ‫אתה פשוט יושב שם ומקליד,‬ 754 00:41:53,095 --> 00:41:56,848 ‫ואז המערכת לוקחת את זה‬ ‫וזה לא רק מגרש המשחקים,‬ 755 00:41:56,932 --> 00:41:58,517 ‫זה מיליוני אנשים.‬ 756 00:41:59,101 --> 00:42:01,562 ‫אז קשה להאשים אנשים ספציפיים‬ 757 00:42:01,645 --> 00:42:05,524 ‫כי זה הטבע האנושי אבל פשוט מוגבר מאוד.‬ 758 00:42:07,150 --> 00:42:09,695 ‫כשאני שומעת אותך מדבר על מגרש המשחקים,‬ 759 00:42:09,778 --> 00:42:11,530 ‫מה שאני חושבת מיד זה‬ 760 00:42:11,613 --> 00:42:15,784 ‫אם מספיק אנשים נמצאים במגרש המשחקים‬ ‫וצועקים זה על זה באותו הזמן,‬ 761 00:42:15,867 --> 00:42:18,245 ‫אני מרגישה שמישהו אולי ירגיע את המצב.‬ 762 00:42:18,328 --> 00:42:19,329 ‫לא, את צודקת.‬ 763 00:42:19,413 --> 00:42:22,374 ‫במגרש המשחקים הזה, אם המצב יצא משליטה,‬ 764 00:42:22,457 --> 00:42:24,626 ‫איזה מבוגר יגיע,‬ 765 00:42:25,127 --> 00:42:29,756 ‫וגם כשאתה תוקף מישהו במגרש המשחקים,‬ ‫אתה יכול לראות את הפנים שלו,‬ 766 00:42:29,840 --> 00:42:32,843 ‫ואולי הוא יבכה או שאולי הוא יברח,‬ 767 00:42:32,926 --> 00:42:37,306 ‫ואתה תחשוב, "זו הייתה הכוונה שלי?‬ ‫גרמתי לאדם הזה להרגיש רע".‬ 768 00:42:37,389 --> 00:42:41,143 ‫בעוד שכשאתה יושב ומקליד,‬ ‫ואתה מרגיש שאתה חכם כל כך,‬ 769 00:42:41,226 --> 00:42:45,897 ‫אתה לא רואה את התגובה האנושית הזאת‬ ‫שגורמת לך לחשוב פעמיים.‬ 770 00:42:48,525 --> 00:42:52,446 ‫נניח שתרצי להבין‬ ‫אנשים עם נקודות מבט שונות,‬ 771 00:42:52,529 --> 00:42:55,157 ‫האם יש דרך כלשהי‬ ‫להיחשף לזה באופן רחב יותר?‬ 772 00:42:55,741 --> 00:42:58,577 ‫כן, הייתי אומרת שאתה חייב‬ ‫לחפש את זה באופן מכוון.‬ 773 00:42:58,660 --> 00:43:02,623 ‫אם אתה רוצה למצוא את הצד השני,‬ ‫אתה חייב ממש לחפש את זה,‬ 774 00:43:02,706 --> 00:43:07,169 ‫כי האלגוריתם מתאים את עצמו לדעות שלך‬ ‫או לתוכן שאתה מעורב בו הכי הרבה.‬ 775 00:43:07,252 --> 00:43:11,298 ‫פשוט נצטרך להיות מודעים אפילו יותר‬ ‫למה שנכון ולמה שלא נכון.‬ 776 00:43:11,798 --> 00:43:15,344 ‫כן, אשמח לקבל קצת מזה מדי פעם‬ 777 00:43:15,427 --> 00:43:17,804 ‫אם באמת יש אנשים מהימין שהם שקולים,‬ 778 00:43:17,888 --> 00:43:21,808 ‫למה הם רואים את זה אחרת,‬ ‫שיבינו את נקודת המבט שלנו.‬ 779 00:43:21,892 --> 00:43:23,935 ‫אשמח להכניס את זה לנושא.‬ ‫-כנ"ל.‬ 780 00:43:24,019 --> 00:43:25,854 ‫אני אוהב להעביר אנשים למרכז.‬ 781 00:43:25,937 --> 00:43:28,273 ‫לכן התאמת האלגוריתם תהיה חשובה מאוד.‬ 782 00:43:28,357 --> 00:43:31,526 ‫אם אוכל לומר לו,‬ ‫"היום ארצה לראות תוכן משני הצדדים.‬ 783 00:43:31,610 --> 00:43:32,986 ‫"אל תתייג אותי כשמאל."‬ 784 00:43:33,070 --> 00:43:37,616 ‫הלוואי שיכולתי לכוון את האלגוריתם ולומר,‬ ‫"אני לא רוצה לראות את זה היום אלא את זה."‬ 785 00:43:37,699 --> 00:43:40,577 ‫אם באמת אוכל לשחק עם זה,‬ ‫זה יהיה ממש כיף.‬ 786 00:43:42,954 --> 00:43:46,416 ‫אז עכשיו הבעיה עם המדיה החברתית היא‬ 787 00:43:46,500 --> 00:43:50,962 ‫שאנחנו למעשה מערערים את האמון‬ ‫באופן רחב יותר בחברה,‬ 788 00:43:51,630 --> 00:43:56,009 ‫וברגע שהאמון מופר,‬ ‫אתה צריך להחליף אותו במשהו.‬ 789 00:43:56,093 --> 00:43:58,261 ‫אתה לא יכול רק להמשיך להיות ספקן‬ 790 00:43:58,762 --> 00:44:01,431 ‫כי הספקנות לא מייצרת ידע.‬ 791 00:44:01,515 --> 00:44:06,645 ‫אם הנחת היסוד היחידה שלך היא‬ ‫שמה שאתה חושב שאתה יודע, אתה לא יודע,‬ 792 00:44:06,728 --> 00:44:10,524 ‫אי אפשר בעצם להמשיך משם.‬ ‫זה לא מוביל אותך לשום כיוון.‬ 793 00:44:10,607 --> 00:44:13,610 ‫זו כבר לא קונספירציה‬ ‫כשאתה עושה שיעורי בית בעצמך.‬ 794 00:44:13,694 --> 00:44:15,737 ‫אתה מנסה לתפוס אותנו כי ברור שאתה לא,‬ 795 00:44:15,821 --> 00:44:18,073 ‫מנסה לגרום לנו להיראות רעים,‬ ‫אבל אתה זה שרע.‬ 796 00:44:18,156 --> 00:44:20,701 ‫אני לא שומע אותך כי יש לך מסכה מטופשת.‬ 797 00:44:21,660 --> 00:44:25,497 ‫עכשיו רואים קונספירציות‬ ‫מהסוג שאין לו תאוריות‬ 798 00:44:25,580 --> 00:44:28,250 ‫כמעט מחליפות‬ ‫את תאוריות הקונספירציה האמיתיות.‬ 799 00:44:28,333 --> 00:44:30,752 ‫"הם נגדנו."‬ 800 00:44:30,836 --> 00:44:33,880 ‫התאוריה שמסבירה‬ ‫למה הם לא רוצים שתדע נעדרת לחלוטין.‬ 801 00:44:33,964 --> 00:44:37,718 ‫הסיבה ש"הם" עושים את זה אפילו לא נדונה.‬ 802 00:44:38,218 --> 00:44:40,762 ‫נראה לי שאנחנו מגיעים‬ ‫לכמה נקודות מפנה כאן‬ 803 00:44:40,846 --> 00:44:42,472 ‫שבהן רבים מאיתנו מכירים בכך‬ 804 00:44:42,556 --> 00:44:46,393 ‫שהמערכת הנוכחית כפי שהיא מציפה אותנו.‬ 805 00:44:46,476 --> 00:44:50,522 ‫היא מבודדת אותנו. היא מפצלת אותנו.‬ ‫היא קצת משגעת את כולנו.‬ 806 00:44:50,605 --> 00:44:55,277 ‫ביל גייטס מחשיב את עצמו לאלוהים,‬ ‫כשולט במערכת השמש,‬ 807 00:44:55,360 --> 00:44:59,489 ‫ולכן ביל גייטס תומך עכשיו‬ ‫במשהו שנקרא טכנולוגיית עמעום השמש.‬ 808 00:44:59,573 --> 00:45:04,745 ‫תודה, ביל גייטס, שניסית‬ ‫פאקינג לרמות אותנו שזה שלג אמיתי.‬ 809 00:45:04,828 --> 00:45:05,996 ‫שלג פאקינג נמס.‬ 810 00:45:09,291 --> 00:45:10,625 ‫מה אפשר לעשות?‬ 811 00:45:11,209 --> 00:45:13,086 ‫אני לא יכול לתת לזה להפריע לי‬ 812 00:45:13,170 --> 00:45:18,258 ‫שיש אנשים שיש להם‬ ‫אפילו דעה שלילית ביותר על העבודה שלי,‬ 813 00:45:18,341 --> 00:45:23,221 ‫אבל אני צריך רמה מסוימת של קבלה‬ ‫כדי להיות מסוגל לשמש שותף לממשלות‬ 814 00:45:23,305 --> 00:45:26,683 ‫ולפילנתרופים אחרים‬ ‫ולגייס את המדענים הטובים ביותר.‬ 815 00:45:26,767 --> 00:45:31,188 ‫אז כל דבר שמתחיל לערער‬ ‫את ההבנה של מה שאנחנו עושים,‬ 816 00:45:31,271 --> 00:45:33,482 ‫של מה שהשגנו, הוא בעייתי.‬ 817 00:45:34,316 --> 00:45:36,651 ‫אתה חושב שאנחנו נכנסים עכשיו לעידן‬ 818 00:45:36,735 --> 00:45:40,781 ‫שבו החזרת האנושיות לדברים תהיה אפשרית?‬ 819 00:45:41,490 --> 00:45:44,951 ‫כן, אבל חלקית,‬ ‫זה לא שיש לי תוכנית ספציפית.‬ 820 00:45:45,035 --> 00:45:46,161 ‫בחייך, ביל.‬ 821 00:45:47,245 --> 00:45:49,998 ‫לא, אני…‬ ‫הדרך הכי טובה שלי להתחמק היא לומר,‬ 822 00:45:50,081 --> 00:45:52,250 ‫"היי, הדור שלי עשה הרבה דברים,‬ 823 00:45:52,334 --> 00:45:55,962 ‫"אבל נתנו במתנה לדור הבא קצת בלגן."‬ 824 00:45:56,046 --> 00:45:58,548 ‫יש לנו קטע של קיטוב דיגיטלי‬ 825 00:45:58,632 --> 00:46:01,676 ‫שהוא מכריע בהרבה מנושא הגישה למידע,‬ 826 00:46:02,219 --> 00:46:06,473 ‫והיי, אנשים צעירים, תמציאו כללים חדשים.‬ 827 00:46:06,556 --> 00:46:07,390 ‫כן.‬ 828 00:46:07,474 --> 00:46:11,436 ‫או תתחרו על מצוינות, אל תתחרו על טירוף,‬ 829 00:46:12,062 --> 00:46:16,107 ‫אבל אני מרגיש רע שאין לי את הפתרון.‬ 830 00:46:18,401 --> 00:46:22,239 ‫אז לסטודנטים כאן, שרובכם בני דור ה-Z,‬ 831 00:46:22,322 --> 00:46:26,284 ‫אתם חושבים שיש כאן פער דורות‬ ‫בנוגע למידע מטעה?‬ 832 00:46:26,368 --> 00:46:29,246 ‫לא הייתי אומרת שצעירים‬ ‫בהכרח עושים זאת טוב יותר.‬ 833 00:46:29,329 --> 00:46:34,960 ‫אני חושבת שלדורות הצעירים יותר‬ ‫יש עכשיו כמעט תמריץ חברתי לשתף עמדה.‬ 834 00:46:35,043 --> 00:46:37,504 ‫אז אני חושבת‬ ‫שדורות מבוגרים יותר יראו משהו‬ 835 00:46:37,587 --> 00:46:39,965 ‫ויזעמו, ואולי הם ישתפו אותו,‬ 836 00:46:40,048 --> 00:46:44,469 ‫אבל אני חושבת שלצעירים יותר‬ ‫יש תמריץ לשתף את זה ולהעמיד פני מומחים.‬ 837 00:46:44,553 --> 00:46:47,639 ‫אז אני חושבת‬ ‫שזה יכול להיות כמעט מסוכן יותר.‬ 838 00:46:47,722 --> 00:46:50,016 ‫כן, אני ספקני לגבי מה שיש לי בפיד.‬ 839 00:46:50,100 --> 00:46:52,644 ‫אני יודע שאי אפשר לעשות עליי מניפולציה,‬ 840 00:46:52,727 --> 00:46:56,022 ‫אז עם הביטחון הזה אתה פשוט‬ ‫נכנס לאלגוריתמים האלה ואומר,‬ 841 00:46:56,106 --> 00:46:58,275 ‫"כן, תנו לי עוד. תספרו לי עוד על…"‬ 842 00:46:58,358 --> 00:47:00,902 ‫אני אמשיך לדפדף כי לא יעשו עליי מניפולציה.‬ 843 00:47:00,986 --> 00:47:03,405 ‫אחותי הצעירה ביותר‬ ‫צעירה ממני בקרוב לתשע שנים.‬ 844 00:47:03,488 --> 00:47:05,824 ‫היא בת 20, אז היא ממש דור ה-Z,‬ 845 00:47:05,907 --> 00:47:08,410 ‫ואני רואה הבדל עצום אפילו בינינו.‬ 846 00:47:11,037 --> 00:47:13,081 ‫אני נעשה לא מעודכן די מהר.‬ 847 00:47:13,164 --> 00:47:17,335 ‫למשל, פייסבוק, אני מניח שזה לא ממש הקטע.‬ 848 00:47:17,419 --> 00:47:19,671 ‫את נמצאת בו?‬ ‫-אני לא משתמשת בפייסבוק.‬ 849 00:47:19,754 --> 00:47:23,216 ‫וכמה זהויות יש לך במערכת בדרך כלל?‬ 850 00:47:24,259 --> 00:47:25,302 ‫כמה מה?‬ 851 00:47:25,385 --> 00:47:28,138 ‫יש לך כמה דמויות באותה מערכת?‬ 852 00:47:28,221 --> 00:47:30,473 ‫אתה מתכוון לחשבונות? כן, יש לי.‬ 853 00:47:30,557 --> 00:47:32,517 ‫בדרך כלל יש חשבון ציבורי גדול,‬ 854 00:47:32,601 --> 00:47:35,687 ‫ואז יש אחד לקשקושים‬ ‫בשביל החברים הקרובים יותר,‬ 855 00:47:35,770 --> 00:47:37,606 ‫סתם דברים מצחיקים שמעלים.‬ 856 00:47:38,189 --> 00:47:42,444 ‫כן, אני מבין אותך, אבל אני אדם רציני,‬ 857 00:47:42,527 --> 00:47:47,115 ‫אז איך אשמור על האישיות הרצינית‬ ‫בלי להיות בחור משעמם?‬ 858 00:47:47,198 --> 00:47:51,036 ‫אנשים רוצים לראות את האדם‬ ‫שהם לא מבינים, חי את חיי היומיום שלו.‬ 859 00:47:51,119 --> 00:47:53,705 ‫אני מבינה שהרבה פעמים‬ ‫כשאנשים נכנסים לעמוד שלי‬ 860 00:47:53,788 --> 00:47:57,500 ‫הם נכנסים בגלל שם המשפחה שלי‬ ‫או בגלל עניין במשפחה שלנו.‬ 861 00:47:57,584 --> 00:48:01,713 ‫ואז אוכל לשתול שם בין לבין,‬ ‫הרבה פעמים אלה תמונות של הפנים שלי‬ 862 00:48:01,796 --> 00:48:04,758 ‫או כשאני חשופה יותר‬ ‫אני מקבלת יותר לייקים, אבל אני…‬ 863 00:48:04,841 --> 00:48:08,094 ‫לא, אבל אני יכולה לשתול שם‬ ‫דברים על בריאות הרבייה וכאלה.‬ 864 00:48:08,178 --> 00:48:11,139 ‫ואז אנשים לומדים גם את התוכן הזה,‬ 865 00:48:11,222 --> 00:48:13,183 ‫מפני שאני עושה הרבה מהעבודה הזאת‬ 866 00:48:13,266 --> 00:48:15,810 ‫של הפצת מידע על צדק רבייתי‬ 867 00:48:15,894 --> 00:48:18,229 ‫או נשים שמקבלות החלטות בנוגע לגוף שלהן.‬ 868 00:48:18,313 --> 00:48:20,982 ‫אפילו ראיתי את כמות השנאה‬ ‫שאני מקבלת ברשת עולה‬ 869 00:48:21,066 --> 00:48:22,525 ‫מאז שיש לי יותר עוקבים.‬ 870 00:48:22,609 --> 00:48:27,489 ‫את בוחרת להשתמש במדיה החברתית‬ ‫כדי לחנך ולהפעיל.‬ 871 00:48:27,572 --> 00:48:32,619 ‫כן, אז זה גבול דק בין להיות נאה‬ ‫אבל גם לשזור את האג'נדה האמיתית שלך.‬ 872 00:48:32,702 --> 00:48:35,413 ‫הנה המספרים, הנה המדע, הנה העובדות.‬ 873 00:48:35,497 --> 00:48:40,001 ‫פשוט סרטון בשידור חי שבו אתה מדבר‬ ‫במהלך היום שלך יהיה ממש מגניב.‬ 874 00:48:40,085 --> 00:48:40,919 ‫בסדר.‬ 875 00:48:41,002 --> 00:48:44,214 ‫ותסמס לי. אל תשלח לי דוא"ל.‬ ‫-מה הבעיה בדוא"ל?‬ 876 00:48:44,297 --> 00:48:47,050 ‫אף אחד לא משתמש בדוא"ל לתקשורת אישית.‬ 877 00:48:47,133 --> 00:48:50,220 ‫לפני 40 שנה עשינו את זה הרבה.‬ ‫-אני בטוחה.‬ 878 00:48:50,303 --> 00:48:53,556 ‫לא השנה ולעולם לא בעתיד.‬ 879 00:48:56,685 --> 00:48:57,894 ‫יש לך הכול?‬ ‫-כן.‬ 880 00:48:58,395 --> 00:49:00,397 ‫יש לנו את זה. תודה.‬ 881 00:49:01,815 --> 00:49:04,234 ‫אז מה אתה רוצה שאעשה? שאקום ואלך?‬ 882 00:49:04,317 --> 00:49:05,944 ‫תודה.‬ ‫-לא, תודה לך.‬ 883 00:49:06,569 --> 00:49:12,409 ‫הרצון האנושי שלנו להתקיים יחד‬ ‫ולחשוב על המדינה או על העולם‬ 884 00:49:12,492 --> 00:49:17,706 ‫במקום אנחנו נגדם בתוך המדינה, זה אתגר.‬ 885 00:49:18,832 --> 00:49:21,251 ‫שינוי האקלים הוא רק דוגמה אחת‬ 886 00:49:21,334 --> 00:49:23,837 ‫למשהו שאנחנו צריכים לעבוד יחד כדי לפתור.‬ 887 00:49:23,920 --> 00:49:27,507 ‫אבל עכשיו עם מידע מוטעה,‬ ‫ההתקדמות הזו בסכנה,‬ 888 00:49:28,258 --> 00:49:32,804 ‫אבל אני ממש מקווה‬ ‫שנמזער את הנזק ממידע מוטעה‬ 889 00:49:32,887 --> 00:49:36,057 ‫ונמשיך לשפר את מצב האנושות.‬ 890 00:49:37,017 --> 00:49:39,060 ‫אני אגיד שיש כמה דברים שאפשר לעשות‬ 891 00:49:39,144 --> 00:49:42,856 ‫כדי להיות קצת פחות מניאק‬ ‫כלפי האדם שאתה לא מסכים איתו.‬ 892 00:49:42,939 --> 00:49:44,315 ‫אחת, לקרוא ספר.‬ 893 00:49:44,399 --> 00:49:47,527 ‫שב במחשבות שלך לזמן מה‬ ‫ובראש של מישהו אחר לזמן מה.‬ 894 00:49:48,069 --> 00:49:52,657 ‫שתיים, לנסוע. לכל מקום.‬ ‫רק לחוות חוויה אחרת, גם אם זה בהמשך הרחוב.‬ 895 00:49:52,741 --> 00:49:55,076 ‫ושלוש, להודות במשהו.‬ 896 00:49:55,160 --> 00:49:58,496 ‫אתה רוצה לדעת מה אני אחבב במישהו?‬ ‫כשהוא יחשוב שאני צודק,‬ 897 00:49:58,580 --> 00:50:01,291 ‫וכשהוא יוכל להודות בפגיעות,‬ ‫ושהוא עלול לטעות.‬ 898 00:50:01,374 --> 00:50:04,502 ‫ואנחנו אף פעם‬ ‫לא מנהלים שיחות שיש בהן הודאות.‬ 899 00:50:04,586 --> 00:50:06,880 ‫אם ניצור אנשים בריאים מספיק שיגידו,‬ 900 00:50:06,963 --> 00:50:08,923 ‫"אני חושב שאולי טעיתי לגבי זה"…‬ 901 00:50:10,091 --> 00:50:11,426 ‫שביב של תקווה.‬ 902 00:50:46,503 --> 00:50:48,171 ‫תרגום כתוביות: זיוית אוריין‬