Great guests discussing AI and its potential

Subtitle language:
12:12 → 12:13
ו
12:13 → 12:15
קיבלתי.
12:15 → 12:16
כמה.
12:16 → 12:18
אורחים נהדרים כאן.
12:18 → 12:23
אני חושב שאתם מכירים אותי וכמובן את ראש הממשלה.
12:23 → 12:28
אבל אם אתם יכולים להציג את עצמכם ולספר קצת על עצמכם, זה יהיה בסדר, ואתם יודעים את זה.
12:29 → 12:32
שניכם עשיתם דברים מדהימים, אז בבקשה אל תתביישו.
12:33 → 12:38
כמובן, אז אני גרג ברוקמן, אני נשיא ומייסד שותף של "AI פתוח"
12:38 → 12:41
התחלנו לפתוח את הדירה שלי ב
12:42 → 12:44
2015 2016 כך
12:44 → 12:48
כן, זה היה... זה היה ממש מרגש...
12:48 → 12:52
להיות מסוגל לעזור לא רק להזיז את התחום הזה קדימה, אלא לנסות לעזור לכוון אותו בכיוון חיובי
12:52 → 12:58
אני חושב שזה באמת יסוד לאופן שבו אני חושב על AI מה שהרגש אותי בתחום זה הוא העובדה שזה הולך להיות כל כך
12:59 → 13:05
אני חושב שזה יכול להועיל לכולם בדרכים ענקיות, אבל אנחנו גם באמת צריכים להקטין את החיסרונות
13:05 → 13:09
אז אני חושב שזה משהו שבאמת הדהד בי על השיחה הקודמת
13:09 → 13:11
אני מקווה שנדבר על הרבה דברים בדקות הקרובות.
13:11 → 13:17
ומכיוון שגרג היה צנוע מכדי לומר, אז אני הולך להוסיף משהו להציג את עצמך שם.
13:17 → 13:19
וזה היה רק לפני כמה שנים.
13:19 → 13:26
כאשר גרג ועמיתיו אמרו יו בעוד כמה שנים אנחנו יכולים לפעול אנחנו מאמינים שאנחנו יכולים למעשה
13:26 → 13:30
לבנות AI שיכול לשלוט בשפה האנושית
13:30 → 13:36
הרבה מהעמיתים שלי בAI היו כמו
13:37 → 13:40
זה מדע בדיוני מטורף, זה ייקח עשרות שנים
13:41 → 13:43
אבל עשית את זה.
13:43 → 13:45
היה לנו ממש מתמחה ב
13:46 → 13:51
2016 אז הקיץ הראשון שלנו שהיה לנו את השיחה הזאת על איך
13:51 → 13:55
לפתור את מבחן טיורינג והיו לנו את כל הרעיונות האלה ומה שלא יהיה ואנחנו היינו כמו שלוש שנים
13:55 → 14:00
אנחנו נפתור את מבחן טיורינג והמתמחה אמר לי שאני בחוץ כאילו אני לא מצטרף במשרה מלאה כאילו אתם משוגעים
14:00 → 14:04
שלוש שנים לאחר מכן היה לנו GPT 2 אז לא ממש פתרנו את מבחן טיורינג
14:04 → 14:08
אז הוא צדק, אבל אני חושב שעשינו הרבה יותר התקדמות ממה שאני חושב שרוב האנשים חשבו שזה אפשרי
14:09 → 14:12
אז אני מקס Tegmark
14:12 → 14:16
פרופסור שעושה מחקר בינה מלאכותית ב-MIT
14:17 → 14:19
אני...
14:19 → 14:25
אני חושב שזה היה נקודה על מה ששמענו מקודם כאן ממך כי אינטליגנציה מלאכותית
14:26 → 14:29
זה יהיה גם ברכה וגם קללה.
14:29 → 14:30
מאוד.
14:30 → 14:31
במשך זמן רב.
14:31 → 14:33
אני מאוד מתרגש לגבי החלק של הברכה.
14:33 → 14:40
איך אנחנו יכולים להשתמש בו כדי לפתור את כל הבעיות שלא היינו חכמים מספיק לפתור לפני
14:41 → 14:46
לעזור לחיים לפרוח במשך מיליארדי שנים על כדור הארץ ומעבר לו וגם אני למרות
14:46 → 14:50
אני מאוד מודאג לגבי החלק של הקללה, אז לפני תשע שנים, הקמתי את זה
14:51 → 14:57
ארגון ללא מטרות רווח שנקרא "מכון החיים העתידיים" יחד עם אילון, השיקנו את הניסיון הראשון
14:57 → 15:06
בטיחות בינה מלאכותית על ידי פתיחת תוכנית מענקים ברחבי העולם וללמד ולעשות כנסים וכן הלאה שאתה גרג אתה השתתפת וגם
15:06 → 15:14
לוודא שאנחנו יכולים לכוון את הטכנולוגיה הזאת יותר ויותר חזק הרחק מהקללה לכיוון הברכה
15:14 → 15:18
ובכן, אני יכול אני אומר שאני אני רוצה לחבר את הספר הזה
15:20 → 15:22
אתה כתבת את הספר הזה ואני קראתי אותו.
15:24 → 15:27
זה ספר טוב מאוד. האם זה צ'אט GPT או
15:28 → 15:33
יש לי אליבי כי זה לא אפילו גרג היה מהיר מספיק כדי לקבל את זה כתוב על ידי הזמן
15:33 → 15:36
צ'אט GPT עדיין לא מספיק טוב כדי לעשות את זה
15:37 → 15:42
אבל ממה שאני שומע אתכם אומרים שזה טוב.
15:43 → 15:45
טוב, טוב.
15:45 → 15:52
בואו נדבר על זה כי אתה יודע, אני חושב שהסוג של דברים שאתה מביא לכאן הם אני חושב שהם מונומנטליים
15:53 → 15:57
אתה יודע כשאני רואה את הכישרון על הבמה הזאת מלבד עצמי
15:57 → 16:03
כן, אני נזכר מה ג'ון קנדי אמר, אתה יודע, כשהוא הביא את המוכשר שלו
16:04 → 16:11
הוא אמר שזו הקבוצה הכי מוכשרת מאז שהייתה כאן
16:12 → 16:14
תומאס ג'פרסון מת לבד.
16:15 → 16:22
אז אני חושב שאני חושב שאתה עומד להתעלות על זה ואתה משתנה אתה משנה את ההיסטוריה ואני בטוח
16:22 → 16:30
אתה יודע, עם כוח כזה מגיעה אחריות עצומה ואני חושב שזו הליבה של מה שאנחנו מדברים כאן היא איך אנחנו מזריקים
16:31 → 16:34
מידה של אחריות ואתיקה לתוך זה
16:36 → 16:39
לתוך זה משתנה באופן אקספוננציאלי
16:41 → 16:46
פיתוח, איך אתה עושה את זה?
16:47 → 16:51
אני חושב שזה צריך להיות דיון מעניין מאוד ואתה יודע
16:51 → 16:58
אני חושב שאני מכיר כמעט את כולם ב AI ואני חושב שאני באמת לא יכול לחשוב על מישהו שיש לו מוטיבציה רעה
16:59 → 17:01
ואל אני חושב
17:01 → 17:06
לכל מי שאני מכיר בAI יש מוטיבציה טובה. הם רוצים ליצור טכנולוגיה שתעזור לעולם
17:07 → 17:15
אבל אפשר גם לומר, אם חושבים על מישהו כמו איינשטיין, שהיה ללא ספק אדם אוהב שלום,
17:16 → 17:18
אתה יודע, הוא
17:18 → 17:24
הוא לא חשב שתהיה פצצה גרעינית שנוצרה כתוצאה מהגילויים שלו בפיזיקה.
17:25 → 17:30
הוא חשב, בואו ננסה להבין את האמת של היקום
17:31 → 17:34
אז זה פשוט חשוב לי אני תמיד רוצה רק
17:36 → 17:43
הקדמה, אתה יודע כל כל ביקורת על פיתוח AI עם זה לא להיות ביקורת על האנשים שעושים את זה
17:43 → 17:45
אבל אבל רק לזכור כי
17:46 → 17:48
בדיוק כפי שאיינשטיין לא ציפה
17:48 → 17:50
עבודתו בפיזיקה הובילה לנשק גרעיני.
17:52 → 17:56
אנחנו צריכים להיות זהירים שגם עם עם כוונות טובות כוונות הטובות ביותר
17:57 → 18:05
כי אנחנו יכולים ליצור משהו רע כי זה אחד התוצאות האפשריות ואנחנו רוצים לנסות לקחת כל פעולות שאנחנו יכולים
18:06 → 18:10
כדי להבטיח כי העתיד של האנושות הוא טוב וכי AI הוא
18:11 → 18:13
הרבה יותר ברכה מאשר קללה
18:14 → 18:20
כלומר, זו בהחלט הסיבה שאני עובד על זה.
18:21 → 18:25
אבל אני חושב שהאיזון הוא באמת המפתח ואני חושב שאחד הדברים
18:25 → 18:31
חשוב באמת לאזן את הבחירות ביחס לטכנולוגיה, נכון?
18:31 → 18:37
כי אני חושב שלטכנולוגיה הזאת יש דרך להיות מאוד מפתיעה הדרך שבה אנשים מדמיינים את זה כמו שאתה קורא את אסימוב אתה קורא
18:37 → 18:39
סוג של כל מדע בדיוני שאתה קורא
18:40 → 18:45
אליה, אתה קורא את קובסקי וכל החשיבה הזאת שאנשים עושים על מכונות חכמות מאוד מכונות חכמות יותר מבני אדם
18:45 → 18:48
איכשהו אף אחד מהם לא באמת חזה GPT 3
18:48 → 18:52
נכון, איכשהו הטכנולוגיה שאנחנו בונים, היא פשוט מפתיעה.
18:52 → 18:54
יש לו תכונות שונות מאוד ואני חושב ש
18:54 → 19:00
אפילו אם אתם חושבים על זה כמו שחמט, אנשים נהגו לחשוב שחמט יהיה אם נפתור את זה, נפתור את האינטליגנציה האנושית, ומסתבר
19:00 → 19:01
זה הדבר הראשון ללכת ו
19:01 → 19:05
אז אני חושב שמה שאנחנו באמת רואים זה שאנחנו צריכים להיות מבוקרים ולראות לא רק
19:05 → 19:09
מה שהמערכות הנוכחיות עושות, וזו אחת הסיבות שהוצאנו את צ'אט GPT,
19:09 → 19:12
חשוב לא להיכנס לראש שלנו ולחשוב הו, זה איך זה כל הולך לשחק
19:12 → 19:14
ככה אנשים ישתמשו בו לרעה.
19:14 → 19:16
אבל אתה צריך למעשה לראות כי אתה צריך למעשה יש אנשים
19:17 → 19:21
אני מבלה הרבה זמן במחשבה איפה זה עובד, איפה זה לא עובד.
19:21 → 19:25
אבל גם באמת לנסות להציץ קדימה ולכן אנחנו כבר לשים המון מאמץ
19:25 → 19:30
אחד הדברים שאני חושב היה סוג של undersung ב GPT שלנו לשחרור הוא כי למעשה היה לנו טוב מאוד
19:31 → 19:37
התחזיות של בדיוק כמה טוב GPT עבור יהיה לפני אפילו אימנו אותו וזה משהו שאנחנו אף פעם לא יכולים לעשות עם מודלים קודמים
19:37 → 19:42
ואני חושב שזה, ולעשות את זה בקנה מידה חברתי כמו שאני חושב שזו תשובה אחת לשאלה איך אנחנו באמת מקבלים את זה?
19:42 → 19:47
נכון כי אם אתה יכול לראות מעבר לפינה, אז יש לך תשובה ו AI זה תמיד היה ההפך
19:47 → 19:49
תמיד נתפסנו בהפתעה.
19:49 → 19:51
ובכן, אני רוצה לשאול אותך
19:52 → 19:55
כי יש סוג של שכבות של שאלות כאן
19:57 → 20:03
הספר של מקס לוקח אותך לשאלה הקיומית האם אתה יודע, אתה מעלה
20:04 → 20:08
ביסודו של דבר אינטליגנציה מכונה או אינטליגנציה אנושית לתוך היקום
20:09 → 20:10
אנושי
20:10 → 20:16
האינטליגנציה הפכה לאינטליגנציה מכנית לקוסמוס וכן הלאה זו שאלה פילוסופית גדולה
20:16 → 20:18
אני רוצה לחשוב שיש לנו בערך שש שנים בשביל זה.
20:18 → 20:23
אוקיי, אבל השאלות האחרות שאני מתמודד עם הוא מנהיג של מדינה כי הוא
20:24 → 20:26
מבורך עם הרבה כישרון AI
20:27 → 20:31
מדורגת כמספר שני בכישרון ביחס לגודל האוכלוסייה ב-AI
20:32 → 20:38
אבל רציתי להיות בין שלושת הראשונים כי זה חשוב כדי לקדם את המדינה, אבל אני חושב שאני חושב גם עבור
20:39 → 20:41
זה מעלה שאלות שאני
20:41 → 20:44
אבל הנה עוד אחד.
20:45 → 20:53
ג'י.פי.טי. או ג'י.פי.טי. 8 נוצרו ויש לך הוליווד כבר מכה על תסריטאים ו
20:54 → 20:56
מנהלים ושחקנים, בסדר.
20:56 → 21:02
מה אתה חושב שיקרה לשוק העבודה? כלומר, היתה לנו את השיחה הזאת. מה אתה חושב שיקרה?
21:03 → 21:06
אתה יודע, אתה יכול להגיד לי אתה יכול לנחם אותי עם כל הקודם
21:07 → 21:11
מהפכות שהיו יותר מקומות עבודה הרבה יותר מקומות עבודה שנוצרו מאשר אבדו
21:12 → 21:15
כן, אני חושב שזה... אני חושב שזה רחוק מלהיות מובן מאליו.
21:15 → 21:21
אני חושב שזו שאלה נכונה, ואני גם חושב שחשוב להסתכל על התמונה הכוללת של
21:21 → 21:23
בוודאי.
21:23 → 21:25
יש עבודות שהם הולכים ללכת
21:25 → 21:29
מה יהיה האיזון בין יצירת מקומות עבודה שוליים
21:29 → 21:31
זה הולך להיות מאוד מנחם אתה מסתכל על כל הטכנולוגיה הקודמת
21:31 → 21:38
אני חושב שAI הוא לא כמו כל טכנולוגיה קודמת, נכון כי זה בדרך כלל אנחנו סוג של רואים אוטומציה של
21:39 → 21:43
חלקים מכניים של הבריאה וכאן זה כמעט היבט היצירתי הזה של הבריאה
21:43 → 21:48
אבל אני חושב שאנחנו רוצים אפילו ללכת צעד אחד יותר משם היינו צודקים ולא רק לומר, בסדר
21:48 → 21:51
כמו, אתה יודע, יכולתי להיות אמן ועכשיו AI הוא אמן מתחרה
21:51 → 21:57
אבל אתה רוצה AI שיכול לעזור לנו לבוא עם רעיונות ולפתור בעיות שאנחנו פשוט לא יכולנו לפני
21:57 → 22:01
העולם הזה נראה כמו, ואתה יודע, אם העולם שלך לאחר המחסור שבו אנשים לא צריכים לעבוד כדי לשרוד, אתה יודע
22:01 → 22:06
איזה קבוצה של אנשים אתה יודע, זה אנשים אני מזהה את עצמם, אתה יודע, כל הזהות שלך היא סביב העבודה שלך
22:06 → 22:09
אתה מזהה את עצמך בעבודה שלך.
22:09 → 22:12
אז מה יקרה אז ואיך זה ייראה?
22:12 → 22:17
אז אני לא מגיע עם תשובה לשאלה הזאת בדיוק מה יהיה האיזון
22:17 → 22:23
אני חושב שיהיו שינויים יסודיים אפילו באופן שבו אנו מתייחסים לעבודה
22:23 → 22:28
מה שאומר שזה יקרה ויכול להוביל לנוף שנראה שונה מאוד
22:28 → 22:30
זה סוג של, אתה יודע
22:30 → 22:36
אם הייתם ציידים-לקטים ומישהו היה אומר, מה יקרה לעבודה של ציידים-לקטים אחרי המהפכה החקלאית?
22:36 → 22:41
זה פשוט שאלה מוזרה, נכון? זה כמו שהמסגרת משתנה עליך. אז זה לא זה. זה לא התחמקות, נכון?
22:41 → 22:46
אני חושב שזה יכול להיות המקרה שלמעשה הרבה יותר משרות נעלמות מאשר נוצרות ויש הרבה כאוס
22:46 → 22:48
מהומה, אבל אני חושב שאנחנו צריכים להיות לפני זה
22:48 → 22:53
וככל שאנחנו יכולים לחזות את זה יותר כך אנחנו יכולים לקבל תשובות קונקרטיות ויש לנו צוותים שמנסים נכון?
22:53 → 23:00
אבל אני חושב שאנחנו רק מתחילים ואנחנו צריכים עזרה ובכן, זה ישנה את המודלים הכלכליים שלנו אוקיי, אני בחור שוק חופשי ברור
23:01 → 23:05
משוחרר ואני מקווה לשחרר את הכלכלה הישראלית כדי להפוך אותה לסוג של
23:05 → 23:10
כוח טכנולוגי, אבל זה בגלל שווקים חופשיים ושווקים חופשיים אומר תחרות פתוחה וזה בסדר
23:10 → 23:14
אבל תפסיקו עם המונופוליסים ועם קצה המונופוליסים, בסדר?
23:15 → 23:19
היה לי שיחה עם אחד מעמיתיך, פיטר טיל, והוא אמר לי:
23:19 → 23:22
הכל יתרון קנה מידה, הכל מונופול.
23:22 → 23:29
אמרתי, טוב, כן, אני מאמין בזה אבל אני חושב שאנחנו צריכים להפסיק את זה בנקודה מסוימת כי אנחנו לא רוצים לדכא את התחרות
23:29 → 23:32
טוב, בינה מלאכותית יוצרת
23:32 → 23:34
אתה מכיר אותם.
23:34 → 23:37
הקיר הזה ויש לך את אלה
23:39 → 23:43
חברות בשווי טריליון דולר שנוצרו מה לילה אחד?
23:43 → 23:49
והם מרכזים עושר ועוצמה עצומים במספר קטן יותר ויותר של אנשים, בסדר?
23:50 → 23:52
והשאלה היא
23:52 → 23:59
מה אתם עושים עם כוח המונופול הזה? מה אתם עושים עם התחרות?
24:00 → 24:03
אם אתה הולך לטרוף הרבה יותר משרות ממה שאתה יוצר
24:04 → 24:12
אז אנחנו צריכים לשנות את המבנה של המדיניות הכלכלית שלנו ואת המדיניות הפוליטית שלנו כדי לדאוג לאנשים
24:12 → 24:17
שלא ימצאו עבודה או שלא יביאו ערך מוסף לכלכלה
24:17 → 24:22
אנחנו צריכים לוודא שיש להם חיים הגונים ויש להם את כל השירותים
24:22 → 24:25
כנראה יהיה לנו את הכסף לעשות את זה, אבל זה דורש
24:26 → 24:28
מודל מאתגר בהחלט עבור בחור שוק חופשי
24:29 → 24:35
תלמידי שוק חופשי כמוני וזה מגיע מהר מאוד זה לא יבוא לאט ויש לנו זמן להסתגל
24:35 → 24:39
כן, אני אוהב איך שאתה מאתגר את השאלה.
24:39 → 24:45
אני רוצה להמשיך בנושא הזה כי אני חושב שאם נשאל את השאלה הפסיבית הזו
24:45 → 24:52
בוא פשוט נשב כאן ונאכל פופקורן ונחכה לעתיד שיקרה ואז
24:53 → 24:55
אנחנו הולכים ישר לקללה.
24:56 → 24:58
זה סוג של גישה פסיבית מאוד
24:59 → 25:01
ואני חושב שזה פשוט הולך
25:01 → 25:06
אתה יודע, עשינו את הניסוי הזה בעבר כאשר מין חדש הופיע על הפלנטה שהיה חכם יותר מכל האחרים
25:07 → 25:11
מה שקרה היה שהניאנדרטלים נכחדו אם פשוט נלך בצורה פסיבית מאוד לתוך זה
25:11 → 25:17
אני חושב שזה מאוד סביר שבני האדם ייכחדו. אני גם חושב שזו, ואני חושב שזו הגישה הלא נכונה
25:17 → 25:21
אפילו בכלכלה וכשאתה מנהל מדינה אתה לא רק
25:22 → 25:28
לשבת ולחכות לראות מה קורה ולקבל עבודת ילדים והמונופול הסופר של האבדון
25:28 → 25:34
לא, אתה שואל את עצמך מה אתה רוצה שיקרה ואז אתה מייסד מוסדות אתה אוסר על עבודת ילדים
25:34 → 25:41
אתם מכניסים פקודת אימון ובמקרה הזה, אני חושב שהשאלה האנלוגית היא איך אנחנו מבטיחים את זה עם הטכנולוגיה היותר ויותר חזקה?
25:42 → 25:45
אנחנו אלה ששולטים ב-AI.
25:45 → 25:47
במקום להיפך, נכון?
25:47 → 25:51
אז לכבוד היה לי שהספר הזה היה אצלך אם הספר הזה עדיין לא הרדים אותך
25:55 → 25:59
זה אחד נכתב עם JGPT, כן צוות סטיבן מהינדרה על
26:00 → 26:05
גישה טכנולוגית איך אנחנו יכולים לשלוט מכונות כי הם אפילו חכמים יותר מאיתנו על ידי למעשה שיש AI של אחרים
26:06 → 26:08
להוכיח באופן רשמי כי AI הוא בטוח
26:08 → 26:12
והסיבה למה אני כל כך נרגש על החלק ההוכחה היא, אתה יודע
26:12 → 26:15
הדרך היחידה שאתה יכול לסמוך על משהו הרבה יותר חכם ממך
26:16 → 26:21
עדיין לעשות את מה שאתה רוצה אם אתה יכול להוכיח את זה כי לא משנה כמה חכם זה
26:21 → 26:26
זה אף פעם לא יכול לעשות את מה שהוא בלתי אפשרי הוכח וזה מתברר שהוא סופר
26:26 → 26:31
זה הרבה יותר קשה לבוא עם הוכחות על מתמטיקה או על מה תוכנית הולכת לעשות
26:32 → 26:37
אז זה כדי לבדוק שההוכחה נכונה. אתה יכול לכתוב תוכנית מחשב 300 שורה
26:37 → 26:41
אשר יבדוק כל ראיה טוענת כל דבר על כל דבר אחר?
26:42 → 26:48
אנחנו יכולים להבין את זה אם אנחנו... אם אנחנו מכריחים את AI להוכיח דברים לעצמנו לנו בני אדם
26:49 → 26:51
זה עומד בדרישות שלנו.
26:52 → 26:59
אז יש לנו סיבה, דרך לשלוט בדברים חכמים יותר מאיתנו.
26:59 → 27:02
-איך אתה יודע?
27:02 → 27:05
איך אתה יודע שההוכחה אינה ניתנת לערעור?
27:06 → 27:10
זה היופי של מתמטיקה, שאתה יכול לבדוק
27:11 → 27:18
גם אם זה הוכחה מבריקה, נכון? אבל אני לא יכול לבוא עם עצמי. אני יכול לראות אני פשוט לחבר את זה לזה וזה
27:18 → 27:18
כן, כן.
27:18 → 27:24
אתה יודע שזה מתאמת ויש מדע גדול בלעשות את זה עם הוכחת דברים על תוכניות לביטחון סייבר
27:25 → 27:27
בגלל שחברות כל כך נמאס
27:27 → 27:32
עם אובדן מיליוני דולרים על ידי התחלה נפרץ כל הזמן כי עדיין באג נוסף נמצא
27:33 → 27:35
את
27:35 → 27:37
קליפת אבטחה או מה שזה לא יהיה
27:37 → 27:43
היו שנים של השקעה וגרג ואני היה שיחה כיפית למעשה ממש לפני שהלכנו על הבמה כאן על איך
27:44 → 27:47
זה שדה של מנסה להוכיח כי הדברים בטוחים
27:48 → 27:53
הוא עדיין בעידן האבן, בתעשייה, בשלב של דגם לפני שפה גדולה, שבו בעיקר בני אדם מנסים להוכיח
27:53 → 27:58
אני חושב שהגיע הזמן למהפכה שבה הטכנולוגיה הפתוחה של בינה מלאכותית
27:59 → 28:06
אני חושב שיש גם תמונה גדולה יותר.
28:06 → 28:11
כי בעיניי, כשחושבים על אבטחת סייבר, זה תמיד משחק של חתול ועכבר
28:11 → 28:14
יש לך תוקפים, יש לך מגינים, כל אחד מעלה את רמתו ומביס את השני.
28:15 → 28:20
האם אי פעם יהיה זמן שבו המגינים ינצחו לחלוטין האם יהיה זמן שבו התוקפים ינצחו לחלוטין
28:20 → 28:24
ואני חושב שבאמצעות בינה מלאכותית האיזון הזה יכול להשתנות ואני חושב שהאימות הפורמלית היא דוגמה
28:24 → 28:30
איפה שאולי אולי אתה יכול לקבל מגנים רק לנצח פעם אחת ולתמיד ואני חושב שיש הרבה כוכבים שם
28:30 → 28:33
אני חושב שזה בהחלט אולי אבל אני חושב שלפחות ברמה הטכנית
28:33 → 28:36
אימות רשמי היה הרעיון הזה של אם אתה יכול
28:37 → 28:41
להוכיח באופן מתמטי שהמערכות האלה בטוחות וטובות ושאין לך באגים בלינוקס.
28:41 → 28:46
ואז כל החרקים האלה שראינו, דיברנו על דימום לב, זעזוע קליפות וכל החרקים האלה מהעשר השנים האחרונות
28:46 → 28:48
שנים
28:48 → 28:50
אלה ייפתרו אלה ייעלמו
28:50 → 28:53
היית יודע שאין עתיד אחד מאלה עכשיו
28:53 → 28:57
אתה צריך להיות מאוד זהיר כי אתה צריך לוודא כי מודל המכונה הבסיסי שלך הוא כמו
28:57 → 29:01
פרטים כאלה, אבל זה פשוט מעניין לחשוב שהדברים הבסיסיים האלה
29:01 → 29:06
אנחנו מאמינים על איך עבודות אבטחה יכול פשוט להיות הפוך ואנחנו אף פעם לא הייתה לנו הזדמנות
29:07 → 29:09
זה ייתן לנו הרבה זמן פנוי.
29:09 → 29:15
בדיוק וזה שווה להוסיף עבור החנונים שמאזינים לזה שאוהבים את הקוד, אתם יודעים, בדרך כלל עריכת שגיאות
29:16 → 29:22
כל מה שזה עושה זה להוכיח, כל מה שהוא יכול לעשות זה להוכיח שמשהו לא בסדר.
29:22 → 29:24
אם אתה לא מוצא כל חרקים
29:24 → 29:26
יש עוד אחד?
29:27 → 29:34
מה זה כאשר אתה להוכיח את זה כאשר זה מה שנקרא אימות רשמי כמו גרג אמר זה אומר שאתה רואה מה אתה מובטח
29:34 → 29:37
אתה רואה אתה חותם את העסקה חותם את העסקה
29:37 → 29:41
בסדר, זה בהנחה שהמתמטיקה היא
29:42 → 29:46
זה חוק היקום, זה לא ישתנה.
29:47 → 29:49
מתמטיקה זרה
29:49 → 29:51
אתה לא צריך להניח כי למעשה טוב
29:51 → 29:54
אתה סוג של מקבל בנות בתורת השלמות ודברים כאלה שיש
29:54 → 30:01
מגיע בדרך גדולה כאשר אתה מתמודד עם אינסופיות של סוגים שונים כל המחשבים אפילו השרתים הגדולים ביותר של גרג
30:01 → 30:04
הייתי אומר שאתה עדיין צריך להיזהר מתמטיקה חייזרית
30:05 → 30:06
אבל...
30:06 → 30:12
אתה יכול באופן רשמי לחלוטין מה זה אומר כי זה בלתי אפשרי לפרוץ למחשב הנייד שלו
30:13 → 30:19
ואם יש לכם הוכחה קפדנית, אני חושב שזו העסקה השנייה.
30:20 → 30:23
שאלות עצומות שאתה מעלה.
30:24 → 30:27
אני חושב שהבעיה המיידית היא
30:28 → 30:30
אופנה א
30:30 → 30:32
מדיניות לאומית שאני מתכוון להודיע עליה בעוד כמה חודשים.
30:33 → 30:38
ואתם מעודדים אותי אני חייב לומר ביקור זה אבל אתה סוג של חושב בסדר
30:38 → 30:44
אתה מנסה לשפר את כל המערכות
30:45 → 30:47
חינוך בריאותי בתחבורה
30:50 → 30:56
כל דבר לממשלה למגזר הפרטי
30:57 → 31:04
פילנתרופיה לאקדמיה וכדומה ומהו תפקידה של הממשלה בזה ואתם יודעים, מדינות שונות מחפשות פתרונות לזה
31:04 → 31:11
מה אתה עושה? איזה סוג של מכשירים אתה בונה? אבל אני חושב שהשאלה הגדולה היא
31:12 → 31:14
המונופול של
31:14 → 31:16
כוח AI ב
31:16 → 31:22
ריכוזים קטנים בגלל מה שאמרת לפני אילן שאמרת בעצם זה גדול מדי, אתה יודע
31:22 → 31:25
אתה צריך את הנתונים הגדולים אתה צריך את הגדול, אתה יודע
31:25 → 31:32
כוח החישוב הגדול שאתה צריך את הכישרון ליצירת האלגוריתמים וזה מרוכז בכמה מדינות
31:32 → 31:36
יש לנו מבחן נוסף לא רק כדי לוודא שאנחנו דואגים לעצמנו
31:37 → 31:40
אבל איך יש לנו את היתרונות האלה
31:41 → 31:42
את יודעת את השאר.
31:42 → 31:48
למדע וטכנולוגיה יש קשרים ואני חושב שזו בעיה אמיתית נוספת
31:48 → 31:55
אבל עד כה, אתם יודעים את ההתקדמות שעשינו לפחות בישראל אני לא יודע שום דבר מהדיסק למקלדת זכרו ש
31:55 → 31:58
היה לי משהו כזה.
31:58 → 32:05
אני לא מכיר תרופה כדורי המצלמה שנכנסים לתוך המעיים שלך או כל דבר אחר שיש לך מ
32:06 → 32:11
ICQ לתפוחי עגבניות כי תועלת לכולם השקיה בטיפה.
32:12 → 32:15
נראה לי שתהיה לך ריכוז של כוח
32:15 → 32:23
זה יצור מרחק גדול יותר ויותר גדול בין העשירים לבין העניים וזה עוד דבר שגורם
32:24 → 32:29
חוסר יציבות עצום בעולם שלנו ואני לא יודע אם יש לך מושג איך להתגבר על זה
32:30 → 32:36
ובכן, קודם כל, אני רוצה לומר רק בחזית הצפיפות של הכישרונות, יש לנו מספר ישראלים
32:37 → 32:40
מהנדסים, מדענים, מנהלים, והם מובילים.
32:41 → 32:47
יש לנו מנהל שמנהל את אחת הקבוצות המרכזיות שלנו, שהוא לשעבר כוחות מיוחדים, ואין שום דבר שמפריע לו
32:47 → 32:51
אז אני חושב שיש משהו בדרך הישראלית שאני חושב שהוא מאוד מועיל לתחום הזה
32:52 → 32:57
ואני חושב שזה באמת חשוב כדי להילחם זה עשיר להתעשר
32:58 → 33:01
תופעה אם זה מגיע על חשבון כל השאר, נכון?
33:01 → 33:02
אני חושב שיש
33:02 → 33:08
העולם שעלינו לכוון אליו הוא אחד שבו כל הסירות עולות ואני חושב שיהיה סוג של אי-שוויון
33:08 → 33:12
אני חושב שזה משהו שצריך להתייחס אליו וזה משהו שאני חושב שמנהיגים כמוך
33:12 → 33:14
אני חושב שצריך להיות מודע מאוד
33:15 → 33:21
אתה יודע, אני חושב שדיברנו על UBI כמו פתיחה. אני למעשה כבר רץ. אני חושב המחקר UBI מקיף ביותר בעולם
33:21 → 33:26
משהו שאנשים מדברים עליו, אתה יודע הכנסה בסיסית אוניברסלית הרעיון של רק הממשלה רק מחלקת כסף, נכון?
33:26 → 33:30
זה בדיוק מה שזה עושה אם רוב האנשים לא עובדים בייצור, אתה יודע
33:31 → 33:36
האם זה מנגנון שיכול לעבוד? אולי יכול אולי לא
33:36 → 33:43
יש הרבה הנחות שעלולות להיכנס לעולם שבו זה עובד. ברור שיש גם הרבה חסרונות.
33:43 → 33:50
אבל אני חושב שעלינו למצוא פתרונות יצירתיים, כי שוב, אני חושב שכמו שההגנה מול ההתקפה
33:51 → 33:57
ייצור כלכלי ומה שנדרש כדי באמת לבנות אפילו חברה יציבה.
33:57 → 34:03
ובכן, אמרת כששאלתי אותך את השאלה הזאת אחת השיחות שלנו בלילה.
34:03 → 34:07
מה אתה הולך לעשות כשלאנשים לא יהיו משרות ואנחנו נשלם כסף
34:08 → 34:16
בשבילם ואמרת אני חושב שאמרת הו, מה זה מה רע לחיות בגן עדן, נכון?
34:19 → 34:22
אני מתכוון, זו שאלה של כמו, אתה יודע את המושג של גן עדן
34:23 → 34:29
עכשיו בגן עדן, אני לא חושב שאתה צריך לעבוד בגן עדן.
34:30 → 34:32
אז הם לא צוחקים.
34:33 → 34:35
תרגישי חופשי לדעת
34:37 → 34:39
אם אתה רוצה.
34:41 → 34:48
אתם יודעים שהתרחיש החיובי ביותר של בינה מלאכותית הוא למעשה במובנים רבים
34:50 → 34:52
התיאור של גן עדן ב
34:53 → 34:59
באמת? אף אחד אף אחד לא צריך לעבוד. אני אפילו לא הייתי קורא לזה הכנסה בסיסית אוניברסלית. הייתי אומר שזה כנראה הכנסה גבוהה אוניברסלית
34:59 → 35:04
אני מתאר את התרחיש הטוב ביותר כאן. אז אני לא אומר שזה בהחלט מה שיקרה
35:04 → 35:08
יש מגוון של תרחישים ממאוד שלילי עד מאוד חיובי תרחיש חיובי מאוד הוא
35:09 → 35:12
זה נשמע כמו גן עדן. אתה יכול לקבל כל מה שאתה רוצה.
35:13 → 35:17
אתה לא צריך לעבוד, אין לך חובות כל מחלה שיש לך ניתן לרפא
35:18 → 35:23
אתה יודע ומתי אנחנו מתים? ובכן, זו שאלה טובה.
35:25 → 35:26
אני חושב שזו תהיה בחירה.
35:26 → 35:29
כן, אני חושב שזה כנראה בסופו של דבר להיות קצת של בחירה
35:31 → 35:36
אז אתה רוצה את העולם הזה, טוב, אני לא אומר שאני אני לא יודע שיש כמה יש כמה
35:38 → 35:44
יש סוג של דיון פילוסופי הוא המושג של גן עדן כפי שהוא מתואר בדרך כלל למעשה, מה אתה רוצה?
35:44 → 35:46
אני מתכוון, אתה רוצה?
35:46 → 35:48
להיות ב
35:48 → 35:50
בעולם עתידי שבו
35:51 → 35:57
אתה יודע את במובן של AI כי AI יכול לעשות הכל טוב יותר ממך בהרבה
35:59 → 36:05
כי זה יכול להיות, כי זה סוג של חיפוש של האדם אחר משמעות, שאלות מסוג זה.
36:05 → 36:07
אתה יודע עבודה טובה טובה ו
36:10 → 36:15
האם אתה מה המשמעות אם אתה אם אתה אם כמו אומר אני יכול לעשות הכל טוב יותר ממך
36:18 → 36:20
האם אנחנו חיים חיים של הנאה
36:21 → 36:23
אני לא יודע, קשה לומר.
36:25 → 36:28
אבל... אבל... אבל... זה... זה...
36:29 → 36:34
היכן שהדברים מתקדמים בתרחיש חיובי הוא שלא יהיה מחסור במוצרים ושירותים
36:34 → 36:41
הרובוטים והמחשבים יכולים לייצר כמה שרק תרצו עבור כמה אנשים שרק תרצו
36:41 → 36:43
הגבלה
36:43 → 36:49
כל אמנות כל מחסור שיש לנו יהיה מלאכותי משמעות כמו אם אתה מגדיר כי יצירת אמנות מסוימת
36:50 → 36:55
ייחודי ומיוחד אז זה זה זה נדירות מלאכותית, אבל לא יהיה
36:56 → 36:58
מחסור בפועל זה אלא אם כן אנחנו להגדיר להגדיר את זה
37:00 → 37:07
באופן שרירותי רק כדי למצוא משהו להיות נדיר. אז אני חושב עבור הרבה אנשים שזה עתיד טוב טוב
37:10 → 37:14
אולי אני אישית קצת מתוסכל כי אני כמו, טוב, מה אני אמור לעשות עכשיו?
37:14 → 37:16
אני...
37:21 → 37:24
אני חושב שזו קבוצה מעניינת של אתגרים.
37:24 → 37:27
מה נעשה אם לאנשים לא יהיו משרות?
37:28 → 37:32
אבל אני חושב שזה חשוב לזכור כי אנחנו לא באופן אוטומטי הולך בסופו של דבר
37:34 → 37:36
המצב הזה, כפי שאתה חושב עליו עכשיו,
37:36 → 37:42
אנחנו יכולים גם אני חושב סביר מאוד בסופו של דבר במצב שבו אנשים אין עבודות כי אין יותר אנשים
37:43 → 37:50
איפה שאנחנו פשוטו כמשמעו הולכים נכחד, אתה יודע, היה לנו הצהרה שיצאה במאי, נכון שאני
37:50 → 37:55
חושב שאתה סם אלטמן ושניכם חתמתם נכון אומר שאנחנו ואורסולה פון דר ליין
37:55 → 37:59
יצא עם זה לפני כמה ימים אומר שאנחנו צריכים לקחת ברצינות הכחדה האנושית
38:01 → 38:05
אם זה נשמע כמו מדע בדיוני מאוד מטורף, אתה יודע, אנחנו צוחקים
38:05 → 38:09
אבל לפני כמה שנים כל ההצלחה שלך נשמעה כמו מדע בדיוני.
38:09 → 38:15
ואמרת שאין לנו הרבה זמן. אלה דברים שיכולים לקרות בקרוב יחסית.
38:16 → 38:23
איך אנחנו זה מאוד חשוב לי כי אני רוצה את העתיד הטוב לחשוב על איך אנחנו להתרחק
38:23 → 38:29
מהסוג הזה של תרחישים, אחת הדרכים שבהן אנחנו יכולים לגמור, ושהעתיד הרע הזה.
38:31 → 38:38
אתה יודע, הרעיון שאנחנו יכולים לאבד שליטה למשהו יותר אינטליגנטי, זה לא חדש בכלל.
38:38 → 38:43
אלן טיורינג עצמו אמר את זה בשנות ה-50 שזה דבר טבעי לצפות
38:43 → 38:49
זה מה שתמיד קרה על כוכב הלכת שלנו לפני כאשר מין חדש חכם יותר הגיע זה לקח שליטה על הישנים ואז
38:49 → 38:53
אתה יודע, ביי-ביי ניאנדרטלים, ביי-ביי ממומים, מה שלא יהיה.
38:55 → 38:57
יותר במדויק, אני חושב.
39:00 → 39:06
למרות שהוליווד מלאה בתרחישים שבהם מישהו איכשהו מאבד שליטה על AI והוא משתלט
39:07 → 39:13
ישנן דרכים יותר ערמומיות שבהן אנחנו יכולים להגיע למצב גרוע כזה, אפילו יותר מרצון.
39:13 → 39:17
אז לדוגמה כרגע, אני מעריץ גדול של השוק החופשי
39:18 → 39:23
אתה יודע, אבל זה זה העובדה שאם אנשים מתחרים נגד אנשים אחרים
39:24 → 39:29
לעתים קרובות הם יוותרו על שליטה מרצונם על המכונות כדי להשיג יתרון על האחרים.
39:29 → 39:36
אז חברות שמחליפות עובדים במכונות מתחרות בחברות שאין להן צבאות שמכניסות את השליטה
39:36 → 39:38
למכונות
39:38 → 39:45
להתחרות על צבאות שלא פעם יש לנו בינה מלאכותית חזקה באמת כי זה טוב יותר בניהול חברות ומדינות ובני אדם, אתה יודע
39:45 → 39:52
ואז מדינות שמחליפות את ראשי ממשלותיהן בינה מלאכותית עלולות להתחרות על אחרות ואז אנחנו מגיעים לעתיד שבו כל אלה
39:53 → 39:59
דברים קורים, אבל זה כבר לא העתיד שלנו, ואנחנו חושבים, חכו רגע, איפה טענו?
40:00 → 40:03
זה היה אמור להיות בשבילנו, אבל זו הנקודה, אתה יודע.
40:03 → 40:11
סלח לי ששאלתי דף מהספר שלך, ממש דף מהספר שלך.
40:16 → 40:19
אני בעד המין האנושי.
40:20 → 40:22
אבולוציות ואתה יודע
40:22 → 40:26
מכונה שיצרה אינטליגנציה וכן הלאה אבל אני אתה יודע, אני עבור
40:28 → 40:32
אתה יודע שבמסורת היהודית יש פתגם איך מתרגמים את זה
40:33 → 40:37
העניים של העיר שלך של העיר שלך
40:38 → 40:43
אז המין האנושי ככל שזה נוגע לי הוא משהו שאני
40:44 → 40:52
אני אגיד לך שהבעיה שיש לנו היא לא רק הכחדה, שאני מקווה שאתה יכול אולי אתה יכול
40:52 → 40:58
אבל הנה עוד משהו, גם אם לא נכחד.
40:58 → 41:02
איך אנחנו מגדירים את עצמנו?
41:02 → 41:07
היה לנו את המיתוס הזה בתנ"ך, היה לנו גן עדן, אתם יודעים גן עדן.
41:08 → 41:13
אתה יכול פשוט לקטוף את העצים, אתה יודע, לקטוף את הפירות מהעצים.
41:13 → 41:15
ואז הנחש מגיע
41:16 → 41:24
החיים הם מאבק, הם מוגדרים כמאבק
41:24 → 41:27
זה מוגדר כל הזמן הוא מאבק שבו אתה מתחרה
41:27 → 41:33
עם כוחות הטבע או עם בני אדם אחרים או עם בעלי חיים ואתה כל הזמן טוב יותר את המיקום שלך
41:33 → 41:41
כך הגדיר המין האנושי את עצמו וההגדרה העצמית שלנו מבוססת על כך,
41:41 → 41:48
כמו האנושות כולה עכשיו זה יכול להיות מאתגר וזה מאתגר. אז זה גם שלנו
41:49 → 41:54
ההגדרה העצמית שלנו לאורך ההיסטוריה האנושית והאבולוציה
41:54 → 42:01
כמו כן השאלה של המשך קיומנו, שאתה יודע, אתה יכול בבקשה בבקשה להסביר למה אתה חושב שאנחנו נמצאים
42:02 → 42:03
אנחנו בסכנה של הרחבה.
42:03 → 42:10
ובכן, התכוונתי לומר... כלומר, אני חושב שכל הקשת הזו במוחי היא רק על שינוי פרדיגמה, נכון?
42:10 → 42:16
ואני חושב שגם השאלה של מה שגן עדן פוסט AGI עתיד חיובי נראה?
42:16 → 42:21
אני חושב שאפילו זה קשה לנו לדמיין מה היתרון האמיתי יכול להיות כי זה לא רק שפע חומרי
42:21 → 42:24
זה לא רק שכולנו מקבלים מכוניות יפות או משהו
42:24 → 42:26
אני מקווה שכל טסלה
42:28 → 42:29
אבל...
42:29 → 42:32
וגם שכולם מקבלים חינוך מעולה, נכון?
42:32 → 42:36
אתם יודעים שלכל אחד יש את הסיפור הזה על המורה שהיה לו שהשקיע בהם תשומת לב והעניק להם השראה בנושא מסוים
42:37 → 42:42
תארו לעצמכם אם היה לכם את המורה הזה לכל דבר שרציתם כל הזמן וכמה אנשים טובים יותר היינו
42:42 → 42:48
אנחנו מתייחסים לאחרים ככה זו רק דוגמא אחת לסוג של היתרונות האפשריים
42:48 → 42:51
ואני חושב שהשאלה היא, מה זה אומר להיות אנושי?
42:51 → 42:54
אתה יודע אם אתה חוזר איך אתה יכול לחזות מה הולך לבוא הבא?
42:54 → 43:00
אני למעשה ה ה הוגה שאני חושב שהיה לו את החזון הטוב ביותר על איך המהפכה AI היה הולך לשחק החוצה
43:00 → 43:02
זה למעשה ריי קורצוויל.
43:02 → 43:07
כן, והספר שלו "הסינגולריות קרובה" מקבל הרבה חרא
43:07 → 43:12
אני חושב שאנשים אני אתה יודע סוג של להניח שזה הולך להיות זה כמעט כמו רק סוג של טקסט דתי
43:12 → 43:18
אבל במקום זה הוא טקסט אנליטי מאוד יבש והוא פשוט מסתכל על עקומות חישוב והוא אומר שזה היסוד
43:18 → 43:22
כולם חשבו שזה מטורף, ועכשיו זה בעצם נכון.
43:22 → 43:26
זה בעצם חוכמה נפוצה וחלק ממה שהוא אומר הוא תראה מה הולך לקרות הוא בשנת 2030
43:26 → 43:33
קודם כל, הוא אומר AGI 2029. כן, אני כל הזמן אומר לאנשים שזה נראה כמעט בדיוק נכון.
43:34 → 43:40
אז יש לנו קישור עצבי מגיע ואתה יודע, אולי אולי אולי מערכות אחרות כמו ש
43:41 → 43:44
ומה זה אומר ברגע שאתה למעשה סוג של מיזוג עם עם אינטליגנציה?
43:45 → 43:47
טוב, טוב.
43:47 → 43:48
קשר עצבי
43:48 → 43:55
הוא בהכרח זז לאט יותר מאשר AI כי אתה יודע, בכל פעם שאתה שם מכשיר בבני אדם אתה צריך להיות מאוד זהיר, אז אני
43:57 → 43:59
תחשוב.
43:59 → 44:02
זה לא ברור לי שהחיבור העצבי יהיה מוכן לפני
44:03 → 44:06
AGI אני חושב AGI הוא כנראה הולך לקרות ראשון, אבל
44:07 → 44:12
אתה יודע, יהיה לנו סוג של סינגולריות AGI, אתה יודע, לפעמים
44:12 → 44:16
סופר אינטליגנציה דיגיטלית נקראת כמו זה כמו סינגולריות כמו חור שחור כי
44:17 → 44:23
בדיוק כמו עם חור שחור. זה קשה לחזות מה קורה אחרי שאתה עובר את אופק האירועים של חור שחור ואנחנו כרגע
44:24 → 44:32
אז, אתה יודע שמקיף את אופק האירועים של החור השחור שהוא אינטליגנציה דיגיטלית על אופק האירועים
44:34 → 44:35
אז...
44:35 → 44:41
אבל אני מתערב שחלק מהסיבה לקשר הנוירוני, למרות שהתחילה אנחנו מאוד מועילים לאנשים שיש להם
44:41 → 44:43
פציעות במוח או בעמוד השדרה
44:43 → 44:45
רק עושה דברים בסיסיים.
44:45 → 44:47
כמו לאפשר לאנשים
44:47 → 44:54
מי הם tetraplegics או כמו סטיבן הוקינג כדי לתקשר למעשה אפילו מהר יותר מאשר אני מתקשר עם גוף פונקציונלי לחלוטין
44:56 → 45:00
אז ולבסוף כדי לשפר את רוחב הפס בין
45:01 → 45:03
קליפת המוח,
45:04 → 45:11
למעשה, אני חושב שאנשים רבים אולי לא
45:11 → 45:14
הם מבינים שהם כבר סייבורגים.
45:14 → 45:19
אז יש לך את המערכת הלימבית שלך את הדחפים הבסיסיים שלך את קליפת המוח
45:19 → 45:24
זה החשיבה והתכנון, ואז יש לכם שכבה שלישית, שהיא המחשבים שלכם, המכשירים שלכם, הטלפונים שלכם.
45:25 → 45:29
מחשבים ניידים כל השרתים הקיימים היישומים
45:30 → 45:33
אתה, ולמעשה, אני חושב שאולי הרבה אנשים
45:35 → 45:38
מצאתי כי אם אתה משאיר את הטלפון הנייד שלך לקחת אותו
45:41 → 45:46
אם אתה שוכח את הטלפון הסלולרי שלך, זה כמו תסמונת איבר חסר, אתה יודע, יש לך כמו איפה הדבר הזה ללכת
45:47 → 45:53
לאבד את הטלפון הסלולרי שלך זה כמו תסמונת איבר חסר. אז זה בגלל שזה הטלפון הסלולרי שלך הוא הרחבה של עצמך
45:54 → 45:57
ההגבלה היא רוחב הפס.
45:58 → 46:00
מהירות שבה אתה יכול אתה יכול להזין
46:01 → 46:06
אנחנו צריכים לומר שהיציאה של מידע לטלפון או למחשב שלך איטית מאוד.
46:07 → 46:10
אז עם טלפון, זה באמת רק מהירות תנועות האגודל שלך
46:11 → 46:15
ועם אתה יודע, במקרה הטוב התרחיש, אתה מקלדת מהירה
46:16 → 46:19
על מקלדת, אבל אפילו זה קצב הנתונים הוא איטי מאוד
46:19 → 46:24
אנחנו מדברים על עשרות אולי מאות ביטים לשנייה, ואילו
46:25 → 46:28
מחשב יכול לתקשר בטריליוני ביטים לשנייה, אז
46:29 → 46:30
אז אז.
46:30 → 46:35
וזה בהחלט סוג של... אתה יודע, "ברכה מריה" או מה שלא יהיה.
46:36 → 46:38
סיכוי קלוש.
46:39 → 46:43
האם זה אם אתה יכול לשפר את רוחב הפס בין הקליפה שלך ואת
46:44 → 46:48
העצמי השלישי הדיגיטלי שלך, אז אתה יכול להשיג טוב יותר
46:48 → 46:56
קוהיזיה בין מה שבני אדם רוצים ומה שהאינטליגנציה המלאכותית עושה זו לפחות תיאוריה אחת. אני לא אומר שזה דבר בטוח.
46:56 → 46:58
ברזל פוטנציאלי באש.
46:59 → 47:02
ואם בסופו של דבר, אתה יודע
47:03 → 47:08
מאות מיליוני מיליארדי אנשים מקבלים ממשק רוחב פס גבוה
47:09 → 47:12
האני השלישי הדיגיטלי האני המלאכותי שלהם באופן יעיל אז
47:13 → 47:18
זה נראה כאילו זה כנראה מוביל לעתיד טוב יותר עבור האנושות
47:20 → 47:25
אז זה זה אני מקבל קצת אסוטרי אבל אני מקווה שחלק מזה הגיוני
47:26 → 47:28
וכמו שאמרתי, זה סיכוי קלוש.
47:29 → 47:31
אבל מה אם אני אתה יודע, מה שאני מוצא מעניין הוא שאני
47:33 → 47:38
לא מצאתי אדם שרוצה למחוק את קליפת המוח שלו או את המערכת הלימבית.
47:39 → 47:43
כנראה אני חושד שאף אחד בחדר הזה לא רוצה לעשות את זה.
47:44 → 47:46
מצטער, או הטלפון הסלולרי שלהם
47:47 → 47:51
ובכן, לא, פגשתי אנשים שרוצים שלא משתמשים בטלפון סלולרי.
47:52 → 47:54
ובכן, אני
47:54 → 48:00
התוודה במשך שנים אני נמנעתי מזה ואני נמנעתי מזה.
48:00 → 48:03
לא רק שלא היה לי טלפון סלולרי בתוך
48:04 → 48:07
רדיוס מיידי. לא היה לי טלוויזיה
48:08 → 48:10
הטלפונים שלי היו
48:11 → 48:13
35 טלפונים ישנים
48:13 → 48:16
כי הייתי ראש ממשלת ישראל וידעתי שאני
48:17 → 48:23
טוב, אולי הקהל שלך לא יודע, אבל אנחנו ידענו.
48:24 → 48:25
עכשיו.
48:25 → 48:33
לאחר שהעברתי זמן מה באופוזיציה, התחלתי להשתמש בטלפון סלולרי, ואני מוצא את זה קשה מאוד להתנתק
48:33 → 48:39
ממנה, מסיבות שאמרת, היא הפכה להרחבה של, אתה יודע, מאגר של זיכרון.
48:40 → 48:45
היכולת לקבל מידע מהר מאוד, שאתה אומר נכון הוא איטי מאוד
48:46 → 48:48
מאוד איטי, אבל בהשוואה למה שהיה לפני
48:49 → 48:54
כן, אני זוכר שהיו לך עוזרי מחקר שהיו צריכים ללכת לספריות ודברים כאלה.
48:54 → 49:01
זה נעלם, אבל זה ייחשב פרימיטיבי מאוד בהשוואה למה שאתה מדבר עליו.
49:01 → 49:03
אני פשוט אוסיף משהו כזה ואלך למקס
49:03 → 49:08
אבל אני מתכוון, זה סוג של דבר מצחיק מצחיק. כמו אם אתה מניח כמו תרחיש AI במקרה הטוב
49:09 → 49:15
תארו לעצמכם שאתם בינה מלאכותית ואתם מנסים לעשות את מה שאתם רוצים שהאדם יגיד לכם מה הוא רוצה
49:17 → 49:23
רק בבקשה תירק את זה, אבל זה מדבר כל כך לאט כמו עץ, בסדר
49:24 → 49:30
אוקיי, הם אם אתה יודע אם אתה מסתכל על עץ כמו אתה יודע, מאיץ
49:31 → 49:37
גרסה של עץ שגדל. הוא למעשה מתקשר. הוא מתקשר עם האדמה. הוא מנסה למצוא את אור השמש
49:37 → 49:42
אתה יודע, זה זה מגיב לעצים אחרים ודברים כאלה מאוד לאט
49:42 → 49:45
אבל מנקודת מבט של עץ, זה אתה יודע, לא כל כך איטי
49:47 → 49:51
אז אז מה שאני אומר הוא שאנחנו לא רוצים להיות עץ
49:53 → 49:55
זה זה.
49:56 → 49:58
זה הרעיון מאחורי רוחב פס גבוה
49:59 → 50:05
ממשק עצבי הוא פשוט גם כאשר AI נואשות רוצה לעשות דברים טובים טובים עבורנו שאנחנו יכולים למעשה לתקשר
50:06 → 50:09
כמה סדרות גודל מהר יותר ממה שאנחנו יכולים כרגע אז אני
50:10 → 50:17
אני אוהב את זה שהזכרת את העצים שם כי אם מישהו עדיין נאבק להבין למה זה כל כך סביר
50:17 → 50:18
על ידי
50:18 → 50:20
על ידי AI, אתה יודע ל
50:21 → 50:24
בינה מלאכותית סופר אינטליגנטית אנחנו כמו עצים.
50:24 → 50:28
הם הרבה יותר מהירים מאיתנו והם חושבים אז
50:28 → 50:29
אנחנו שני עצים.
50:29 → 50:35
אז אם כמה עצים ביערות הגשם הם קצת מודאגים כי כמה בני אדם הולכים לבוא לחתוך אותם, אתה יודע
50:36 → 50:40
והם אומרים, אל תדאגו, אנחנו כל כך חכמים, נעצור את האנשים האלה. כן. בהצלחה עם זה, נכון?
50:40 → 50:41
אני...
50:41 → 50:48
אהבתי איך שהיית פילוסופית כאן ודיברת על מה זה אומר להיות אנושי ורציתי לעקוב אחר זה אבל לפני
50:48 → 50:50
זה אולי אולי רק להמשיך את זה אוקיי, אז איך
50:51 → 50:57
אתה מניח שהסכנה של הכחדה האנושית היא שיש לך
50:58 → 51:01
מכונה... מכונה סופר... מכונות סופר אינטליגנטיות...
51:03 → 51:05
בני אדם על ידי סדרים ומסדרים של גודל
51:06 → 51:13
מי לא יעריך בהכרח את המשך קיומו של האדם כפי שאנו מכירים אותו ובאופן בסיסי?
51:14 → 51:15
התוכנית בחוץ.
51:15 → 51:20
זה בעצם מה שאתה אומר, אז אם היינו כל כך טיפשים
51:21 → 51:22
ליצור
51:22 → 51:28
ישויות הרבה יותר חזקות מאיתנו שלא חולקות את המטרות שלנו כן, זה רעיון ממש גרוע.
51:29 → 51:36
ישראל אני חושב שאתה מבין ממש ממש טוב שאם יש לך חבורה של יצורים אחרים שהם אינטליגנטיים
51:37 → 51:38
לא חולקים את הערכים שלך, אתה יודע.
51:38 → 51:44
זה יכול ללכת ממש רע נכון ובואו לא לעשות את הטעות הזאת על ידי מתן יותר מדי כוח למכונות
51:44 → 51:47
לא חולקים את הערכים שלנו, אבל כמובן שאנחנו יכולים להתמודד עם זה
51:48 → 51:52
על ידי הדרכים השונות כך חוזר מה אנחנו יכולים לעשות באופן קונקרטי?
51:52 → 51:57
רק רציתי לומר דבר אחד על הנקודה הפילוסופית בלהיות אנושי
51:57 → 52:03
אחד הדברים שאני הכי מעריך בלהיות אנושי הוא הסוכנות
52:03 → 52:05
שאני יכול למעשה
52:05 → 52:12
לעשות בחירות ולעשות את ההבדל ואחד הדברים היפים ביותר לגבי מה שאתם עושים עם הטכנולוגיה הוא
52:12 → 52:18
זה נתן לנו יותר חופש, בימי הביניים, הייתה לנו תוחלת חיים של 30 שנה.
52:19 → 52:24
ואז ולדעת שאנחנו עלולים למות ברעב בשנה הבאה בגלל מזג האוויר אתה יודע איזה סוג של
52:25 → 52:29
זה כל כך הרבה יותר מעורר השראה עכשיו שאנחנו הופכים יותר של הקפטן של הספינה שלנו עם
52:29 → 52:32
טכנולוגיה שמסוגלת למעשה להיות בעלת יותר סוכנות כמין.
52:32 → 52:38
אז אני אומר בואו נשתמש בסוכנות הזו כדי ליצור עתיד נפלא לא לזרוק את זה
52:38 → 52:40
רציתי רק להציע עבור בטון
52:40 → 52:42
נקודות פעולה שאנחנו יכולים לעשות כאן.
52:43 → 52:46
תגיד קצת יותר על כל אחד מהם אחד יש לעשות עם הפסקה
52:46 → 52:51
דברים מסוכנים אחד קשור לשלוט במכונות ואחד קשור
52:52 → 52:55
השראה לעתיד אז בשביל בשביל בשביל
52:55 → 53:00
שליטה כבר דיברנו די הרבה על החשיבות של להישאר בשליטה על המכונות האלה
53:01 → 53:03
אז אני לא צריך להתעכב על זה יותר
53:03 → 53:07
אנחנו אני חושב שזה אומר דברים כמו אה
53:07 → 53:11
מה הולך לקרות לנו להוציא את הפופקורן זה פסיבי מדי בשבילי
53:11 → 53:17
בואו נחגוג את הסוכנות שלנו ונשאל את עצמנו לא מה שאנחנו חושבים שיקרה, אלא מה אנחנו רוצים שיקרה
53:17 → 53:21
ברור שאנחנו רוצים לשלוט במכונות האלה.
53:24 → 53:26
דבר שני אז אני
53:27 → 53:34
את יודעת, את מסכימה עם גרג בדברים רבים, ואני מכבדת מאוד את העבודה שלך.
53:34 → 53:39
אתה יודע שחתמתי על מכתב ההפסקה הזה שאומר שאני חושב שאנחנו צריכים להשהות את הדברים המסוכנים ביותר, ואתה לא.
53:40 → 53:46
אני חושב שזו תהיה אסטרטגיה טובה עבורנו כדי לחקות מה ביוטק עושה ופשוט יש סטנדרטים ברורים של בטיחות
53:47 → 53:51
אתה יודע שאם אתה רוצה לשחרר תרופה חדשה אתה לא יכול פשוט למכור אותו בסופרמרקט
53:51 → 53:55
אתה צריך לעשות ניסוי קליני לשכנע כמה מומחים איכשהו כי זה בטוח
53:55 → 54:02
והייתי רוצה לראות ממש סיכונים גבוהים מערכות מאוד חזקות סוג של מערכת כמו זו עם סטנדרטים
54:02 → 54:08
ואז החברות יש וזה עליהם אתה יודע להוכיח שהם בטוחים לפני שהם משתחררים
54:08 → 54:10
מי עושה מי עושה את הסטנדרטים?
54:10 → 54:14
מי עושה תקן טוב, ואנחנו כבר פתרנו את זה זה כבר נפתר בישראל
54:14 → 54:21
זה נפתר בארה"ב בביוטק כן, לא בביוטק, אבל כאן אתה יודע שזה זה רוצה את זה רגולטורים?
54:22 → 54:23
או שאתה רוצה את זה?
54:23 → 54:29
מחוקקים, אני מתכוון זה לא הבחירה היחידה, אבל אתה יודע שזה די די ברור dichotomy
54:29 → 54:34
אני לא חושב שאנחנו צריכים להמציא מחדש את הגלגל הזה האנשים שמחליטים אם תרופה מקבלת אישור בישראל
54:34 → 54:39
לא אנשים בפרלמנט או בכנסת, נכון?
54:40 → 54:44
מעורב באישור אותם בדיוק אנחנו יכולים לחקות את זה ואילון יכול לספר לנו הכל על
54:46 → 54:48
איך אנחנו עושים עם מכוניות אני לא רוצה להתעכב על זה
54:48 → 54:51
אני פשוט חושב שזה זה זה זה לא מדע טילים
54:51 → 54:54
אנחנו יכולים אנחנו יכולים אנחנו יכולים לשים את הסטנדרטים האלה במקום
54:54 → 55:00
ואז נוכל להמשיך לעשות כל מיני דברים נפלאים עם טכנולוגיית בינה מלאכותית. חלק מהדברים יחכו עוד קצת.
55:01 → 55:05
זה יהיה שווה את ההמתנה כי זה יהיה בטוח הדבר האחרון.
55:06 → 55:08
אני חושב...
55:08 → 55:13
בשבילנו באמת לתפוס את הסוכנות הזאת ולעבוד יחד לא רק בין חברות
55:13 → 55:19
אבל גם מעבר לגבולות אנחנו באמת צריכים חזון חיובי משותף, וזה משהו
55:19 → 55:22
אני באמת מעריך כל כך הרבה עלייך, אילון.
55:23 → 55:28
יש לי את האומץ יותר מאשר רוב לדבר על כמו באמת חזון חיובי נועז לעתיד
55:29 → 55:35
אתה יודע מה זה שגורם לאנשים לשתף פעולה ולשים מריבות קטנות בצד?
55:35 → 55:41
זה תמיד חזון חיובי משותף שבו אנשים מבינים שאם אנחנו משתפים פעולה כולנו נהיה טובים יותר.
55:42 → 55:47
טכנולוגיה היא לא משחק בעל סכום אפס.
55:48 → 55:52
שוודיה ודנמרק שהרגו אחד את השני במשך מאות שנים
55:54 → 56:00
התמ"ג היה שטוח, ואז הגיעה הטכנולוגיה ושניהם השתפרו באופן דרמטי.
56:00 → 56:04
זה כל כך ברור כי הטכנולוגיה שאתה נשך אתה בונה אתה בונה אתה יודע
56:05 → 56:11
יכול לעשות את כל בני האדם פשוט באופן מרהיב טוב יותר עם AI ולא רק על הפלנטה הזאת
56:11 → 56:15
אני אוהב את הרשימה לפני שהתחלנו לך שהיה לך שם על איך זה יכול לשנות את
56:16 → 56:18
ביטוח בריאות וכל כך הרבה דברים אחרים ואני הייתי מוסיף לזה אתה יודע
56:20 → 56:26
למה להגביל את עצמנו לכוכב הזה כאשר יש את היקום היפהפה הזה שבו החיים יכולים לפרוח במשך מיליארדי שנים?
56:27 → 56:33
אם יותר אנחנו לא יכולים רק להעריך כמה ענק היתרון הוא אם אנחנו עושים את זה נכון
56:33 → 56:35
אתה יודע יותר תמריץ
56:35 → 56:41
אנחנו נצטרך להיות קצת סבלניים. איפה שאנחנו צריכים להיות קצת סבלניים, לעשות הכל בטוח.
56:41 → 56:44
לכן קבל את זה העתיד הנפלא הזה
56:45 → 56:50
ובכן, אולי אנחנו סוג של מפגר מפגר מאחורינו
56:52 → 56:56
התפתחות חברתית ופוליטית, זה כמו טכנולוגיה גרעינית בעידן האבן
56:58 → 56:59
מה אתה עושה עם זה?
56:59 → 57:06
אני חושב שאתם יודעים שזה פחות או יותר מה שדיברתי עליו במונחים של קצב ההתפתחות
57:06 → 57:08
מה אתה עושה?
57:09 → 57:16
אילו פתרונות אנחנו צריכים לשים במקום כדי למקסם את היתרונות ולהגביל את הסיכונים, אני חושב שאני חושב שאנחנו שם
57:16 → 57:21
כן, אני... אני חושב שאנחנו צריכים להיפגש. היית בסנאט לפני כמה ימים.
57:21 → 57:29
אני מניח שדיברתם על זה אני מתכוון, כן, כן, אתה לא אתה לא צריך לחשוף את מה שאתה לא יכול לחשוף אבל לחשוף את מה שאתה יכול
57:30 → 57:33
ובכן, הרבה אנשים בפגישה, אז אני לא חושב שזה היה זה היה סודי
57:33 → 57:37
זה היה רק דיון על רגולציה AI
57:37 → 57:44
ולמעשה כמו סם אלטון מהפתחה הייתי שם ומספר סקר הייתי מנהיגים היו שם
57:44 → 57:45
ו
57:45 → 57:51
אני חושב שבאופן כללי זה יהיה רעיון טוב שיש סוג של סוכנות רגולטורית בינה מלאכותית
57:51 → 57:54
ואתה מתחיל עם
57:55 → 58:02
צוות זה אוסף תובנה כדי לקבל הבנה מקסימלית אז יש לך כמה ההצעה חקיקה ואז
58:03 → 58:05
בסופו של דבר יש לך
58:05 → 58:10
תקנות שהוצבו וזה משהו שיש לנו לכל דבר. זה סכנה פוטנציאלית לציבור
58:10 → 58:17
אז אם זה, אתה יודע מזון ותרופות עם ניהול מזון ותרופות, יש לנו מטוסים עם FAA וחלל ורקטות
58:18 → 58:20
אתה יודע, יש יש כל
58:21 → 58:27
כל דבר שמהווה סכנה לציבור עם הזמן למדנו בדרך הקשה לאחר שאנשים רבים מתו
58:28 → 58:32
שיהיה לנו סוכנות רגולטורית שתגן על בטיחות הציבור.
58:33 → 58:37
ואני לא מישהו שחושב שמדיניות היא תרופה נפלאה
58:37 → 58:43
כמובן, יש כמה חסרונות של רגולציה ושהדברים זזים קצת יותר לאט
58:44 → 58:47
לפעמים אתה מקבל תפיסה רגולטורית ודברים כאלה, אבל
58:48 → 58:55
אבל בסך הכל, אני חושב שהציבור לא ירצה להיפטר מרוב סוכנויות הרגולציה
58:56 → 59:00
ואתם יכולים לחשוב על זה גם כמו כמו הסוכנות הרגולטורית להיות כמו שופט
59:01 → 59:03
אתה יודע איזה משחק ספורט אין שופט
59:04 → 59:10
אתה צריך מישהו שידאג שאנשים ישחקו בצורה הוגנת ולא יפרו את החוקים.
59:11 → 59:12
ו
59:12 → 59:16
וזו הסיבה שבסופו של דבר לכל ספורט יש שופט מסוג זה או אחר
59:16 → 59:20
אז זה הגיון של בינה מלאכותית.
59:20 → 59:22
בטיחות ואני כבר דוחפים את זה בכל רחבי העולם
59:23 → 59:28
וכשהייתי בסין לפני כמה חודשים, נפגשתי עם מנהיגות בכירה. הנושא העיקרי שלי היה
59:29 → 59:33
בטיחות ורגולציה
59:34 → 59:39
לאחר שיחה ארוכה הסכמנו שיש ערך לתקנות בינה מלאכותית
59:39 → 59:42
מיד נקט בצעדים בעניין זה, אז
59:43 → 59:50
אז אז לפעמים זה יקבל את ההערה הזאת של כמו גם אם המערב הוא AI הרגולציה בוודאי
59:50 → 59:56
אז מה עם מה אם סין לא ואז קפיצה קדימה ואני חושב שהם הם גם לוקחים את זה מאוד ברצינות
59:56 → 59:59
כי אתה יודע

President and co-founder of OpenAI, Greg Brockman, and AI researcher at MIT, Max Tegmark, discuss the transformative power of AI and the need to mitigate its downsides.

This video in English was translated to English, עברית on September 19, 2023, using Targum.video AI translation service.

decorative-spots

Share this translated video