"כולנו חכמים, כולנו נבונים, וכולנו יודעים את התורה" אבל אולי אנחנו לא לבד בזה, והמחשבים שיצרנו הם גם חכמים ונבונים (ויודעים את התורה)? בפרק ה-30 של חור בהשכלה נדבר על בינה מלאכותית, ועל למידת מכונה, וקצת על רובוטים, ועל מדעי המחשב – בעיקר כי אי אפשר ממש להפריד בין הדברים. בחלק הראשון של הפרק נדבר על מה זה בינה מלאכותית ועל ההיסטוריה של הרעיון הזה ועל ההתפתחות של המחקר בתחום הזה. בחלק השני של הפרק, שבו מתארח חוקר מדעי המחשב נימרוד הראל, נדבר על "איך עושים" בינה מלאכותית ואיך הדבר הכל-כך מורכב הזה עובד. בחלק השלישי והאחרון של הפרק נחפור קצת על ההיבטים הפילוסופיים והמוסריים של בינה מלאכותית ועל המושג סימולאקרה. נושאים שיעלו בפרק: הומו ספיאנס, אוטומטון, הגולם מפראג, הטורקי, אלן טיורינג, גארי קספרוב, למידת מכונה, רשתות נוירונים, Dall E 2, מובילאיי, תיבה שחורה, דיסטופיה. נ.ב – את העיצוב של הפרק יצרה בינה מלאכותית 😉
תאריך עליית הפרק לאוויר: 12/11/2022.
יובל: שלום לכל המאזינים והמאזינות וברוכים הבאים לעוד פרק של חור בהשכלה.
שלום שלום ברוכים השבים או ברוכים הבאים אם זו הפעם הראשונה שאתם מקשיבים לפודקאסט הזה. אם כן אז חבל תקשיבו לפרקים קודמים.
בפרק של היום אנחנו נדבר על נושא שהוא קליל ופשוט ונגיש לכל בן אדם. סתם, אנחנו לא נעשה את הדברים האלה אנחנו נדבר על בינה מלאכותית, AI.
אני חייב להודות שהייתה לי התלבטות אם לדבר על בינה מלאכותית בחור בהשכלה, בעיקר כי קשה לאפיין האם מדובר באמת במושג שהוא של ידע כללי, או שזה איזשהו תחום התמחות יותר ספציפי כזה של מומחים שבדרך כלל גם צריכים לעשות יותר מתואר אחד במדעי המחשב על מנת להתמחות בו באמת.
בסופו של דבר החלטתי שכן.
גם בגלל שכנועים של חברי נמרוד הראל שמתארח בפרק הזה, אבל גם מתוך הבנה שהדבר המסובך הזה מקיף אותנו מכל הכיוונים, גם אם נרצה וגם אם לא.
ולכן, מן הראוי שנביט לו ישר בעיניים ונאבחן אותו כמו שצריך, וכמו שאנחנו אוהבים לעשות בפודקאסט הספציפי הזה.
למרות שבאופן רשמי הפרק הזה יעסוק בבינה מלאכותית, אני מניח שמדי פעם נזלוג גם לנושאים חופפים כמו רובוטיקה או מדעי המחשב, פשוט כי אין ברירה.
אז, החלק הראשון של הפרק יעסוק בהגדרה ובהיסטוריה של המושג בינה מלאכותית.
החלק השני של הפרק יעסוק ב"איך", זאת אומרת, איך עושים את הדבר הזה?
מה הטכניקה?
מה המנגנון?
ואילו החלק השלישי של הפרק יעסוק בדיון פילוסופי-מוסרי, שנראה לי שפשוט אי אפשר באמת להתחמק ממנו לגמרי כשמדברים על בינה מלאכותית.
ובסוף הפרק, בזמן הזה שאני אוהב לדבר על דברים שמעניינים רק אותי, נדבר על סימולאקרה.
בואו נתחיל.
כל מי שמאזין לפודקאסט הזה הוא אדם נבון. זאת אומרת, יכול להיות שיש גם איזשהו כלב או חתול שמאזינים בטעות איתכם, אבל הם כנראה לא ממש עוקבים אחרי הדברים כמו שצריך.
בכל מקרה, למה אדם נבון?
כי זה פשוט ההגדרה הביולוגית-זואולוגית של מה שאנחנו, בני אדם.
לכל חיה יש איזשהו שם מדעי לטיני.
נגיד, עכבר הבית זה מוסמוסקולוס, אריה זה לאו-פנתרה, ובני אדם, אנחנו הומו-ספיאנס.
מה המשמעות של השם הזה?
אז "הומו" זה אדם בלטינית, קצת כמו המילה human באנגלית, ו"ספיאנס" זה תבוני.
ולכן הומו-ספיאנס - אדם נבון.
השם הזה לא מקרי, והוא נובע מהתפיסה שהתבונה היא מה שמייחד אותנו ממיני אדם קדומים אחרים, ובתכלס, מכל בעלי החיים.
התפיסה הזו כמובן לא שייכת רק לקארל ליניאוס, שטבע את השם הומו-ספיאנס. על קארל ליניאוס דיברתי בפרק על טקסונומיה, גם שווה האזנה. ואפשר לראות את אותה תפיסה גם בספר בראשית, עם הסיפור על אכילת פרי עץ הדעת, שמבדילה אותנו בעצם משאר בעלי החיים.
למה אני בכלל מדבר על זה? בגלל שמהדברים הללו אפשר להבין שתבונה היא מה שבעצם הופך אותנו לאנושיים, היא מה שמפריד אותנו, היא הניצוץ האלוהי שכולנו לכאורה ניחנו בו.
ולכן כשאנחנו מדברים על בינה מלאכותית, אנחנו בעצם מדברים על משהו מלאכותי, מעשה ידי אדם, שיש לו את היכולת הזו ששייכת רק לבני האדם ומייחדת אותנו משאר הדברים.
המחשבה המגלומנית הזו, שאומרת שאפשר ליצור מכשיר או חפץ שידמה פעילות אנושית, או יחשוב כמו בן אדם, מלווה את האנושות כבר אלפי שנים.
בין השאר אפשר לדבר על כל מיני דמויות שהופיעו באגדות של המיתולוגיה היוונית נגיד, שכללו פסלי ברונזה שקמו לחיים, או אפילו הסיפור המפורסם על פיגמליון, שפיסל פסל של אישה משיש והיא קמה לחיים לאחר שהוא התאהב בה.
אז אגדות בסגנון הזה של חפצים שקמו לחיים או ניחנו ביכולות אנושיות, היו נפוצות בתרבויות רבות, וקיימות גם בתרבויות המזרח כמו סין, הודו וטיבט.
גם האגדה היהודית על הגולם מפראג, שהייתה הרבה יותר מאוחרת כמובן, רצה על קווים דומים. פסל תוצרת אדם שקם לחיים, ומפגין יכולות שאפשר לקרוא להן אנושיות.
גם בתקופה המודרנית שאנחנו חיים בה, אז אנחנו מכירים כל מיני יצירות ספרותיות או קולנועיות, שמתייחסות באמת לחפצים דוממים, אם זה מחשבים או רובוטים שיש להם יכולות אנושיות.
אפשר לדבר נגיד על הרובוט של שוורצנגר ב"שליחות קטלנית", או על המחשב הענק ב"מדריך הטרמפיסט לגלקסיה", כמובן כל הרובוטים האלה בכל הסרטים של "מסע בין כוכבים" והדברים האלה שאף פעם לא ראיתי, אבל בכל מקרה המסקנה היא שהמחשבה על בינה מלאכותית, היא משהו שמלווה את האנושות פעם וגם היום.
ז'אנר אחר שאפשר לדבר עליו בתור איזשהו מבשר של בינה מלאכותית, הוא כבר יותר באזורים הטכניים, משהו שנקרא אוטומטונים.
זה סוג של מכשירים, או אפשר לקרוא לזה גם בובות, שהרבה פעמים היו דמויות אדם, והכניסו אליהם מנגנונים מכניים שנועדו לדמות התנהלות אנושית.
האוטומטונים האלה היו נפוצים באמת במהלך ההיסטוריה בכל מיני תרבויות, גם באירופה, גם דרך המזרח התיכון והעולם הערבי, וגם במזרח הרחוק, והם בעיקר נועדו להופעות ולשימושים טקסיים.
תחשבו נגיד על תפאורה של דרקון או דינוזאור, שיש בה איזה מנגנון מכני שגורם לה להזיז את הראש, וכאילו היא בחיים.
אז אותו דבר רק עם דמויות אנושיות, שמזיזות את הגפיים, אומרות איזה משפט, או כל מיני דברים כאלה.
המנגנונים האלה הם בדרך כלל מבוססים על מכניקה מאוד פשוטה, וגם בעבר השתמשו בגלגלי שיניים, או זרמים של מים, או מנואלה מאחורה, והדבר הזה עשה רושם הרבה פעמים של בינה מלאכותית. משהו מאוד עלוב, כמובן, אבל כן, יש לנו פה איזשהו מכשיר שהוא מתנהג קצת כמו בן אדם, או כמו חיה, והנה, אנחנו עשינו אותו, אנחנו בראנו אותו.
וכמובן, שאי אפשר לדבר על בינה מלאכותית מבלי להזכיר את "הטורקי". מכונה קסומה, באמת, מדהימה, שפעלה במאות ה-18 וה-19, ונראתה כמו איזשהו ארגז שעליו היה מונח לוח שחמט, ולאותו ארגז הייתה מוצמדת דמות שהייתה לבושה כמו אדם טורקי, וכל הקומפלקס הזה, כל המכונה הזאת הוצגה כאוטומטון שמסוגל לנצח בשחמט, כמעט כל בן אדם.
אותו טורקי ניצח באמת בשחמט את טובי השחקנים באירופה, וגם אנשים מוכרים כמו נפוליאון ובנג'מין פרנקלין, ובזמנו, הממציא של הטורקי הציג את זה כמו איזושהי טכנולוגיה מהפכנית.
בדיעבד, התגלה כי המנגנון הקסום האמיתי של הטורקי היה, שבתוך הארגז הזה שהיה שם, התחבא שחקן שחמט, אנושי, ודי מוכשר ודי נמוך, שפשוט הפעיל אותה בסתר.
כן, זה היה גמד בקופסה.
בהמשך, נראה ששחמט נהייה איזשהו מוטיב חוזר בכל מה שקשור לבינה מלאכותית.
אבל עכשיו בואו נתקדם להיסטוריה של באמת בינה מלאכותית, ולא רק קדם בינה מלאכותית.
אז ההיסטוריה המודרנית של מה שאנחנו קוראים לו היום בינה מלאכותית, החלה במאה ה-20, ואפשר להגיד שהיא שזורה בהיסטוריה של המחשבים ומדעי המחשב.
אחד הדברים שאיפשרו בכלל לדבר על פתרון בעיות או בינה מצד מחשבים, הייתה תזת צ'רץ' טיורינג, שקבעה שכל בעיה מתמטית, מורכבת ככל שהיא תהיה, אפשר לתרגם לרצף של סימנים בינאריים, וזה לא משנה אם מדובר ב-1 או 0, או ימין ושמאל.
זאת אומרת, שאתם יכולים לקחת את התרגיל או הנוסחה המתמטית הכי מורכבת שיש בעולם, ולתרגם אותה לשני סימנים, 1 ו-0, 1 ו-0.
זאת תזת צ'רץ' טיורינג.
אחד מההוגים של אותה תזה היה אלן טיורינג, אדם שנחשב בכללי לאבי מדעי המחשב והבינה המלאכותית. טיורינג היה גם אחד ממפצחי צופן האניגמה של גרמניה הנאצית, ובכללי שווה לדבר עליו בהרחבה בהזדמנות אחרת.
אם אתם מתעניינים בטיורינג, אז גם עשו עליו סרט מצליח בשנת 2014 שקראו לו "משחק החיקוי".
רגע, אבל למה דיברתי על טיורינג? בגלל שחוץ מתזת צ'רץ' טיורינג עליה הוא חתום, הוא גם ניסח את מבחן טיורינג, או מבחן החיקוי, כמו השם של הסרט.
מבחן טיורינג נחשב למדד שבוחן האם למכונה מסויימת יש אינטליגנציה או לא.
מה המבחן הזה כולל?
אז קודם כל סוגרים אדם בחדר, תמיד סוגרים מישהו בתוך חדר. אז סוגרים מישהו בחדר ונותנים לו להתכתב עם שתי פרסונות. אחד זה אדם אמיתי, והשני מכונה, מחשב.
אם האדם שבחדר לא מצליח להבדיל מי המכונה ומי האדם, אז ברכות, יש לנו בינה מלאכותית.
האם יש איזשהי מכונה, איזשהו מחשב שהצליח לנצח את מבחן טיורינג?
אז, זה לא כזה חד משמעי, אבל אומרים שממש השנה גוגל הוציא איזשהו מחשב שכן הצליח לנצח את מבחן טיורינג, אבל… קחו את זה בערבון מוגבל.
בואו נחזור לרצף ההיסטורי.
ההתפתחות בדיסציפלינה החדשה הזו שנקראה מדעי המחשב, לוותה בהתפתחות מקבילה בתחום מדעי אחר, שגם הוא היה חדש, והתחום הזה נקרא מדעי המוח.
המחקרים החדשים במדעי המוח הראו שהמוח פועל כרשת חשמלית של עצבים, שמעבירה אותות חשמליים, אפשר לקרוא לזה בינאריים. והגילויים הללו הראו דמיון לגילויים בתחום המחשבים, ונתנו לחוקרים תקווה שאפשר לשלב בין שני תחומי המחקר.
בשנת 1956 מדענים התכנסו לכנס ראשון בו עסקו בנושא החדש שנקרא לראשונה בשם "בינה מלאכותית" או באנגלית "AI" - "Artificial Intelligence".
בכנס נקבע כי כל היבט של לימוד או אינטליגנציה יכול להיות מתואר באופן מדוייק כדי שמכונה תוכל לחקות אותו. זאת אומרת, שאם לפני שנייה דיברנו על תזה צ'רץ' טיורינג, שאמרה שכל בעיה מתמטית אפשר להפוך אותה לסימנים בינאריים, אז פה אנחנו עולים שלב, אנחנו אומרים כבר שכל צורת חשיבה באשר היא, אפשר להפוך אותה למשהו שמחשב יכול לעבוד איתו. ולא רק זה, אלא שכל דבר שאנחנו עושים, כל חשיבה שאנחנו מבצעים, אז מחשב כנראה יכול לחקות אותה, לעשות את אותו דבר.
באותן שנים, סוף-אמצע שנות ה-50, התחום הזה, החדש של בינה מלאכותית, פרח, וככל שהזמן עבר, מחשבים הצליחו לפתור עוד ועוד בעיות אנושיות מורכבות, כמו פתרון של בעיות מתמטיות, הבנה בסיסית של שפה, והצלחה במשחקי לוח.
בשנות ה-60 וה-70 חשבו שזהו, עוד שנייה, מחשבים עוברים אותנו בהכל. אבל ההתקדמות הייתה איטית יותר ממה שחשבו, ועד אמצע שנות ה-90, התחום עבר עליות ומורדות.
באותם עשורים של החצי השני של המאה ה-20, רוב המאמצים של הבינה המלאכותית סבבו סביב פתרון של בעיות נקודתיות יחסית, בעולמות תחומים יחסית, כמו נגיד משחקי שחמט.
למה משחק שחמט זה משהו שהוא יחסית תחום?
כי בסוף יש פה לוח שהוא סופי, זאת אומרת, יש לנו כמות משבצות שאנחנו יודעים אותה, ויש כמות סופית של מהלכים. בתיאוריה, מחשב יכול להתכונן לכל מהלך שהיריב עושה לו, וזה לא משנה אם היריב הזה הוא בן אדם אמיתי או מחשב, כי מספר הפעולות הוא סופי, כאמור.
אגב, זה שזה מעגל סגור לא הופך את זה לקל, ולקח הרבה מאוד זמן לפתח את הבינה הזאת, שבשנות ה-90 הגיעה לאיזשהו שיא רגעי, כשתוכנת "כחול עמוק" ניצחה את אלוף השחמט גארי קספרוב.
אבל לקראת סוף שנות ה-90, התחום הזה החל להשתנות, ומה שהשתנה היה בעיקר העלייה בכח החישוב של מחשבים, שיכלו להריץ חישובים הרבה יותר מסובכים במהירות הרבה יותר גדולה.
במאה ה-21, ובעיקר בעשור האחרון שאנחנו חיים בו, אז הצטרף לאותו כח חישוב אדיר היבט נוסף, שנקרא "ביג דאטה", שבפשטות אפשר להגיד שהמודלים של הבינה המלאכותית פשוט רצים עכשיו על הרבה יותר מידע מבעבר.
אבל עכשיו אנחנו כבר הגענו להווה.
ונראה לי שזה הזמן לפרק קצת את הטכניקה והמכניקה מאחורי המילה המפוצצת הזו שנקראת "בינה מלאכותית", ולהבין קצת יותר טוב איך הדבר הזה עובד.
אקדים תרופה למכה, ואגיד שזה הולך להיות חלק קצת מורכב.
ואני מודה שגם אני לא מבין את הדברים הללו עד הסוף כמו שהייתי רוצה.
אבל בואו נצלול לזה ביחד, ונתפלל שיהיה בסדר.
בשביל לעזור לי בהסברים נמצא כאן גם נמרוד הראל. לא הקוסם, אלא חוקר למדעי המחשב באוניברסיטת תל אביב, שחוקר בימים אלו את התחום הזה שנקרא "בינה מלאכותית".
נתעכב עוד קצת על ההגדרה.
צריך להפריד בין שני סוגים של בינה מלאכותית.
בינה מלאכותית חזקה, ובינה מלאכותית חלשה.
בינה מלאכותית חזקה אמורה להיות שוות ערך לחוכמה האנושית, ואפילו לעבור אותה, כמו אותם מחשבים שיש בספרי וסרטי המדע בדיוני.
לעומתה, הבינה המלאכותית החלשה היא יותר ספציפית, והיא נועדה לפתור בעיות נקודתיות, כמו באמת בינה מלאכותית שאמורה להתמודד עם משחקי שחמט, או בינה מלאכותית שמנסה לזהות שפה, או תמונה.
באופן תיאורטי, ניתן לומר שבינה מלאכותית חזקה יכולה להיווצר משילוב של כלים רבים של בינות מלאכותיות חלשות, עד שאלו יחדיו ישתוו ביחד לבינה האנושית.
אם זה לא היה מובן מאליו עד עכשיו, אז השפה בה עושים בינה מלאכותית היא שפת תכנות.
בהקשר הזה יש בדיחה דלוחה ודי מפורסמת, שאומרת שההבדל בין בינה חכמה, AI, ללמידת מכונה, Machine Learning, היא שלמידת מכונה כותבים בפייתון, ואילו בינה חכמה כותבים במצגות powerpoint. במילים אחרות, הרבה פעמים בינה חכמה היא Buzzword, והמציאות האפורה היא מתכנתים שכותבים שורות קוד ללמידת מכונה.
מה ההגדרה של למידת מכונה?
אחת מהן קובעת כי מדובר בתחום מחקר, המאפשר למחשבים את היכולת ללמוד מבלי להיות מתוכנתים באופן ספציפי. וזו אולי הנקודה הכי חשובה כאן, כי הבדל המרכזי בין בינה חכמה או למידת מכונה לתכנות רגיל, הוא בדיוק זה.
ובמקום שאני אסביר את זה, אני אתן לנמרוד, שחוקר מדעי המחשב, להסביר את זה בעצמו.
נמרוד: אז למידת מכונה היא באמת התחום שבו אלגוריתמים לומדים את כללי ההכרעה שלהם באמצעות הדאטה.
למה הכוונה?
אם באלגוריתמים קלאסיים ההכרעות מוחלטות מראש, כמו למשל מתכון לעוגה, שבו אנחנו יודעים בדיוק איזה סט פעולות אנחנו נבצע, בהינתן המצרכים.
באלגוריתם של למידת מכונה, אנחנו מסתכלים על דוגמאות, ולפי כל דוגמה אנחנו משנים קצת עד שאנחנו מגיעים למתכון האידיאלי.
יובל: אוקיי, אבל אתה בעצם זה מי שמתקן את המתכון, או שהמחשב עושה את זה לבד? איך הדבר הזה נראה?
נמרוד: תראה, במובן מסוים, האופן שבו אנחנו בונים את הלמידה, היא ככה שאנחנו מייצרים תבניות, שאנחנו מענישים כשהתוצאה היא לא כמו שאנחנו רוצים, ומחזקים כשהתוצאה היא כן כמו שאנחנו רוצים.
אפשר לדמיין שהמודל שלנו הוא ילד שלומד לדבר. אנחנו מאמנים אותו להבין ולגלות את הקשר בין מילים ומשפטים שהוא אומר, לבין התוצאה שהוא רוצה להשיג בעולם. לפעמים הילד מקבל חיזוק, נכון? כשהוא מנסה לאכול ומבקש אוכל ובוכה, ובאמת מקבל אותו, ולפעמים הוא מקבל חיווי שלילי מהעולם, כשהוא עושה משהו פחות טוב וננזף.
יובל: כן, אבל ההשוואה של חינוך ילד ללימוד מכונה היא במקום?
נמרוד: כשאנחנו מחנכים ילד, אנחנו בעצם מלמדים אותו לעשות המון סוגים של משימות. אפשר לחשוב עליו כמו איזה מודל על, שיש בתוכו המון המון מודלים קטנים, ומודל הוא עונה על task ספציפי, על משימה ספציפית.
יובל: בואו נדבר רגע על מודלים שונים שמשתמשים בהם בלמידת מכונה, בבינה מלאכותית.
נמרוד: אוקיי, אז המודלים האלו של למידת מכונה, הם, כמו שאמרנו, אנחנו מחליטים באיזה מודל להשתמש בהתאם למשימה שאנחנו רוצים לענות עליה.
סוג מסוים של משימות נקרא למידה מחיזוקים, reinforcement learning. מודלים מהסוג הזה משמשים רובוטים, רחפנים, או את כחול עמוק שניצח את קספרוב בשחמט ב-1996.
המודלים האלו בנויים כך, שיש להם סט מצבים, שהם נמצאים בהם, וסט פעולות שהם יכולים לבצע בכל מצב, ובכל שלב, המכונה צריכה לבחור איזה פעולה לבצע מהמצב הנתון שבו היא נמצאת.
המשימה של הלמידה היא לגבש את המדיניות באיזו פעולה לבחור בהינתן מצב.
סוג אחר של למידה הוא למידה מפוקחת, supervised learning. למידה כזו משמשת אותנו במקרים בהם יש לנו מידע מתויג, למשל תמונות שמסומן על לנו מה מופיע או לא מופיע בהן. או כשאנו חוזים את מחיר המניה בבורסה בשבוע הבא, על בסיס שבוע שעבר. הרי בכל יום בשבוע שעבר או בעבר בכלל, אנחנו יודעים מה היה שער המניה בסגירה.
לעומת זאת, למידה בלתי מפוקחת, unsupervised learning, מתאימה למקרים בהם הדאטה שלנו לא מתויג. במקרים כאלו, אנחנו מנסים ללמוד דברים על הדאטה באופן יחסית כללי ופרוע, בלי לדעת לחזות מראש מה המטרה שלנו.
למשל, כשאנחנו מנסים להבין מה הנושאים החמים בטוויטר, אנחנו לא יודעים מראש מה הם יהיו, אלא מנסים להבין "פטרנים" ומבנים שחוזרים על עצמם.
אוקיי, אז ניתן דוגמה של מודל בלמידה מפוקחת. אני חושב שזה הכי נוח וברור להבין.
עץ החלטה.
עץ החלטה הוא מעין שאלון במעריב לנוער.
נניח, האם אתה בן או בת, שאלה ראשונה, אם כן ימינה או שמאלה.
לאחר מכן, האם אתה מצביע מרץ או מצביע ליכוד, וכנראה שאתה לא מצביע כי אתה בן 16, ולבסוף האם אתה ישן על הבטן או על הגב, ובהתאם לזה, מה להקת הפופ האהובה עליך.
יובל: אוקיי, בסדר. אז זה מצא שאני אוהב את בריטני ספירס, מה הקשר לבינה מלאכותית?
נמרוד: נכון, אז המודל הזה באמת הוא קצת סתמי, ולא משרת אותנו באמת, אבל באותן עקרונות אנחנו יכולים להשתמש, כדי לחזות את מידת הסיכון של אדם לחלות בסכרת, או את דירוג האשראי שלו, לפי כל מיני פיצ'רים, תכונות שאנחנו מקבלים בדאטה. הגיל שלו, כמה כסף הוא מוציא בחודש, סוג הדם שלו, וכו'.
יובל: אוקיי, אז באמת זה שלמישהו יש סכרת או אין סכרת, או האם הוא מצביע ליכוד או מרץ, זה משתנים בינאריים, זה יחסית ברור.
אבל כשיש אלגוריתם שאמור לזהות נגיד תמונה של חתול, אז זה קצת יותר מסובך. כאילו כל חתול נראה אחרת, בכלל אי אפשר להגיד שהכול אותו דבר, איך המחשב מזהה דבר כזה?
נמרוד: אוקיי, אז באמת הסוגיה הזאת היא סוגיה לא כל כך פשוטה. בוא ננסה לעשות אותה צעד צעד.
אנחנו לוקחים תמונה של חתול, לדוגמה, ומייצגים אותה במספרים, באמצעות טבלה.
כל פיקסל מהתמונה המקורית מיוצג במספר כלשהו בטבלה, כמשבצת בטבלה, שמייצגת את הגוון שלו.
לטבלה הזאת, שאנחנו קוראים לה במתמטיקה מטריצה, אנחנו יודעים לבצע כל מיני פעולות מתמטיות, ובסופן, אנחנו מקבלים איזשהו פלט, שהפלט הזה הוא אינדיקטור, האם מופיע בתמונה חתול או לא מופיע בתמונה חתול.
המודל הוא בעצם סט הפעולות המתמטיות האלה שאנחנו לומדים אותו.
המודל בהתחלה מנסה, ואומר על תמונה של חתול שהיא לא חתול, ואז הוא מתקן את הפעולות המתמטיות, ומבצע פעולות חדשות, והוא רואה עוד ועוד תמונות, ומתקן את הפעולות שלו עד שהוא מוצא את סט הפעולות האידיאלי, ככה שהוא מתאים בין התמונות לבין התשובה, האם מופיע חתול או לא מופיע חתול.
רשת נוירונים היא דוגמה מסוימת לארכיטקטורה, לאיזשהו סידור של פעולות מתמטיות מהסוג הזה שתיארתי עכשיו.
יובל: אוקיי, בשנים האחרונות אנחנו רואים גם כל מיני פיצ'רים של בינה מלאכותית, שהם לא רק מזהים אם יש שם חתול או אין שם חתול, אלא גם ממש מייצרים תמונה של חתול שהוא גם חתול שלא קיים במציאות.
זאת אומרת, יש לנו מחשב שמייצר תמונה שהיא הרבה פעמים יותר יפה ממה שאני אי פעם מייצר בעצמי. איך הבינה המלאכותית הזאת מתקיימת? כי אנחנו עד עכשיו דיברנו על זיהוי, לא דיברנו בכלל על יצירה.
נמרוד: אוקיי, אז בעצם יש לנו מודל שיודע מאוד מאוד טוב, האם מופיעה תמונה של חתול או לא, למשל. אז המודל הזה הוא מבין איזשהו מבנה סטטיסטי של מה זה חתול, נכון? הוא מזהה את העיניים של החתול או את הפרווה של החתול, גם אם היא מופיעה בפיקסל 38 וגם אם היא מופיעה בפיקסל 42. כלומר, הוא מבין איזה שהוא משהו יותר עמוק. ובשנים האחרונות מצאו דרכים להפוך את המודל הזה, ובמקום להכניס לו קלט ושהוא יגיד האם זה חתול או לא, להכניס לו בעצם את הפלט שלו, להגיד לו, תצייר לי חתול ולראות מה בעצם הוא למד, איך זה נראה.
בוא נדבר דווקא על יצירת סיפור, אני חושב שזה יותר ברור.
אנחנו דיברנו קודם על איך מלמדים מודל, כשיש לנו אוסף של קלטים ואת הפלט הרצוי.
בעולם של שפה, אנחנו יכולים לקחת את כל האינטרנט, ממש יש לנו אינסוף דאטה, המון המון המון טקסט, ולסדר אותו כמשימה שהיא מה שנקרא משימה מפוקחת, כמו שאמרנו.
לוקחים משפטים מהאינטרנט, ובאופן arbitrary, באופן אקראי, מסמנים מילה שאנחנו מעלימים. שואלים את המודל, מה הייתה המילה החסרה, והאפשרויות שהוא יכול לענות זה כל עשרת אלפים, או כמות המילים שיש ב- vocabulary שלנו.
אז בעצם מודל כזה, שהוא מאוד מאוד מאוד גדול, ויש בו המון המון המון פרמטרים שזה בעצם הפעולות המתמטיות האלה שאמרנו קודם, שאותן אנחנו לומדים. מודל כזה, שהתאמן על המון המון דאטה מהאינטרנט, קרא המון כתבות, וכל פעם ניסה להשלים מילה, או ניסה להשלים שתי מילים. מודל כזה, פשוט יודע להשלים לבד.
יובל: אז אתה בעצם אומר שהוא עובר על כל האינטרנט, והוא רואה מה הדבר ההגיוני שבן אדם יכתוב אחרי המילה שכתבת. זאת אומרת, ממה שאני מבין, אז המודלים האלו, הם לא יכולים להמציא שום דבר חדש. זאת אומרת, הם רק עוברים על דאטה קיים, ומבינים איך בני אדם מתנהגים, ועושים איזשהו חיקוי של זה, נכון?
נמרוד: באופן מסוים, וזה מצער לשמוע, כן. המודלים האלה, הם בסך הכל אקסטרפולציה של המציאות, הם איזשהו המשך טבעי וסטטיסטי של דברים שראינו.
מישהו פעם אמר לי שהמודלים האלה מדהימים בלחזות את העבר.
ברמה הפרקטית, התוצאות האלה מדהימות. המודלים של בינה מלאכותית מייצרים היום ציורים וסיפורים ודברים שלא חלמנו בכלל, שמחשב יוכל לייצר בעצמו, ואני חושב שזה מאתגר מאוד את המבחנים והשאלות שהעלית בתחילת הפרק.
יובל: תודה נמרוד, עוד נחזור אליך בהמשך הפרק.
אם אנחנו כבר בקטע של להעלות שאלות, אז אני חושב שאי אפשר לדבר על בינה מלאכותית בלי להתייחס לסוגיות פילוסופיות או מוסריות.
חלק מהשאלות הללו יותר ברורות מאחרות.
לצורך העניין, אם אנחנו מדברים על בינה מלאכותית, אנחנו מהר מאוד יכולים לדבר על רובוטים. ואף שזה נשמע מעט עתידני, אנחנו חיים היום במציאות שבה לצבאות המתקדמים ביותר בעולם, יש רובוטים שהם לוחמים. זאת אומרת, מכונות שלא מופעלות מרחוק על ידי בן אדם, אלא ממש פועלות באופן עצמאי, ויכולות להרוג בני אדם.
בחלק מהמקרים זה רובוט שמזכיר אדם, בחלק מהמקרים זה נראה כמו איזשהו כלב שמותקן עליו נשק, במקרים אחרים מדובר על מטוס זעיר ללא טייס שיש לו בינה מלאכותית והוא יכול להפציץ בני אדם.
אנחנו כבר היום חיים במציאות שתיארו אותה בעבר כ… לא יודע, דיסטופיה. ואם לא דיסטופיה, אז לפחות מציאות שהיא מטרידה, בחלק מהמקרים.
יש הרבה מאוד שאלות מוסריות שעולות מלשלוח רובוטים לקרב.
דבר ראשון, יש פה משהו שהוא נשמע חיובי. אנחנו יכולים לשלוח רובוט שילחם באויבים שלנו, וככה אנחנו לא מסכנים את החיילים שלנו.
מצד שני, יש פה אולי משהו שהוא קצת לא הוגן, שבצד אחד יש בני אדם שעלולים למות, ומצד שני יש רק מכונות.
אבל יש פה עוד הרבה מאוד שאלות כבדות משקל, כמו מה קורה כשרובוט עושה טעות בזיהוי והורג חף מפשע, או לצורך העניין, הורג חייל שלנו.
מי אחראי לזה?
המתכנת?
הרובוט?
מה, אנחנו יכולים לשפוט רובוט?
זה סיטואציות שהן סיטואציות קצה.
ואם מלחמה היא תמיד מובילה אותנו לסיטואציות קיצוניות, אז זה יכול להיות גם במקרים הרבה יותר ארציים ויומיומיים.
נגיד יש לנו בינה מלאכותית שנוהגת לנו באוטו, כמו שמובילאיי מפתחים. וגם אם אותה בינה מלאכותית נוהגת באמת באופן מושלם, הרבה יותר מכל בן אדם, אז יכול להיות עדיין מקרה בו רוכב אופניים פתאום מתפרץ לכביש. עכשיו, האוטו יצטרך להחליט האם הוא דורס את רוכב האופניים, או לצורך העניין, סוטה מהנתיב ואולי פוגע ברכב אחר. האם זה משהו שאנחנו רוצים שמכונה תחליט? האם זה משהו שאנחנו רוצים לתכנת אותו מראש? זאת אומרת, הוא תמיד יפגע באוטו, או תמיד יפגע ברוכב אופניים?
זה סיטואציות שהן מאוד מאוד מורכבות מוסרית, גם אם אנחנו לא מכניסים להן בינה מלאכותית. והדיון המוסרי הזה רלוונטי גם כשאנחנו מדברים על דברים שהם לא בהכרח חיים ומוות.
בשבוע שבו אני מקליט את הפרק הזה, פורסם בכלכליסט, העיתון שבו אני עובד, על כך שהמשטרה מפעילה איזשהי בינה מלאכותית, שמזהה איזה אנשים יש להם פוטנציאל להבריח סמים. ואותם אנשים שהבינה המלאכותית מזהה אותם כסכנה פוטנציאלית, אז הבידוק הביטחוני מתלבש עליהם ובודק אותם כמו שצריך. זאת אומרת, יותר מכמו שצריך.
עכשיו, יכול להיות שזה מוצדק לגמרי, כי זה מביא תוצאות, אבל מה אם אותה בינה מלאכותית מתבססת על כל מיני דברים שהם לצורך העניין פרופיילינג או גזענות. לצורך העניין אנשים שיש להם רסטות, ישר ייעצרו, באופן אוטומטי.
למה?
כי הבינה המלאכותית מקשרת אותם לסמים.
זה נשמע מופרך, אבל בגלל שהבינה המלאכותית מבוססת בסופו של דבר דובר על מאגרי הידע האנושיים, והאנושות שאנחנו חיים בה מכילה גזענות והטיות כאלו ואחרות, אז יוצא שהבינה המלאכותית היא לא פחות גזענית מאיתנו ולפעמים יותר, כי אין לה את המודעות הזאת של "רגע, אני מתנהלת בגזענות, אני אתנהל אחרת".
וכתוצאה מכך נרשמו מקרים שבהם, נגיד, נתנו לבינה מלאכותית למיין מועמדים לעבודה, והיא סיננה אנשים שחורים או נשים.
למה?
כי זה מה שבני אדם עושים, אז זה מה שהבינה המלאכותית עשתה.
וכך נוצר מצב שבו הבינה המלאכותית יכולה להיות מאוד גזענית, או מאוד מיזוגנית, או הרבה הטיות אחרות שאנחנו לא מודעים אליהן, לא בגלל שרובוטים הם מרושעים, אלא בגלל שאנחנו קצת מרושעים.
אבל אפילו אם היינו יודעים שהבינה המלאכותית שיצרנו היא גזענית, והיינו מנסים לתקן את זה, אז זה לא היה כל כך פשוט, כי יכול להיות שיש לה הטיות אחרות לגמרי שאנחנו בכלל לא מודעים אליהן.
נמרוד, שקודם דיבר איתנו, חוקר בדיוק את הנושא הזה.
נמרוד: התחום שאני מתעסק בו בחקר הבינה המלאכותית הוא החלק שבו אנחנו מסבירים איך היא פועלת.
ההבדל בין ה"מה", מה החיזוי שהמכונה מייצרת, שבו אנחנו, כמו שאתם ודאי יודעים, משתפרים מאוד, לבין ה"איך", שזה מקביל לחקר הקוגניציה.
אני חושב שהדבר הזה הוא משמעותי, ויותר ממשמעותי, הוא הכרחי כדי להטמיע בינה מלאכותית בכל מיני מערכות תומכות החלטה כמו בבתי חולים, או להשתמש בו בחיי היומיום.
הבעיה המרכזית עם המודלים האלו, שהם ראו המון המון המון דאטה, והם הכלילו אותו מצוין.
הם בעצם מייצגים מבנים סטטיסטיים שאנחנו לאו דווקא מבינים. מה שנקרא Black Box, קופסה שחורה.
זה בעייתי מכיוון שאין לנו שקיפות, ואין לנו יכולת להבין ולפרש את הפעולות ואת החיזויים שהם בוחרים. והדבר הזה מקשה עלינו להטמיע את המודלים האלו במקומות שבהם אנחנו היינו רוצים להשתמש בכוח הזה של בינה מלאכותית.
למשל במקרים מסוימים ברפואה, מודל יכול לחזות טוב מרופא, האם אדם צריך ללכת לניתוח כזה או אחר.
עדיין, ללא שקיפות וללא יכולת להבין מדוע המודל מורה ללכת לניתוח, אני לא מכיר הרבה אנשים שהיו מוכנים לקפוץ לשולחן לניתוחים ללא הסבר.
יובל: נמרוד בעצם מסבך עוד יותר את הסוגיה שדיברנו עליה קודם, כי זה לא רק שיש לנו בעיה לסמוך על בינה מלאכותית שתקבל החלטות כאלה או אחרות, בטח כשמדובר על דברים של חיים ומוות, אלא שאנחנו בכלל לא בטוח יודעים איך היא מקבלת את ההחלטות הללו.
זאת אומרת, בגלל שזה רץ כל כך הרבה פעמים על כל כך הרבה מידע, אנחנו לא באמת מבינים את המודלים הללו מספיק טוב בשביל לסמוך עליהם באופן עיוור. אנחנו לא יודעים מה השיקולים שלהם, אם בכלל אפשר לדבר על המילה שיקולים בהקשר הזה.
הדיון הפילוסופי מוסרי שנוגע לכל מה שקשור לשימוש בבינה מלאכותית, לא נשאר רק במחוזות האקדמיה והפילוסופיה, והוא משפיע על חיינו כבר עכשיו.
לצורך העניין, אחת הסיבות שמכוניות אוטונומיות לא משתלבות בתנועה בצורה מספיק מהירה, היא לא טכנולוגית, אלא רגולטורית משפטית.
הסיבה לזה היא, שכל עוד אנחנו לא מסבירים מבחינה רגולטורית חוקית, גם בחוקי המדינה, אבל גם בחוקים בינלאומיים, את כל מה שקשור לאחריות במקרה של פגיעה של רכב אוטונומי, אז יש לנו בעיה. כי אם יש עכשיו תאונה לצורך העניין שנגרמה משימוש ברכב אוטונומי, אז מי משלם את הפיצויים?
הנהג, שהוא לא באמת נהג?
החברה שמייצרת את הרכב, שאחראית על זה?
אולי בכלל חברת התשתית של הכבישים, שלא עשתה את העבודה שלה כמו שצריך, ולכן הרכב האוטונומי פישל.
וזו הסיבה שכל עוד אנחנו לא נפתור את כל הבעיות הלכאורה פילוסופיות הללו של מי אחראי על הבינה המלאכותית, אז לא יהיו רכבים אוטונומיים על הכביש, כי אף חברת ביטוח לא תסכים לבטח משהו שהיא לא יודעת מי אחראי עליו.
וככה נוצר לנו מצב שבו פתאום לפילוסופיה יש משמעות בחיים האמיתיים, בכסף של חברות ענק ומכוניות.
זה משהו שלא קורה ביומיום, ושווה להעריך את זה. לפחות תודה לבינה המלאכותית שנתנה קצת עבודה לפילוסופים.
ואני רוצה לסיים את הפרק עם מושג פילוסופי, שהוא לא דווקא מתחום המוסר.
המושג הזה נקרא סימולאקרה, והוא נחשב לחלק מהשיח הפוסט-מודרני.
עכשיו, אנחנו לא ניכנס לכל הדקויות הללו, אבל אני כן אנסה להסביר בעדינות מה זה.
בסוף, סימולאקרה מתייחסת לייצוג, אבל ייצוג קצת במובן של חיקוי, ייצוג שלא כולל בתוכו את המהות של הדבר האמיתי.
תחשבו נגיד על תמונה של נוף כלשהו. התמונה הזאת היא כמובן לא הדבר האמיתי, אבל היא מייצגת את הדבר הזה בעולם.
עכשיו בואו ניקח את זה שני צעדים קדימה.
תחשבו על כל ההעתקים של התמונה הזאת שנוצרה.
אם אנחנו יכולים להגיד שהתמונה המקורית היא איזשהו משהו בפני עצמו, נגיד אם היא מוצגת במוזיאון על ידי האמן שיצר אותה, אז תדמיינו שבמוזיאון רמת גן יש רפליקה של התמונה שהיא ייצוג בפני עצמו. אנחנו כבר מאבדים מזמן את הקשר לדבר המקורי שהיה שם.
והדבר הזה כלל ריח, כלל תחושות מסוימות, כלל תלת מימד, כל מיני דברים שהייצוג פשוט לא נותן.
מצד שני אי אפשר להתכחש ליחס המקורי בין הנוף ההוא לבין המוצר שנוצר בעקבות הנוף הזה, וגם אי אפשר להגיד שלדבר החדש אין חיים משלו ושאנשים לא מגיבים אליו.
בינה מלאכותית חזקה, זאת שמנסה לחקות התנהגות של בני אדם, היא באיזשהו מקום סוג של סימולקרה. היא גם משתמשת בדאטה שבני אדם יצרו, נגיד שיחות בשביל לחקות אותן וללמוד לדבר, וגם בסופו של דבר היא מנסה להיות הדבר האמיתי, היא מנסה להתנהל כמו בני אדם, זה מה שכיוונו אותה להיות.
ומכאן עולה השאלה, האם בינה מלאכותית מוצלחת, כזאת שתעבור את מבחן טיורינג ובאמת תדבר כמו בן אדם, ותציג רגשות כמו בני אדם, ותחשוב כמו בני אדם, היא באמת תכיל את כל הדברים הללו, או שיהיה מדובר בחיקוי, כי הכל פשוט חיקוי של האנושות.
נגיד כבר היום יש כל מיני אפליקציות שמדמות חבר או חברה וירטואליים, שאתה יכול לדבר איתם בשביל להפיג את הבדידות, וזה כנראה עובד, וזה מפיג את הבדידות של אנשים, וביפן אנשים מתחתנים עם האפליקציות הללו ועם בובות.
אז יש כאן משהו, זה דבר אמיתי, ומתבקש להגיד לא, זה חיקוי, זה שטויות.
אבל כשאנחנו חושבים על זה, גם אנחנו, אנחנו בסוף אוסף הדברים שקלטנו מבחוץ.
כל הדברים ששמענו מההורים שלנו, אנחנו אוסף הגנים של אבות אבותינו, אז אולי גם אנחנו סוג של סימולקרה, ואולי אנחנו לא יותר טובים מהדבר הזה שיצרנו, שמפה לשם הוא מכיל יותר ויותר בעיות אנושיות ממה שאולי היינו רוצים לדמיין.
תודה רבה לכם על ההאזנה, אני מקווה שנהנתם מהפרק הזה, ואם כן, ספרו לחברים שלכם, זה לא עולה כסף.
אני יובל שדה, אתם מוזמנים ליצור איתי קשר דרך הפייסבוק, יש קבוצת פייסבוק לחור בהשכלה, יש דף פייסבוק לחור בהשכלה, ויאללה, ניפגש בפרק הבא.
[מוזיקה]
לעוד פרקים של הפודקאסט לחצו על שם הפודקאסט למטה
Σχόλια