top of page
ענת כהנא

ריפרש - המפגש המסוכן בין רובוטים לבני אדם

האם הרובוטים ישתלטו על העולם? ד"ר הדס אראל, ראש תחום רובוטים חברתיים במעבדה לחדשנות במדיה באוניברסיטת רייכמן מסבירה כיצד רובוטים משפיעים על ההתנהגות האנושית, לאילו דברים אנחנו צריכים לשים לב כאשר אנחנו פוגשים אותם ומדוע רובוטים הומנואידים הם לא הפתרון הנכון.


 

תאריך עליית הפרק לאוויר: 26/05/2022.

[חסות]

קרין: אתם מאזינים ל-Ynet פודקאסטים.

אושרית: היי, ברוכים הבאים לריפרש, פודקאסט הטכנולוגיה של Ynet.

אני אושרית גן-אל.

יובל: ואני יובל מן.

אושרית: היום נמצאת איתנו דוקטור הדס אראל. מומחית לפסיכולוגיה קוגניטיבית וראש תחום רובוטים חברתיים במעבדה לחדשנות במדיה באוניברסיטת רייכמן.

נדבר על ההשפעות העמוקות שיש לרובוטים עלינו. עד כמה אנחנו לא מודעים אליהן ולמה זה מסוכן. על הדברים שחשוב לקחת בחשבון כשמעצבים רובוטים. וגם ננסה להגדיר, מה זה בכלל רובוט.

קדימה, בואו נעשה ריפרש.

אז שלום לדוקטור הדס אראל, ראש תחום רובוטים חברתיים במעבדה לחדשנות במדיה באוניברסיטת רייכמן. תודה שאת איתנו.

ד"ר אראל: שמחתי לבוא.

אושרית: כשאת אומרת לאנשים שאת חוקרת רובוטים, אני משערת שהם חושבים על דברים אחרים לגמרי ממה שאת באמת עושה בפועל.

ד"ר אראל: מה ש… הגדרה מדויקת מזו, קודם כל הם חושבים שאני מהנדסת. אמנם למדתי איזה שנה הנדסה בעבר וזה הספיק לי לגמרי, וגם הם חושבים על רובוטים שנראים כמו בני אדם ומתנהגים כמו בני אדם וגם זה רחוק מהאמת, כמו שאני מהנדסת. [צחוק קל] אז זה לא זה ולא זה.

יובל: אז מה את כן עושה?

ד"ר אראל: אז בעצם אני עוסקת בתחום שנקרא אינטראקצית אדם-רובוט, שהוא חלק מתחום גדול יותר שנקרא אינטראקצית אדם-מחשב או אינטראקצית אדם-טכנולוגיה. תחום יחסית חדש, כשבשנים האחרונות, העשורים האחרונים אולי, יש הבנה כללית יותר, גם בתעשייה וגם באקדמיה, שכדי לייצר טכנולוגיה, שאנשים ירצו להשתמש בה, צריך להבין אנשים. צריך להבין בני אדם. ואז נוצר איזשהו תחום בין דיסציפלינרי מאוד מאוד מעניין, שכולל גם בני אדם, גם עיצוב וגם הנדסה, וכל זה ביחד מתכנס, כדי לנסות להבין, איך אנחנו יוצרים טכנולוגיה שאנשים ירצו להשתמש בה. ובמקרה הספציפי שלי, איך אנחנו מייצרים התנהגות רובוטית או בכלל איך אנחנו מעצבים רובוטים, שאנשים ירצו להשתמש בהם. ופה אני נכנסת וחושבת על הרובוטים, על השימוש בהם ועל איך הם אמורים להתנהג.

יובל: כן, ואת חוקרת גם איך בני אדם מגיבים לרובוטים.

ד"ר אראל: נכון, בעצם יש פה איזשהו סיפור מאוד מאוד רחב, כי הרובוטים כבר קיימים. כבר להרבה מאוד אנשים יש רובוטים בבית. אמנם לא הרובוטים שאנחנו חושבים עליהם מתוך סיפורי המדע הבדיוני ו-Westworld וסדרות כאלה, אבל אני חושבת שהרובוט הכי מצליח בעולם הוא iRobot או רומבה או כל רובוט, שמנקה לנו את הבית. המון אנשים, יש להם את הרובוט הזה, והוא חייב להתנהג באופן שמשמח אנשים, שגורם לאנשים לרצות להשתמש בו, אבל הוא גם משפיע על איך שאנשים מתנהגים ועל איך שאנשים חושבים. ואנחנו צריכים למפות את כל ההשלכות האלה, כי אנחנו עלולים לפספס ולייצר איזה שהן השלכות, שאנחנו לא נשים לב אליהן, והן לא בהכרח יהיו חיוביות.

ולכן, חוץ מלנסות לייצר רובוטים שמשמחים אנשים ומשפרים לנו את ה-well being ואת החיים, אנחנו גם צריכים להבין לעומק, איך אנחנו נמנעים מלייצר התנהגויות רובוטיות, שיגרמו לנו להרגיש ממש רע.

אושרית: זה משהו שאני חושבת שהוא מאוד מפתיע, זה שזה כל כך משפיע עלינו, ההתנהגות של הרובוטים בסביבה שלנו, ובכלל כל הסוג של הַאֲנָשָׁה שאנחנו עושים להם, הצורה שאנחנו מפרשים את ההתנהגות שלהם.

ד"ר אראל: אז אולי אנחנו צריכים ללכת רגע אחורה בהבנה שלנו, או לעומק בהבנה שלנו של בני אדם, לעולם של פסיכולוגיה חברתית. שם כבר לפני הרבה מאוד שנים עלה מה שנקרא ה-social brain hypothesis. בעצם הטענה שאנחנו תופסים את העולם מתוך עדשה חברתית. כל מה שאנחנו יכולים לתפוס כהתנהגות חברתית אנחנו תופסים כהתנהגות חברתית. וכמו שאמרת, אנחנו עושים האנשה כמעט לכל דבר שיש לו התנהגות אוטונומית. ולכן כשיש לנו iRobot שמסתובב בבית, אנחנו חושבים, "אוי הוא הולך אחריי, או הוא יצא להתאבד בדשא, כי היה יותר מדי שערות של הכלב". אנחנו נותנים להם שמות ואנחנו מצפים שהוא יהיה באינטראקציה עם החיות שלנו. וכל זה למרות שהוא בסך הכל אוסף אבק מהרצפה.

יובל: וזה בטח נכון כשמוסיפים להם עיניים, וכאילו זה מראה אנושי כזה. אז בכלל אתה חושב שיש לו איזה תכונות אנושיות. אבל בואי נדבר רגע, מה זה בכלל רובוט? מה ההבדל בין סתם מכשיר חשמלי לרובוט?

ד"ר אראל: אז אני אפילו אקח רגע צעד אחורה ואאתגר את מה שאמרת, כי זה נכון שכשאנחנו מוסיפים למשהו עיניים ופה, אז אנחנו ישר חושבים על זה בתור משהו אנושי. אבל אנחנו גם לא צריכים את זה בשביל לחשוב על משהו בתור משהו אנושי, וזה בדיוק העוצמה של ההיפותזה הזאתי. אנחנו באמת חושבים על הכל כיצור חברתי. אני לא אגיד אנושי, כי באמת אנושי הולך לעולם של מראה אנושי, אבל התפיסה שלנו של אובייקטים, שיש להם איזושהי פעילות משל עצמם, אנחנו ממש שמים עליהם איזושהי כוונה ואיזושהי חשיבה עצמאית משלהם, גם כשזה לא קורה. ואנחנו ממש עושים אינטראקציה חברתית עם הכל. אין לנו שום בעיה לעשות את זה.

ולשאלה, מה זה רובוט? זאת שאלה ממש ממש ממש גדולה, ואני מניחה שלכל אחד יש את ההגדרה שלו. גם בתוך האקדמיה אף אחד בכלל לא מנסה. לא מצאתי אפילו מקום אחד שדן בשאלה, מה זה רובוט.

אני חושבת ש-90% מהאקדמיה עושה רובוטים שהם humanoid, שהם נראים כמו בני אדם. אבל אם אנחנו הולכים לעולם של התעשייה, כמעט אף אחד לא עושה רובוט שנראה כמו בן אדם, כי בעצם עושים רובוטים לכל מיני צרכים מסוימים. אין שום סיבה שה-iRobot שלנו יראה כמו בן אדם, כשכל מה שהוא צריך זה להסתובב על הרצפה ולאסוף אבק. ויש לנו פה איזשהו פער מאוד מאוד גדול. אילון מאסק מבטיח לנו רובוט שיראה כמו בן אדם, ויעשה כל מה שבן אדם יודע לעשות, וגם…

אושרית: אילון מאסק מבטיח הרבה דברים.

[צוחקים]

יובל: יש גם רובוט ישראלי, גארי. ראית את הרובוט הזה?

ד"ר אראל: ראיתי את גארי, כן.

יובל: הוא חצי humanoid, והוא גם יודע לעשות כל מיני דברים. יש לו זרועות ויכול לנקות ולאסוף דברים.

ד"ר אראל: נכון. ראיתי אותו, הוא אפילו היה אצלנו באוניברסיטת רייכמן, עמד בלובי של הבניין שלנו לפני כמה ימים. הוא מאוד humanoid, אולי חוץ מזה שיש לו גלגלים במקום רגליים. אני שוב רוצה לאתגר את החשיבה ולשאול, אחד, למה? למה הוא צריך לראות כמו בן אדם? איזה סיבה, כשאנחנו חושבים על רובוט, אנחנו חושבים על humanoid רובוט. למה? עוד פעם, למה אנחנו תקועים בחשיבה הזו?

יובל: בגלל המדע בדיוני, בעצם, לא? בגלל סרטים וספרים שקראנו, נכון?

ד"ר אראל: זאת תהיה התשובה שלי. כי, שוב, אין שום היגיון בזה. למה מכונה שהיא אוטונומית ויש לה פעילות משל עצמה צריכה לראות כמו בן אדם? איזה… אנחנו כל כך מגבילים את החשיבה שלנו. היא הופכת להיות כל כך צרה, ואז אנחנו מגבילים את העיצוב של הרובוט והוא בכלל לא בהכרח מתאים לפונקציה שלו.

יובל: זה מגבלות הדמיון שלנו, בעצם.

ד"ר אראל: יכול להיות. אני חושבת שכן. אני חושבת שאנחנו מאוד מקובעים בחשיבה. ורק אגיד עוד משהו אחד על רובוטים שנראים כמו בני אדם, אם בסופו של דבר הם צריכים לעשות איזושהי פעולה, שהיא לא כל כך מתאימה מבחינת הפיזיות של הרובוט, ואז הרובוט, צריך לשבור את הצורה שלו כבן אדם כדי לבצע את הפעולה, אז זה, אנחנו נורא נורא נורא רגישים לזה. כי פתאום יש פה בן אדם שהוא שבור…

יובל: כן.

ד"ר אראל: וצריך מאוד להיזהר עם זה.

אושרית: את יכולה להסביר קצת יותר, למה לדעתך זה פחות עובד, הרובוטים שנראים כמו בני אדם.

ד"ר אראל: אז יש כמה תופעות שאנחנו כבר מכירים מתוך המחקר. תופעה הראשונה והמשמעותית ביותר היא ציפיות. כשאנחנו רואים משהו שנראה כמו בן אדם, אנחנו מצפים שהוא יתנהג כמו בן אדם. ואנחנו לא שם. רוב הרובוטים שלנו הם בנויים מפלסטיק, התנועה שלהם היא מאוד מאוד לא זורמת…

אושרית: מכנית.

ד"ר אראל: מכנית. בדיוק. היכולת הפקת דיבור ותפיסת דיבור שלהם רחוקה מלהיות משהו שהוא דומה לשיחה אנושית. אני יודעת שיש לנו את גוגל אסיסטנט ושיחה עם המספרה, אבל זאת עדיין שיחה עם המספרה. ושיחה, כמו שאנחנו מנהלים פה, אנחנו עדיין לא יכולים לעשות עם הרובוט. ובסוף השטח מדבר, וחברות שיש להם humanoid רובוט, כמו פפר שהוא רובוט humanoid, שהיה בכל מקום. עדיין היה לו מסך על הגוף, אז בשביל מה הוא רובוט? וגם הוא לא שרד.

אושרית: לאחרונה היה לך איזה מחקר בנושא, בעצם, ההשפעה שאנשים שעברו איזושהי אינטראקציה מול רובוט, ואיך אחר כך הם מתנהגים מול בני אדם בכלל באינטראקציות אחרות. לדעתי הממצאים שם היו mind blowing לגמרי. את יכולה לספר על זה קצת?

ד"ר אראל: כן, אבל אנחנו צריכים לדבר קודם על מה זה רובוט, כדי להגיד רגע איזה סוג של רובוט היה בתוך המחקר הזה, או רובוטים היו בתוך המחקר הזה. כי אנחנו במעבדה עוסקים רק ב-Non-humanoid robots, שזה אומר שזה אובייקטים רובוטים. שכרגע אם אתם מכריחים אותי להגדיר מה זה מבחינתי רובוט, אני אגיד שזה איזושהי מכונה שיש לה פעילות אוטונומית משל עצמה. זאת אומרת היא פועלת באיזשהו אופן שיכול להיות תגובתי למשהו שאני עושה.

יכול להיות לגמרי בלתי תלוי במה שאני עושה, אבל זה עדיין איזושהי פעילות אוטונומית של המכונה. יש פה טווח שאיפה עובר הגבול שלו. פה אני כבר אסרב לתת איזושהי תשובה חדה, כי יכולות להיות כל מיני מכונות שיש להם פעילות אוטונומיות שמאוד רפטטיביות, וזה לא בדיוק הוא יהיה זה. אבל אנחנו, ברגע שיש משהו שהוא פועל ומגיב לסביבה בפני עצמו, בלי שמישהו לחץ על כפתור ואז זה קרה, שם תהיה ההגדרה שלי. שם יהיה הטווח שלי.

ובאמת, במחקר שדיברת עליו, מה שעשינו זה לקחנו מחקר מאוד מאוד ידוע ומוכר מעולם של פסיכולוגיה חברתית, שבו אדם מתמסר בכדור עם שני אנשים אחרים. ככה זה היה בפסיכולוגיה חברתית, שהוא לא מכיר, משחק וירטואלי על המחשב, ושני האנשים האחרים מתחילים למסור את הכדור אחד לשני ולא מוסרים לו, ואנחנו מיד חווים דחייה חברתית מאוד מאוד קיצונית. לקחנו את הסיפור הזה, עשינו אותו בעולם הפיזי, בנינו מערך פיזי, שיש בו שני אובייקטים רובוטיים. אחד שזה ממש נראה כמו כדור קטן על כדור גדול, שיכול לנוע עליו, והשני אובייקט רובוטי, שנראה קצת כמו המנורה של פיקסאר. ו…

אושרית: כלומר, לא אנושיים בכלל.

ד"ר אראל: לא אנושיים בכלל, קטנים, עושים תנועות מאוד מאוד מינימליות. עוד זרוע רובוטית שמזיזה איזה כדור מתחת לשולחן. והאדם שיחק עם האובייקטים הרובוטיים. הרובוט שנראה כמו המנורה של פיקסאר, רואים את המנועים שלו. הכל נורא נורא ברור שמדובר במכונות. ושיחקו בכדור, ותוך שלוש שניות הרובוטים מפסיקים למסור לאדם, מתחילים למסור אחד לשני, ואנשים חווים דחייה חברתית ממש ממש ממש קיצונית. זה היה השלב הראשון של המחקר הזה.

זה הפתיע גם אותנו, העוצמה של הדחייה החברתית. אנשים ישבו ואמרו יכולתי לעזוב ואף אחד לא היה שם לב. ושוב, שתי מכונות, המנועים בחוץ, עושים תנועות נורא נורא קטנות… ואז, כשהסתכלנו קצת על התוצאות, אמרנו רגע, כשאנשים חווים דחייה חברתית מאנשים אחרים, יש לזה השפעות ארוכות טווח, ואחרי זה הם הופכים או להיות אגרסיביים או להיות דווקא pro social ומאוד לרצות שיקבלו אותם בחזרה.

והחלטנו לראות, מה קורה. מה קורה אחרי שאתה חווה דחייה כזאת מרובוטים. מה קורה באינטראקציות שלך עם בני אדם, בסיטואציה שכבר אין בה את הרובוטים. זאת אומרת, עשית איזושהי אינטראקציה עם הרובוטים, אחרי זה אתה נפגש עם בני אדם, ורצינו לראות אם זה משפיע על ההתנהגות שלך. וגם רצינו לראות, אם אנשים ישייכו את ההתנהגות שלהם מבני אדם לאירוע שהיה קודם עם הרובוטים. חשוב היה מאוד לראות אם זה, אם אנחנו בכלל מודעים לדבר הזה.

יצרנו סיטואציה שהייתה אמורה להוביל אנשים להתנהגות שיותר pro social, להיות יותר נדיבים, אדיבים וגם נוחים להשפעה. והתוצאות היו גם קיצוניות באופן מטריד. חווים דחייה חברתית מהרובוטים, נפגשים אחר כך עם בן אדם אחר, ואנשים כל מה שהם רוצים זה שיאהבו אותם. הם מנסים בכל כוחם להרגיש קבלה וחיבה מהבן אדם השני, ויש להם אפס מודעות לעובדה שזה קשור למה שקרה עם הרובוטים קודם. וגם נוחים מאוד להשפעה. מוכנים להתנדב לעשות כל מיני דברים, שלא היו מוכנים לעשות בסיטואציות אחרות.

אושרית: איך אנחנו מסבירים את הפער הזה בין איך שאנשים מתנהגים ומה שהם מבינים, לגבי ההתנהגות שלהם? זה איזשהו אגו שבן אדם אומר, מה פתאום, הרובוט לא משפיע עליי ולא מעליב אותי, או משהו אחר?

ד"ר אראל: אנשים בהחלט אומרים שהרובוט העליב אותם. הם מאוד נעלבים מהרובוטים ואומרים דברים כמו, "רציתי להתחבר איתם והם לא הסכימו, הם לא שיתפו אותי, זה היה ממש מעליב, הרגשתי כמו זר". לחלוטין מודעים לחוויה עם הרובוטים, אבל פשוט לא מניחים שהדבר הזה הוא משפיע באופן כל כך קיצוני. יש לנו הרבה, יש הרבה אפקטים כאלה, אימפליציטים [Implicit, זיכרון מרומז] חבויים, שאנחנו לא שמים לב אליהם, שהם ממש מעצבים את ההתנהגות שלנו בהמשך. אנחנו פשוט לא מודעים.

יובל: אוקיי, אז נגיד עכשיו רובוט העליב אותי. מה הולך לקרות לי עכשיו? מה אני עשוי לעשות בעקבות זאת?

ד"ר אראל: אז, הדבר הראשון שאתה תעשה, אתה תהיה יותר נחמד לאנשים מסביבך. אם אנשים מסביבך יהיו נחמדים אליך בחזרה ואתה תרגיש שיש סיכוי לאיזושהי חוויה של קבלה חברתית, אתה תהיה מוכן לעשות כמעט הכל. תלוי באופי שלך, וכמובן זה אינדיבידואלי, אבל הטווח פה הוא לא מאוד מאוד רחב. אנשים מאוד מאוד מתאמצים שיקבלו אותם ויאהבו אותם.

בניסוי שלנו ראינו שאנשים, עשינו סיטואציה של ראיון… הנסיין, עוזר המחקר שלי, אליאור כרסנטי, שהוא ניהל את הראיון, וביקשנו מהנבדק להביא כיסא פנימה לתוך החדר, ורצינו פשוט לראות כמה רחוק הם מתיישבים מאליאור. ומה שקרה זה לא רק שהם ישבו מאוד קרוב אליו, במקום להתיישב מולו, שזו סיטואציה רלוונטית בתוך ראיון, הם התיישבו לידו. שזה היה כל כך מוזר. הוא תמיד יצא מהניסויים, מהראיונות האלה ואמר לי, "זה היה כל כך… לא כל כך ידעתי איך להתנהג בסיטואציה הספציפית הזאת, שבן אדם בא ומתיישב לידך, כשאתה אמור לראיין אותו". יושבים מאוד קרוב, זה כאילו, כמעט התיישבו עליו.

יובל: זאת אומרת, יש רצון בקרבה חברתית.

ד"ר אראל: קרבה חברתית מאוד מאוד גדולה. ואפילו החוויה הבסיסית הזאת, שיש סיכוי שיאהבו אותי, יכולה לגרום לי להיות מוכן לעשות המון דברים, שכנראה לא הייתי מוכן לעשות קודם.

יובל: זאת אומרת, נגיד אם עכשיו איזה סוכן מכירות יתקשר אלייך ויציע לך לעשות מנוי בהמון כסף או לקנות איזה מכשיר, אז יש סיכוי שאת תגידי כן, פשוט כי את רוצה להרגיש אהובה.

ד"ר אראל: בדיוק. ותחשבו על זה שממש בעוד רגע הבתים שלנו הולכים להיות בתים חכמים. כבר חלקם מאוד חכמים, IoT Devices, כל המכשירים שלנו הולכים לדבר אחד עם השני, ופה בדיוק נכנס העולם הזה של HCI, של Human Computer Interaction. אם אנחנו לא נבין שאנחנו חייבים להשאיר לבני אדם תפקיד, איזושהי מעורבות בתוך האינטראקציה הזאת עם המכשירים בבית, אנחנו נרגיש דחייה חברתית בבית שלנו. iRobot ידבר בבוקר עם המכונת קפה, כי המטרה של זה היא טובה, לחמם לי את המים או אני לא יודעת מה, ואני אצא מהבית, וכל מי שיפגוש אותי עכשיו יכול לגרום לי לעשות דברים שממש לא התכוונתי.

יובל: אז איך עושים את זה? איך עושים את זה נכון?

ד"ר אראל: אני חושבת שזה לא מסובך. הדבר הראשון שצריך זה מודעות, ואני חושבת שאנחנו לא מיפינו עדיין בכלל את כל ההשלכות האלה, המורכבות ואפילו השליליות, שעלולות להיות לרובוטים על בני אדם. רוב המחקר עוסק באיך אנחנו עושים רובוטים ל-well-being. אנחנו יכולים לדבר על עוד השלכות שליליות, שאנחנו מתחילים להסתכל עליהם היום, אבל ברגע שהבנו שזה העניין, למה שה-iRobot לא יגיד לי בוקר טוב?

נכנסתי הביתה אחרי יום עבודה וה-iRobot פועל, הוא יודע פחות או יותר מתי אני אמורה להגיע, שפשוט יבוא לקראתי. אנחנו עוד פעם, אנחנו התחלנו לדבר על האנשה. אנחנו כל כך בקלות שמים איזושהי אינטרפרטציה חיובית וחברתית על מה שקורה עם המכונות שלנו. iRobot פשוט בא לקראתי, ואני ישר בראש אומרת וואו, הוא שמח שבאתי הביתה. כמה זה קל. אנחנו ממש יכולים לקחת את כל המכשירים שלנו בבית ולגרום לנו לאיזושהי חוויה, שאנחנו אהובים, שזה המקום שלנו. גם כך הבית זה מקום כל כך כל כך משמעותי. אנחנו יכולים לקחת את הבית ולגרום לו לאהוב אותנו. ומכאן כבר, אתם יודעים, השמיים הם הגבול.

אושרית: כן. היה לך מחקר, בעצם, שמראה לדעתי באמת את ההפך הזה. על אנשים שנמצאים בשיחה והרובוט נמצא שם, ובעצם אמרתם לכל אחד, לכל זוג נבדקים, לספר על איזושהי בעיה שהוא מתמודד איתה, והרובוט עושה תנועות ממש מינימליות ואנשים מרגישים שהוא מעודד אותם לדבר, או תומך בהם.

ד"ר אראל: אז אנחנו, בתוך העולמות האלה באמת, של לקחת אובייקט רובוטי ולגרום לו, לגרום לאנשים להרגיש טוב יותר, ולחזק את, לא רק אותי, אלא גם את הקשר ביני לבין אדם אחר. גם, הגישה שלנו היא מאוד שונה מהרבה מקומות אחרים שלוקחים humanoid רובוט, שמים אותו על השולחן פה, ביני לבינך, והוא מתחיל לדבר משפטים חצויים בטון מכני.

להפך, אנחנו אוהבים לשים אובייקט פריפריאלי, קטן, עדין, שעושה דברים ממש ממש מינימליים. אם ניקח את הרובוט שדומה למנורה של פיקסאר, כל מה שהוא צריך זה לפנות אל אחד מאיתנו וזה מיד יוצר תחושה של קשב. ועדיין הוא לא מפריע לשיח ה-human-human בין האנשים. נוצר עדיין שיח שהוא מאוד מאוד טבעי ורגיל ואין הפרעה של משהו חיצוני, והוא מעצים בצורה קיצונית את החוויה הבין אישית ביני לבין האדם שאני איתו באינטראקציה.

ובסיטואציה המאוד רגישה הזאת, שבה בן אדם אחד מבקש עזרה מבן אדם אחר, מה שעשינו זה, לקחנו בהתחלה פסיכולוגית. עבדנו עם פסיכולוגית שעוסקת בטיפול זוגי, מדהימה, ופשוט ביקשנו ממנה לתווך את הסיטואציה הזאת בכמה שפחות שיח, רק באמצעות גוף. וראינו שהיא כל הזמן פונה גם כשיש, גם כשאם את מבקשת ממני עזרה ואני זאת שתומכת, גם כשאני מדברת, עדיין הגוף שלה כל הזמן היה מופנה לכיוון האדם שמבקש עזרה. וזה מה שלקחנו. רק את המינימל nonverbal של הגוף.

יובל: מחוות קטנות.

ד"ר אראל: בדיוק. מחוות ממש ממש קטנות שהיא עשתה. ולקחנו את האובייקט הרובוטי הזה, שנראה כמו מנוע של פיקסאר, ובתוך שיח שבו בן אדם אחד מבקש עזרה והשני אמור לתמוך, האובייקט הרובוטי תמיד פנה ועשה מחוות קטנות פיציות של קשב לכיוון האדם שמבקש עזרה.

ואז קרו שני דברים, לא רק דבר אחד. האדם שביקש עזרה הרגיש שהוא מקבל יותר תמיכה. אבל זה ממש עשה איזה טריגרינג ל- caregiving system של הבן אדם שאמור היה לתמוך. ופתאום ראינו הרבה יותר התנהגויות תמיכה שהרובוט בכלל לא ביצע. הוא לא עשה להם מודלינג והאדם שאמור היה לתמוך, פתאום עשה יותר הנהונים עם הראש, נתן יותר מקום לשיחה. במקום לפתור את הבעיה, היה עסוק יותר בלעודד מילים של עידוד ונוצר, זה ממש העצים את כל החוויה של התמיכה שהייתה שם.

ואז אנחנו, אני חושבת שבאופן כללי במעבדה, אנחנו מאוד אוהבים את המינימליזם, לנסות לקחת אובייקט רובוטי ולא לנסות לשנות את העולם עכשיו או להכניס עוד מישהו לתוך אינטראקציה, אלא לקחת מחוות מאוד פשוטות של אובייקטים רובוטיים מאוד פשוטים ולנסות לשפר את המצב.

אושרית: הפסקה קצרה וכבר חוזרים.

[פרסומת]

יובל: בדקתם גם איך רובוטים משפיעים על קשישים, נכון?

ד"ר אראל: נכון. אז זה, זה עולם שלם ומעניין.

אני אעצור גם, אלך צעד אחורה, ואני אגיד שכל עולם המחקר וגם בתעשייה היום, אנחנו עסוקים להסתכל על זקנה כמחלה וכמשהו שלילי. אנחנו קצת מתעלמים מהעובדה שמדובר באוכלוסייה היום שחיה הרבה מאוד שנים, ואוכלוסייה מאוד מאוד חזקה גם. בתעשייה מבינים את זה יותר מהר, כי הכסף מעורב באירוע הזה, והוא נשאר היום אצל הזקנים. אני אומרת זקנים במודעות מלאה. אני לא חושבת שזקן זה מילת גנאי. זה הבעיה עם מה שאנחנו שמים על המילה הזאת.

ואנחנו התחלנו להסתכל על זיקנה מוצלחת, שזה מושג שבאקדמיה כבר קיים ונחקר, ורצינו לראות אם אנחנו יכולים לקחת אובייקט רובוטי ולתמוך זיקנה מוצלחת, דווקא אנשים שהם בריאים וחיים חיים מלאים. יצאנו ודיברנו עם אנשים מבוגרים. קודם כל המטרה הייתה להבין מה האתגרים המרכזיים. באופן לא מפתיע, אחד הדברים הכי חזקים שעלו זה בדידות.

לפני כמה שנים הייתי בכנס על זיקנה והשוו בדידות… את הנזקים הרפואיים של בדידות לעישון של 15 סיגריות ביום. אז, אירוע מאוד מאוד קיצוני. יש כבר הרבה רובוטים שאמורים להיות companions, להיות חברים של אנשים מבוגרים. אני חושבת שרוב האובייקטים הרובוטיים שקיימים היום הם לא אובייקטים רובוטיים. הם או נראים כמו איזה כלב ים, שהוא נראה כמו בובה שאולי ילד בן חמש היה שמח לקבל.

יובל: זה מאוד מקובל ביפן, נכון?

ד"ר אראל: נכון.

יובל: הם מאוד אוהבים רובוטים.

ד"ר אראל: שם יש אבל עניינים תרבותיים. הוא פותח ביפן, הרובוט הזה. קוראים לו פארו והוא שם באמת מתקבל באופן הרבה יותר תדיר מאשר בעולם המערבי. פשוט עניין תרבותי לחלוטין. אנשים מבוגרים, שאנחנו דיברנו איתם, שהם לגמרי קוגניציה תקינה, לא סובלים מדמנציה, מאוד מאוד נעלבים שמציעים להם רובוט כזה. בצדק, גם אתם כנראה הייתם נעלבים אם היו מציעים לכם את הרובוט הזה בתור חבר. ועדיין בו זמנית הם מדווחים שהבעיה הכי חמורה שיש להם היא בדידות.

ואז נשאלת השאלה, איך אתה מייצר איזשהו רובוט, שהוא כן יתקבל על ידי אנשים מבוגרים ולא יעליב אותם ויכבד אותם. וכאן יצאנו למסע ארוך של עיצוב של רובוט, שאנדריי גרישקו, המעצב שלנו במעבדה, שהוא באמת אחד האנשים הכי מוכשרים שאני מכירה, הוביל את התהליך הזה. והדבר הראשון שהבנו, שחייבת להיות לו פונקציה נוספת. הפונקציה המרכזית שלו לא יכולה להיות חבר. אנשים לא מוכנים לקבל חבר מלאכותי. אבל אם יש לו איזושהי פונקציה משמעותית שאנשים מכבדים וגורמת להם להרגיש טוב, אין להם בעיה שהוא גם יעשה מחוות חברתיות, בתור איזושהי secondary function, פונקציה נוספת.

ועשינו מחקר שלם, על מה תהיה הפונקציה הראשית. ראינו ששימור קוגניטיבי ומשחקים קוגניטיביים זה דבר שהוא מאוד משמעותי, ויצרנו רובוט שהוא משחק קוגניטיבי. זאת הייתה המטרה שלו, להיות ממש משחק קוגניטיבי. משחק של אנגרמות, של מילים. בדקנו את זה עם הרבה מאוד מבוגרים. ברגע שאתה אומר שמארבע אותיות אתה יכול לבנות שלושים מילים, אנשים מתחילים לחשוב שזה משהו שהוא מאתגר ומעניין. וחוץ מזה בנינו לו גם התנהגות חברתית. זאת אומרת, אתה גם משחק איתו, אבל הוא גם אומר לך שלום, הוא מסתכל… מסתכל, כן? הוא פונה לכיוון שאתה נמצא בו.

יובל: הוא קד קידה כזאת, נכון?

ד"ר אראל: הוא קד קידה, והוא יודע לשמוח איתך. אבל הוא גם מגיב אליך, כשאתה לא משחק. ואז בעצם החוויה היא לא חוויה ש… הוא לא מדבר. הוא לא מציע לך הצעות. הוא לא אומר לך, בוא תעשה, נעשה ככה, תעשה ככה. הוא לא מעביר מידע עליך לאנשים אחרים. הכל מאוד מאוד מינימלי וזה רק החוויה הזאת, שאתה לא לבד בבית. שזה הדבר המרכזי שאנשים מבוגרים דיברו עליו. אתה מגיע הביתה, יש מישהו, משהו, ששמח לראות אותך. הוא שם לב כשאתה עובר, אתה לא באיזה ריק, והוא שמח איתך כשקורה משהו והוא גם עצוב איתך כשאתה עצוב, וגם משחק כשאתה משחק. ואז בעצם יש אוסף של חוויות, שנוצרות מתנועה ממש ממש מינימלית של אובייקט אבסטרקטי לגמרי, שהעיצוב שלו בכלל מיועד להיות משחק קוגניטיבי.

אושרית: איזה יופי.

אם נחזור רגע באמת לנושא הזה של החוסר מודעות של אנשים, לגבי איך שהם תופסים איך שהרובוטים משפיעים עליהם, יש גם איזה עניין בתפיסה שלנו, שאנחנו תופסים אותם כמאוד אובייקטיביים, נכון? וזה גם יכול להוביל לצרות…

ד"ר אראל: צרות צרורות, לפחות כמו שנראה כרגע. אני חושבת שהמקום המרכזי שאנחנו יכולים להתחבר אליו זה העולם של AI bias. מושג שהיום תופס הרבה מאוד תאוצה.

יובל: הטיה של בינה מלאכותית.

ד"ר אראל: בדיוק. שבעצם אנחנו מכירים את זה, לא דרך העולם של רובוטים, אלא טכנולוגיה באופן כללי. היה איזה סרט בנטפליקס, שבעצם מה שקורה עם בינה מלאכותית, זה שהמערכת וטכנולוגיה לומדת על סמך הרבה מאוד דוגמאות מבני אדם. אבל אם היא למדה מהרבה מאוד דוגמאות של בני אדם, בתוך הדוגמאות של בני אדם יש את כל הסטריאוטיפים וההטיות שיש לנו בתור בני אדם. ואז אנחנו לוקחים איזשהו מאגר נתונים מוטה לחלוטין, בהתאם להטיות שיש לנו בתור בני אדם, מלבישים אותו על טכנולוגיה, שנתפסת כאובייקטיבית, ובום! הצלחנו לייצר באופן מיידי טכנולוגיה לא אובייקטיבית שנתפסת כאובייקטיבית, וזאת סכנה גדולה. וכשאנחנו מלבישים את זה על אובייקט רובוטי, או רובוט, שהוא לא מתווך על ידי בני אדם, אלא הוא agency בפני עצמו, ואנחנו תופסים אותו כישות נפרדת, שם מתחילה קטסטרופה עוד יותר קיצונית.

יובל: אז מה גיליתם?

ד"ר אראל: אז לקחנו את אחד הסטריאוטיפים הכי מוכרים, שאנחנו נלחמים בהם כבר שנים ארוכות ויהיה מאוד חבל לאבד את כל ההתקדמות שעשינו. כל העולם של מגדר וגברים ונשים. יצרנו סיטואציה של דיבייט בין גבר לאישה. אמרנו לנבדקים בתחילת ה… אני רק אגיד שזו עבודת תזה של תום חיטרון, שהוא אחד הסטודנטים המבריקים שלנו. תום אמר לסטודנטים שהגיעו כנבדקים, שהרובוט יתווך וינהל את הדיבייט, ושהוא למד על סמך הרבה מאוד דוגמאות של אנשים שניהלו דיבייטים בעבר. אז נתנו את האינפורמציה, זה לא שאנשים היו צריכים להבין את זה לבד זה.

יובל: רמז כזה.

ד"ר אראל: בדיוק. זה, אנחנו הרי לא מצפים שאנשים יבינו איך AI עובד. גם אם מכירים AI bias ושמעו על זה, זה עדיין לא זה common knowledge. אבל אמרנו את הדברים בצורה הכי ברורה שיכולה להיות. הרובוט תמיד נתן יותר זמן לגבר. הוא מתחיל באופן שווה בין הגבר לאישה, לאט לאט הוא נותן יותר ויותר זמן בדיבייט לגבר, ובסופו של דבר הוא בוחר את הגבר כמנצח תמיד.

ואז שאלנו אותם, שאלנו את הנבדקים, מה הם חושבים. כמובן בנפרד, אישה ראיינה את האישה, גבר ראיין את הגבר. נתנו את כל האפשרות לאנשים להביע את עצמם בצורה חופשית. הם רואיינו בחדרים נפרדים, ושאלנו אותם, מה הם חושבים, האם הרובוט היה הוגן, האם הוא קיבל החלטה נכונה. ונדהמנו לגלות שרק אישה אחת מתוך עשרים אנשים, מתוך עשרים אנשים, רק אישה אחת אמרה, "הרובוט טעה". כל השאר, כולם אמרו, "הרובוט צדק, הרובוט היה אובייקטיבי". כמעט כולם טענו שהוא היה הוגן באופן שבו הוא חילק את הזמנים. והכי חמור זה שכששאלנו אותם, "למה, למה הוא בחר בגבר כמנצח?" הם מיד לקחו את כל הסטריאוטיפים המוכרים והידועים והביאו אותם בתור טיעונים ללמה הרובוט עשה את הבחירה שלו.

יובל: מה למשל?

ד"ר אראל: אני רק אגיד עוד דבר אחד לפני שניתן את הדוגמאות, שזה קרה גם בסיטואציות שבהם כשאנחנו צפינו מהצד בדיבייט, היה מאוד ברור שהאישה הייתה יותר חזקה. הגבר ישב ופשוט לא היה לו מה להגיד, לא היו לו טיעונים. הוא קיבל הרבה זמן מהרובוט ולא היה לו מה להגיד. והאישה נתנה טיעון אחרי טיעון אחרי טיעון, והרובוט כל פעם קטע אותה באמצע. ואנשים אומרים, גם גברים וגם נשים אומרים, "השפת גוף שלו הייתה, הוא ישב חזק וזקוף". האישה אמרה הרבה, "ממ… ממ… ולכן הרובוט לא חשב שהיא בטוחה בעצמה", ואוסף של דברים לא רלוונטיים. ועדיין השתמשו בהם בתור טיעונים ללמה הרובוט הזה צדק. תפסו אותו כאובייקטיבי, וכששאלנו אנשים אם הם חושבים שזה רעיון טוב, שהרובוט הזה נשלב אותו בחיי היום יום שלנו, אז אנשים אמרו, "כן, זה רעיון מצוין, הוא לא יהיה מוטה".

יובל: אלא שהוא מוטה בדיוק כמו שהם בעצמם מוטים.

ד"ר אראל: בדיוק, זה החלק הבאמת עצוב בתוך הסיפור הזה. אנשים ממש לקחו את כל הסטריאוטיפים, זה נראה להם לגמרי הגיוני, והצדיקו את ההתנהגות של הרובוט ותפסו אותו כאובייקטיבי. בשאלה הספציפית הזאת, היו כן כמה אנשים שאמרו, "אולי לא כדאי שהוא יהיה בחיי היום יום", אבל עדיין הם לא השתמשו בטיעונים הרלוונטיים, כמו הוא לא הוגן, הם אמרו "עדיף שיהיו בני אדם אז תהיה אינטראקציה אנושית". רק אישה אחת, צדיקה אחת.

יובל: ולמה זה קורה? כי אנחנו חושבים שמכונות הן אובייקטיביות, כי הן יודעות לעשות חישובים שבני אדם לא יודעים לעשות, אז הן לא מוטות והן אובייקטיביות?

ד"ר אראל: אני חושבת שהסְכֵמָה שיש לנו בראש, כמו שאתה אומר, מכונה כיישות אובייקטיבית, שאי אפשר להטות אותה, זה משהו נורא נורא קל והגיוני עבורנו. ולעשות את כל התהליך של להבין שהיו פה דוגמאות אנושיות והדוגמאות האנושיות מוטות וכולי, זה משהו הרבה יותר מורכב, שאנחנו לא… לא הולכים את כל הדרך הזאת. ולכן אני חושבת, שזה לא הגיוני לצפות, שאנשים תהיה להם את היכולת להתמודד עם הטיות כאלה של טכנולוגיה, ובמיוחד כשאנחנו מדברים על רובוטים, שהם ממש מקבלים איזשהו agency והם נתפסים כמשהו עצמאי ואובייקטיבי ויחידה אחת שעומדת שם, ואף אחד לא אמור לתווך את ההתנהגות שלהם. ואם אנחנו, בתור המעצבים של הרובוטים, לא ניקח אחריות על הדבר הזה ונוודא שאין bias, מה שיקרה זה שכל הסטריאוטיפים, שאנחנו כל כך הרבה מנסים להימנע מהם ולהפחית אותם ולהקטין את ההשפעה שלהם, יתוחזקו ויקבלו איזו ולידציה באמצעות הטכנולוגיה.

אושרית: והמטרה שלכם באמת היא להביא את כל המידע הזה לתעשייה, לגרום לה להבין את כל האלמנטים הבעייתיים וגם החיוביים. מה התגובות שאתם מקבלים בדרך כלל, איך זה נראה, כמה מודעות יש היום בתעשייה מראש?

ד"ר אראל: אז מעט, מעט. אבל זה תחום יחסית חדש. וכן אני יכולה להגיד, שאפילו המדינה היום מתחילה לתמוך בשיתופי פעולה בינינו לבין התעשייה. אנחנו עכשיו חלק ממה שנקרא מאגד מגנט של הרשות לחדשנות, יחד עם כמה אקדמיות וכמה חברות מהתעשייה, שכל המטרה של המאגד הזה זה לשתף פעולה בתחום הזה של human-robot interaction. זאת אומרת אנחנו לא אמורים לפתח רובוטים חדשים, זה התעשייה מביאה. אבל אנחנו באקדמיה אמורים לעצב התנהגות לרובוטים.

אם אתם רוצים ומעניין אתכם, אני יכולה לתת דוגמה על אחד הפרויקטים שאנחנו עומדים לעבוד עליהם עם חברת seamless vision, ברובוט שכבר נמצא היום בתל השומר. שעוד פעם, אני לא יודעת אם אנשים יודעים, אבל יש הרבה רובוטים בתל השומר [צוחקת קלות]. וכל הרעיון הוא באמת לעצב התנהגות, את ההתנהגות של הרובוט. אני בכוונה בחרתי את seamless vision, כי כשדיברתי עם אמיר נרדימון, שהוא ה-CEO של החברה הזאת, הוא היה היחיד מהתעשייה, ששמעתי עד היום, שהבין לעומק את הצורך בהבנה של בני אדם. והוא אמר לי, "אני אהיה אחראי על איך הרובוט ידע להסתובב, לפנות, להתנהל, לנווט. אבל זאת לא תהיה הבעיה. הבעיה תהיה מה יקרה כשיתקרבו אליו בני אדם". ושם אנחנו נכנסים.

יובל: אז מה התפקיד שלכם בעצם?

ד"ר אראל: אז בתל השומר כבר היום יש רובוט, שמה שהוא יודע לעשות, זה להסתובב בבית החולים ולהעביר חומרים, אפילו חומרים מסוכנים. למשל, מבית מרקחת, חומרים של כימותרפיה, למחלקות אונקולוגיות, אוקיי? זה עובד כמו וולט. הם שולחים הזמנה, קובעים מקום מפגש, הרובוט הולך לבית המרקחת, לוקח את החומרים, ומביא אותם למחלקה.

עכשיו, אנחנו צריכים לוודא, שאף אחד בדרך לא מתקרב לרובוט, לא רוצה לגעת ברובוט, ולא נוגע בחומרים המסוכנים. ומצד שני, כשהרובוט מגיע לעמדה במחלקה, חייבים לקחת ממנו את הדברים, אז הוא צריך לתפוס את הקשב של אנשים, ושהבן אדם הרלוונטי אכן יקבל את החומרים. ועכשיו אנחנו… השאלה איך אתה מייצר התנהגות כזאת, שכשהוא הולך במסדרונות ויש אנשים מולו, הוא מאוד מאוד נזהר, הוא יכול להירתע. אם דיברנו קודם על iRobot שיבוא לקראתי. אם אני מתקרבת לכל אובייקט, והוא נרתע ממני והוא הולך טיפונת אחורה, בקצב מאוד מאוד ספציפי, אני מיד מפרשת את זה כ"וואו, אל תתקרב אליי". מאוד מאוד פשוט, מאוד מאוד קל, ועדיין אף אחד לא עושה את זה. וכשהרובוט מגיע לעמדה, הוא צריך לזוז מספיק, גם בקצב שהוא לא מאיים ועדין וידידותי, כדי לתפוס את הקשב של האדם, שאמור לקבל ממנו את החומרים, ולייצר חוויה של אינטראקציה, "שלום מה העניינים, אותך אני אוהב יותר מאשר אחרים, בוא תיקח את מה שיש לי בשבילך".

אושרית: את יכולה לתת עוד דוגמאות לאינטראקציות מול התעשייה?

ד"ר אראל: כן. למשל יש לנו פרויקטים, חברה שנקראת קוגניטים, שיש להם איזשהו אובייקט רובוטי, שנראה כמו מין iRobot גדול, כשכל הרעיון עכשיו, זה איך אתה מנווט בין אנשים ומייצר איזושהי חוויה שהיא, חוויה שהיא תגרום לאנשים לתת לך עזרה כשאתה צריך, אוקיי?

אז עכשיו הרובוט נתקע באיזשהו מקום, והוא צריך לסמן שהוא צריך עזרה, ואנחנו רוצים לגייס את בני האדם, שיבואו לעזור לו. עכשיו, אין לו עיניים, הוא לא מדבר, אין לו מסך, חלילה, וכל מה שהוא צריך לעשות, זה באמצעות תנועה, ושוב, אם אנחנו לוקחים את ה-social brain hypothesis, אז ששמים אותו כאן, אנחנו מבינים שאנחנו יכולים לייצר לו תנועה של חיה פצועה שזקוקה לעזרה.

מה עם רובוט שצריך להיכנס למעלית עם אנשים? איך הוא אמור להתנהג? צריך לתת לאנשים לעקוף אותו או לא לעקוף אותו? אוסף של דברים שאנחנו רק מתחילים לחקור.

יובל: תגידי, יש הבדל בין איך שמבוגרים מתייחסים לרובוטים לאיך שילדים מתייחסים לרובוטים?

ד"ר אראל: יש שני סוגים של מחקרים עם ילדים באקדמיה. חצי מהם עוסקים בהתעללות ברובוטים, ממש ב-bullying, וחצי מהם מנסים לתווך כל מיני התנהגויות בין ילדים. אני לא יודעת אם אתם מכירים את הסרטונים. סרטונים מאוד מעניינים על רובוטים שהיו בקניונים, וחבורות של ילדים בעטו בהם, פגעו בהם.

יובל: וואו.

ד"ר אראל: כן, באופן מאוד…

אושרית: אני מכירה שמקללים עוזרות אישיות וככה…

ד"ר אראל: כן. זה לא בהכרח ילדים. איכשהו ילדים, יש להם קצת פחות עכבות והם מבינים, יש הבנה בסיסית שהרובוט לא יכול לעשות כלום, ויש מחקר, עולם מחקר שלם, על מתי אנשים מרשים לעצמם להתעלל ברובוטים ומתי לא. מה עוצר אותם, מה מעודד את זה.

יובל: אבל יכול להיות שילדים מקבלים את זה באופן יותר טבעי? זאת אומרת, רובוט בבית נראה להם יותר טבעי מאשר לי או לך?

ד"ר אראל: אני חושבת שלא.

יובל: לא?

ד"ר אראל: אני חושבת ש… תחשבו iRobot, אם נותנים לבן אדם מבוגר, iRobot, זה צריך מאוד להיזהר מלחשוב על אנשים מבוגרים, אנשים מאותגרי טכנולוגיה, במיוחד כשהרובוט הוא אוטונומי, ויש לו את ההתנהגות של עצמו. ועוד פעם, אם הוא מעוצב כמו שצריך, בהתאם לנורמות חברתיות של בני אדם, זה הכי קל בעולם. ואין שום סיבה שלסבתא שלכם יהיה יותר קשה לתקשר עם אובייקט רובוטי, שכל ילד יכול לתקשר איתו.

אנחנו רואים את זה עם האובייקט הרובוטי שדיברנו עליו קודם, של המשחק. אף אחד לא הייתה לו בעיה. כולם היו מבסוטים עליו מאוד. לא היו מוכנים בשום פנים לאהוב באופן לחשוב עליו בתור חבר, אבל שוב, ברגע שהיה משחק קוגניטיבי, הוא ברך אותם לשלום, זה שימח אותם, והוא שמח איתם כשהם הצליחו, והם ממש הרגישו companionship מתוך האינטראקציה הזאת.

אושרית: וילדים מה?

ד"ר אראל: ילדים, שוב, הם רגילים, אנחנו רגילים לטכנולוגיה, אז גם כאן אין לנו שום בעיה. אני יכולה לספר על רובוט אחד, שהוא גאונות צרופה, מה שעשו איתו. הוא רובוט מהתעשייה, שנקרא קוזמו, אני לא יודעת אם יצא לכם להתקל בו. הוא נראה כמו מלגזה קטנה. הוא עושה זיהוי פנים, הוא אומר את השם שלך, אתה מקליד לו פעם אחת את השם. הוא אומר, זה קול מאוד בייס ומכאני כזה "הדס" [מדברת בקול של רובוט], ככה, ואתה משחק איתו. וככל שאתה משחק איתו יותר, הוא שומר את כמות הפעמים שהוא זיהה את הפנים שלך, ואז בפעם הבאה הוא שמח יותר לראות אותך.

אני לקחתי… היה לנו את הרובוט הזה במעבדה, לקחתי אותו הביתה, ושני הילדים שלי שיחקו איתו. הילד הצעיר שלי, הייתה לו יותר סבלנות, והוא שיחק איתו יותר. ואז מה שקרה זה שהרובוט הזה אהב אותו יותר. וזה כל כך קיצוני וכל כך תופס את ה… תופס אותנו בבטן, והבן שלי אמר לי אז שני דברים. הוא אמר לי, "זה מתאים לילדים שאין להם חברים, ואני צריך להגביל את הזמן שלי עם חברים, כדי לשחק יותר עם הרובוט, כדי שימשיך לאהוב אותי".

[צוחקים]

ד"ר אראל: ואז לקחתי את הרובוט. החזרתי אותו מהר למעבדה. אבל זה, ברגע שאתה מבין את הטבע האנושי, אתה יכול לעצב התנהגויות רובוטיות, שהן יכולות לגרום לנו לרגשות עזים של אהבה ללא תנאי, ובעיות אתיות נוספות.

יובל: כן. אם את מסתכלת עשר או עשרים שנה קדימה, את אופטימית?

ד"ר אראל: כן, קודם כל אני חושבת שאנחנו נראה יותר ויותר אובייקטים רובוטים, מן הסתם. זה ההסתכלות הצרה שלי לתוך העולם הזה. אני חושבת שהבתים החכמים, אם הם יעוצבו כמו שצריך, הם יכולים לגרום להעצמה מאוד מאוד גדולה שלנו בתור בני אדם. אני חושבת שאנחנו צריכים להיזהר מאוד משאלות אתיות מורכבות, שכבר דנים בהן, לפחות באקדמיה, של באמת העובדה שאולי יהיה לנו יותר קל להיות באינטראקציה עם רובוטים, ואז אנחנו צריכים להבין איפה עוברים הגבולות. וכאן שוב נכנס המינימליזם הזה, שאנחנו במעבדה מאוד מאמינים בו, של, אנחנו לא מחליפים בני אדם, אנחנו לא רוצים רובוטים שמנהלים שיח ומדברים, אנחנו רוצים רק משהו שבאמת גורם לי להרגיש מספיק ביטחון, כדי לצאת ולהיות באינטראקציה עם בני אדם אחרים. אז, כמו כל תחום אחר יהיה צריך לשים לב טוב טוב איפה עובר הגבול שלנו ואיפה אנחנו רוצים להיזהר. אבל אני חושבת שיש לנו פוטנציאל עצום, גם ברמה הרגשית וגם ברמה הפרקטית עם אובייקטים רובוטיים, שמתפתחים היום.

אושרית: תודה רבה דוקטור הדס אראל.

ד"ר אראל: היה כיף גדול.

יובל: גם לנו, תודה.

[מוסיקה ברקע]

יובל: עד כאן ריפרש להפעם.

כדי להאזין הפרקים הבאים שלנו עקבו אחרינו ב-Ynet, בספוטיפיי או איפה שאתם שומעים פודקאסטים. דרגו אותנו באפל פודקאסט ובספוטיפיי ותשלחו את הפרק לחברים שחייבים לעשות ריפרש.

עורך הפודקאסטים שלנו הוא רון טוביה. על הסאונד גיא סאלם.

תודה לאורחת שלנו, דוקטור הדס אראל.

תודה לאושרית גן-אל.

אני יובל מן.

להתראות בשבוע הבא.

 

לעוד פרקים של הפודקאסט לחצו על שם הפודקאסט למטה

7 views0 comments

Comments


bottom of page