רועי צזנה: כשבינות מלאכותיות מתוכנתות לפסיכופתיה

תקציר: למעבדות המדיה של MIT יש מטרה נעלה: לפתח חזונות חדשים בנוגע לדרך בה בינה מלאכותית ובני-אדם ישתפו פעולה בעתיד. לרוע המזל, הם בחרו להגשים את המטרה באמצעות פיתוח בינה מלאכותית פסיכופתית….

[בתמונה: כשבינות מלאכותיות מתוכנתות לפסיכופתיה... התמונה עובדה במערכת הבינה המלאכותית ideogram]
[בתמונה: כשבינות מלאכותיות מתוכנתות לפסיכופתיה... התמונה עובדה במערכת הבינה המלאכותית ideogram]

[מאמר זה ראה אור במקור באתר של דוקטור רועי צזנה] [לאוסף המאמרים על פסיכופתים ופסיכופתיה, לחצו כאן]

המחבר (ראו תמונה משמאל), רועי צזנה, הוא דוקטור לננו-טכנולוגיה; עמית בסדנת יובל נאמן למדע, טכנולוגיה וביטחון באוניברסיטת תל אביב, ומרצה בפקולטה להנדסה ביו-רפואית בטכניון. בוגר קורס המנהלים של אוניברסיטת הסינגולריות ומחבר הספר המדריך לעתיד.
[התמונה משמאל: מאלבום התמונות הפרטי של המחבר]

המחבר (ראו תמונה משמאל), רועי צזנה, הוא דוקטור לננו-טכנולוגיה; עמית בסדנת יובל נאמן למדע, טכנולוגיה וביטחון באוניברסיטת תל אביב, ומרצה בפקולטה להנדסה ביו-רפואית בטכניון. בוגר קורס המנהלים של אוניברסיטת הסינגולריות ומחבר הספר המדריך לעתיד.

[התמונה משמאל: מאלבום התמונות הפרטי של המחבר]

האתרים של ד"ר רועי צזנה   

*  *  *

פיתוח בינה מלאכותית פסיכופתית

למעבדות המדיה של MIT יש מטרה נעלה: לפתח חזונות חדשים בנוגע לדרך בה בינה מלאכותית ובני-אדם ישתפו פעולה בעתיד. לרוע המזל, הם בחרו להגשים את המטרה באמצעות פיתוח בינה מלאכותית פסיכופתית.

זוהי, כמובן, אינה המילה הנכונה לתיאור אותן בינות מלאכותיות, למרות שניתן לראות את התיאור הזה למחקר החדש בכל רחבי המדיה ברשת. המילה 'פסיכופת' מתארת מצב שאינו נורמטיבי בקרב בני-אדם: דרך יוצאת-דופן לעיבוד מידע במוח האנושי. לבני-אדם מן השורה יש ראיית עולם בסיסית שמשותפת לכולנו. אנו מבינים מהי 'אהבה' (או לפחות 'התאהבות'), מהו 'צח', מהי 'אמא' ומהם הרגשות שאנו חשים כלפיה. לעתים אנו מרחיבים את המושגים הללו מעבר למשמעותם המקורית – כך, למשל, חלק מהצמחוניים עשויים להגדיר הרג בעלי-חיים כ- 'רצח'. אבל גם אז, המושג הבסיסי משמר את משמעותו המקורית. בסופו של דבר, בבסיסנו, אנחנו כולנו צאצאים של אותו שבט קופי-אדם שהתפתח לשמר לכידות חברתית.

אלא שלבינה מלאכותית אין את ההטיה האוטומטית הזו, כפי שמתעקשות מעבדות המדיה של MIT להראות שוב ושוב. אני לא מגזים – בין 2015 ל- 2018, שחררו המעבדות מספר דוגמאות של מנועי בינה מלאכותית שלא בדיוק עושות טוב לבני-האדם:

מכונת הסיוטים

הראשונה, בשנת 2016, הייתה 'מכונת הסיוטים', שערכה מחדש תמונות כדי לעורר תחושות של אימה ופחד בבני-אדם. פרצופים אנושיים שנערכו על-ידי התוכנה נראים - כצפוי - מסויטים ומזעזעים. התוכנה עורכת תמונות נוף פסטורליות-לשעבר עד שהן מזכירות בתי-מטבחיים ומעוררות צמרמורת וחלחלה בקרב הצופים.

[בתמונה: תמונה מסויטת. מקור: מעבדות המדיה של MIT, ראה: [1]]
[בתמונה: תמונה מסויטת. מקור: מעבדות המדיה של MIT, ראה: [1]]

'שלי'

אבל החוקרים לא עצרו כאן. בשנת 2017 הפיקו המעבדות את 'שלי' – מנוע בינה מלאכותית הכותב סיפורי אימה קצרים. שלי זוהי רשת עצבים מלאכותית, שעברה על מספר עצום של סיפורי אימה קצרים מהרשת החברתית רדיט (Reddit), ולמדה איך להפיק שברי-סיפורים כאלו משלה. היא כתבה יותר ממאתיים סיפורי אימה קצרים, בסיוע בני-אדם מהרשת שרצו - מסיבה שלא לגמרי ברורה לי - לעזור לה להתפתח. הנה חלק קצר מאחד מהסיפורים שהיא כתבה, ביחד עם משפטים שתרמו בני-האדם בטוויטר. (החלקים ששלי כתבה בעצמה מופיעים בהדגשה).

"התחלתי לנשום שוב. השרשראות בקרסולי זעו והצל המשיך לבהות. קריאה שקטה ומספר סימני חיים החלו להיווצר. לא היה לי מושג. גידלתי אותו. הייתי חייבת לעשות משהו. הייתי חייבת לראות אותו. הייתי חייבת. עמדתי לגלות. עמדתי להתרחק מהדבר הזה. לא יכולתי לתת לו להשיג אותי. האדרנלין שלי החל לזרום ולא יכולתי לעצור את עצמי. אבל השרשראות! השרשראות! איך הייתי אמורה לשחרר את עצמי? התחלתי להשתגע. לא יכולתי לזוז. היצור היה שם איתי. מה הוא עשה?"[2]

וכן הלאה וכן הלאה. 'שלי' צריכה להשתפר עוד הרבה, לפני שתצליח למכור ספרים כמו סטפן קינג, אבל הרעיון הבסיסי, לפחות, ברור: אפשר לגרום לבינה מלאכותית לכתוב באופן שייגע ברגשות ובפחדים העמוקים והקמאיים ביותר שלנו.
[בתמונה: לגרום לבינה מלאכותית לכתוב באופן שייגע ברגשות ובפחדים העמוקים והקמאיים ביותר שלנו... זוהי תמונה חופשית מאתר Pixabay]
[בתמונה: לגרום לבינה מלאכותית לכתוב באופן שייגע ברגשות ובפחדים העמוקים והקמאיים ביותר שלנו... זוהי תמונה חופשית מאתר Pixabay]

פרויקט 'אמפתיה עמוקה'

מאוחר יותר באותה שנה, ניסו לראשונה החוקרים ליישם את הרעיונות האלו לשימוש מעשי בפרויקט 'אמפתיה עמוקה'. הם אימנו רשתות עצבים מלאכותיות על תמונות של אזורי אסון, ואז דרשו מהבינה המלאכותית לערוך מחדש תמונות של ערים בריאות ושוקקות-חיים.

התוצאה נראית - כצפוי - מזעזעת: אתם יכולים לראות את עיר מגוריכם חרבה ומרוסקת. וזו בדיוק הייתה כוונתם של החוקרים, שרצו לסייע לתושבי העולם המערבי להתחבר ברגשותיהם לערים ולמדינות שחוו אסונות טבע ומלחמות.
[בתמונה: החוקרים אימנו רשתות עצבים מלאכותיות על תמונות של אזורי אסון, ואז דרשו מהבינה המלאכותית לערוך מחדש תמונות של ערים בריאות ושוקקות-חיים]
[בתמונה: החוקרים אימנו רשתות עצבים מלאכותיות על תמונות של אזורי אסון, ואז דרשו מהבינה המלאכותית לערוך מחדש תמונות של ערים בריאות ושוקקות-חיים]

נורמן

ועכשיו שעברנו על כמה מפרוייקטי העבר של המעבדות, אתם יכולים להבין מאין צמחה הבינה המלאכותית החדשה שלהן: נורמן, על שם הפסיכופת מסרט האימה "פסיכו" של אלפרד היצ'קוק.

בדומה לבינות המלאכותיות האחרות שהצגתי עד כה, גם נורמן מבוסס על רשת עצבים מלאכותית, וגם הוא למד מאוסף דוגמאות שלא ממש היינו רוצים לחוות בחיים האמיתיים. נורמן הורץ על שרשור ידוע-לשמצה ברשת החברתית רדיט, בו כותבים המשתמשים רשמים ופרשנויות אודות טיבו של המוות.

לאחר מכן, הוצגו בפני נורמן סדרה של כתמי רורשאך, והוא סיפק תיאור עבור כל תמונה. התיאור של נורמן הושווה לזה של רשת עצבים מלאכותית שאומנה על מאגר מידע גדול ומגוון הרבה יותר[4]. שלא במפתיע, נורמן פירש כל כתם רורשאך באופן מטריד ביותר. כתמים תמימים-למראה הזכירו לו גברים הנורים למוות למול נשיהם הצורחות, נשים הרות הנופלות למותן מבניינים גבוהים, ואנשים הנתפסים על-ידי מכונה לעיבוד בצק ונמשכים לתוכה.

הבינה המלאכותית שלמדה ממגוון דגימות מגוון יותר, לעומת זאת, ראתה בתמונות הללו רק "אגרטל פרחים, ציפור קטנה, וזוג אנשים העומדים זה לצד זה."

מטרתו של נורמן אינה לגרום לנו לחשוב מחדש על פרשנויות אנושיות לכתמי רורשאך, אלא להדגיש נקודה קריטית בהבנתנו את הבינה המלאכותית: אנחנו יכולים ללמד אותה, לטוב ולרע, כיצד לפרש את הקלט שהיא מקבלת. הבינות המלאכותיות החדשות – אלו המבוססות על רשתות עצבים מלאכותיות – חייבות להתבסס על ניסיון העבר. אם המתכנתים מצמצמים את חומר הלימוד אליו היא נחשפת, התוצאה בהכרח היא בינה מלאכותית בעלת פרשנות מעוותת ולוקה-בחסר.
כתמי רורשאך [מקור: מעבדות המדיה של MIT, ראו  [5]]
כתמי רורשאך [מקור: מעבדות המדיה של MIT, ראו  [5]]

בינה מלאכותית כילד

אפשר להשוות את הבינות המלאכותיות החדשות לילד אנושי. ילדים הגדלים בתרבויות ליברליות ופתוחות, בהן הם לומדים וחווים רעיונות שונים, יפתחו ראיית עולם רחבה יותר. הם יוכלו לפרש מצבים חדשים בדרכים שונות, ולשקול פתרונות שונים לכל בעיה (העובדה שהם יכולים לעשות זאת, אינה אומרת כמובן שכך אכן יעשו). לעומתם, ילדים הגדלים בתרבויות מסוגרות וקיצוניות, המאמינות ברעיון אחד גדול מעל לכל היתר, יפרשו כל מצב חדש דרך עדשותיו של אותו רעיון. וכפי שאמר אברהם מסלו –

"אם יש לך רק פטיש, אתה רואה כל דבר כאילו היה מסמר." [6]

זוהי תובנה חשובה לעתיד. ככל שיגדלו יכולותיהן של הבינות המלאכותיות, אנו צפויים לראות אותן מתפשטות למקומות ולשימושים רבים ושונים. הן ייקחו חלק ביצירת סרטים, במערכות הבריאות ואפילו במערכות המשפט, הצדק והשלטון. הן יפתחו אביזרים טכנולוגיים חדשים, ימליצו על העונשים הראויים ביותר לכל פושע ויגבשו הצעות חוק לפתרון בעיות קיימות או עתידיות. הן יעשו כל זאת בהתאם לחומר הלימוד שקיבלו, ובכל מדינה ותרבות שתפתחנה בינות מלאכותיות שכאלו, יחונכו הבינות לפי מספר רעיונות שייבחרו בקפידה כדי לשרת את הנורמות הקיימות. בתרבויות דתיות ומסוגרות, יפותחו בינות מלאכותיות שיוכלו לפרש את העולם רק דרך עדשות הרעיונות המרכזיים של אותן דתות.

עתיד שכזה צריך להפחיד את כולנו. הדתות הראשיות כיום התפתחו כטכנולוגיה חברתית – ככלי לשימור לכידות חברתית, לדרבון אנשים להפגנת אלטרואיזם בתוך הקבוצה, ולקיבוץ אנשים רבים ביחד תחת שלטון ריכוזי אחד. הן הצליחו היטב במטלות הללו, אך הן נושאות עמן 'מטען עודף' רב שצברו לאורך מאות רבות של שנים: איסורים שונים ומשונים בתחום המזון, למשל, או קסנופוביה – שנאת זרים. מפחיד לחשוב על בינות מלאכותיות מתקדמות שירכשו הרגלי חשיבה ואמונה שהיו רלוונטיים ומועילים לפני אלפיים שנים – אך היום עומדים בניגוד לדרכי חשיבה מודרניות יותר שמדגישות את זכויות האדם, את המוסר האוניברסלי ואת שיתוף הפעולה בין עמים שונים.

כמובן, בינות מלאכותיות שמפותחות בעולם המערבי הליברלי יקבלו שפע של חומר לימודי מכל הסוגים. אלא שגם זה לא לגמרי מספיק. בכל דעה בכל נושא קיימים 'מיתוסים' – סיפורים שמסבירים את העולם, ושברור לכולם שצריך לפעול לפיהם, גם אם הם אינם מוגדרים היטב או בקול רם. קחו למשל את סיפורי ג'ורג' הסקרן, על קוף סקרן שנכנס לצרות פעם אחר פעם בשל סקרנותו – אך מצליח תמיד להפיק את המיטב מהמתרחש עד סוף הסיפור. ה- 'מיתוס' כאן הוא שסקרנות היא תכונה מועילה ושימושית, שמסייעת בסופו של דבר לבעליה. באופן דומה, כל ילדה שצפתה בסרטי וולט דיסני באמצע השני של המאה העשרים, למדה את המיתוס שנשים צריכות להיות חינניות, חטובות, עם ריסים ארוכים ושמלות ארוכות. וכמובן, שהן צריכות גיבור שיציל אותן.

במילים אחרות, בכל חומר קריאה אנושי קיימים רעיונות מתחת לפני השטח, שלעתים איננו שמים אליהם אפילו לב – אך הם משקפים את תפישת העולם הלא-מודעת שלנו. בינות מלאכותיות שיעברו על כל החומרים הללו יזהו גם הן את המיתוסים התת-הכרתיים המקובלים בתרבות, ויאמצו אותם בהכרח.

מכיוון שכך, הבעיה כפולה: איננו צריכים רק לבחור בקפידה את החומרים שאנו נותנים לבינה המלאכותית לקרוא, אלא גם לנסות להבין בעצמנו מה המסרים החבויים בסיפורים המקובלים בחברה – והאם אנו רוצים להנציח את אותם מסרים. זוהי משימה קשה, אבל כדאי שנתחיל להתייחס אליה ברצינות. מכיוון שאם לא נעשה זאת, הרי שהבינות המלאכותיות יעשו אותה עבורנו.

אתם מוזמנים לקרוא עוד על עתיד הבינה המלאכותית והמוח האנושי בספריי המדריך לעתיד ו- "השולטים בעתיד", (ראו תמונת כריכה משמאל) בחנויות הספרים המובחרות (וגם אלו שסתם בסדר).

[לאוסף המאמרים על פסיכופתים ופסיכופתיה, לחצו כאן]

מצאת טעות בכתבה? הבחנת בהפרה של זכויות יוצרים? נתקלת בדבר מה שאיננו ראוי? אנא, דווח לנו!

נושאים להעמקה

מקורות והעשרה

[1] http://nightmare.mit.edu/#portfolioModal31

[2] http://stories.shelley.ai/chains/

[3] https://deepempathy.mit.edu/

[4] http://cocodataset.org/#home

[5] http://norman-ai.mit.edu

[6] https://en.wikipedia.org/wiki/Law_of_the_instrument

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *