עשרות בכירים מעמק הסיליקון ומרחבי העולם חתמו השבוע על מכתב שקורא לעצירת המהפכה, או לכל הפחות להקפאתה, לצורך ניסוח כללים ברורים והצבת מנגנוני בקרה מוסכמים. זו אינה מהתלת 1 באפריל: לא מדובר בהמפכה החוקתית בישראל, אלא במהפכת הבינה המלאכותית.
ההתקדמות העצומה בתחום והאצת הפיתוח של כלי AI גנרטיביים דוגמת ChatGPT מטלטלת בחודשים האחרונים את העולם, והשפעתה הפוטנציאלית על עתיד הטכנולוגיה (והמין האנושי בכלל) הוא אחד מנושאי השיחה המרכזיים כמעט בכל פורום.
על המכתב שקורא לעצירת האימון של מודלי בינה מלאכותית "מתקדמים יותר מ-ChatGPT4" חתומים למעלה מ-1,100 מובילים טכנולוגיים, מנהלים ומשקיעים, וכן אנשי רוח ואישי ציבור, שלטענתם הפיתוח בתחום הפך ל"מירוץ חסר שליטה".
בין השמות הבולטים של החותמים המודאגים ניתן למצוא את סטיב ווזניאק, ממייסדי אפל; עימאד מוסטק, מנכ״ל Stability AI שפיתחה את אחד המנועים הפופולריים ליצירת תמונה מטקסט; כריס לארסן (ממייסדי חברת הבלוקצ׳יין Ripple); חלוץ הלמידה העמוקה יהושע בנג׳יו; אוון שארפ (מייסד פינטרסט); ואפילו את פרופ׳ יובל נח הררי. אבל הרי אי אפשר לכתוב שתי פסקאות על עמק הסיליקון בלי להזכיר את השם המפורש - כן, גם יקיר המדור אילון מאסק חתם על המכתב הפתוח, שפורסם על ידי 'המכון לעתיד החיים‘, גוף המקדם "פיתוח אחראי ואתי" של בינה מלאכותית.
מ"רובוטים רוצחים" לבינה מלאכותית
עתיד החיים אכן מעולם לא נראה מעורפל יותר. הפעם האחרונה שהמכון פרסם מכתב כזה בחתימת מובילי דעה היה ב-2018, אז הצטרפו למעלה מ-170 ארגונים ואלפי חותמים פרטיים לקריאתו של המכון לעצור את פיתוחן של מערכות נשק אוטונומיות, או בשמן הפופולרי "רובוטים רוצחים". בין החברות שחתמו על המכתב שקרא לחברות להימנע מפיתוח או סיוע לפיתוח של נשק אוטונומי, ודרש מממשלות לחוקק חוקים שיפעלו למניעת פיתוח או שימוש בנשק כזה, היו אפל, אמזון, גוגל ומיקרוסופט - שחלקן פלירטטו אז (וחלקן עדיין מפלרטטות) עם תחום הרובוטיקה.
האם בינה מלאכותית מהווה סכנה דומה לזו של רובוטים רוצחים? לטענת חלק מהחותמים, היא מסוכנת אפילו יותר. מאסק, שהיה ממייסדי OpenAI אך הפסיק את מעורבותו כבר לפני מספר שנים לאחר שניסה לקחת בה את ההובלה ונדחה, הוא עתה מראשי חוזי-השחורות.
האם בינה מלאכותית מהווה סכנה דומה לזו של רובוטים רוצחים? לטענת חלק מהחותמים על העצומה, היא מסוכנת אפילו יותר
מנכ"ל טוויטר טען רק לפני חודש - ולא בפעם הראשונה - כי AGI (בינה מלאכותית "כללית", Artificial General Intelligence) מסוכנת יותר מנשק גרעיני, משום שהגישה אליה פתוחה לכל אדם, אין עליה פיקוח וקל להשתמש בה, וכשהיא בידיים ה״לא נכונות״ אין ספק כי היא תנוצל לרעה - בניגוד לנשק גרעיני, שהפיקוח עליו גדול והשימוש בו מורכב מאד. הטענה המרכזית של מאסק ואחרים כלפי OpenAI היא שבחיפוש אחרי מודל עסקי רווחי שיאפשר לה לגייס עוד כסף, החברה הנגישה טכנולוגיה עתירת סיכון לכלל הציבור.
רבים בסיליקון ואלי מיהרו להצביע על הצביעות שבחתימתם של בכירים במיקרוסופט וגוגל על המכתב. מיקרוסופט היא משקיעה ושותפה משמעותית של OpenAI, ואין ספק כי היא עתידה להרוויח מהפופולריות הגואה של מנוע הבינה המלאכותית ומשילובו במנוע החיפוש של מיקרוסופט, בינג. עצירת הפיתוח של ChatGPT תאפשר למתחרות - ובראשן גוגל - לצמצם את הפער מהחברה שהתמקמה בחזית המהפכה.
האינטרס של גוגל ברור: בלימת התחרות העלולה לפגוע משמעותית בהכנסות החברה ממנוע החיפוש, אך האם אכן ניתן לסמוך עליה שתקפיא את הפיתוח של מנוע הבינה המלאכותית המתחרה, עליו היא שוקדת בשנים האחרונות?
לא רק ענקיות החיפוש חשודות במוסר כפול: מנכ״ל טוויטר הודיע לפני מספר שבועות כי הוא מתכנן לבסס את האלגוריתם (וגם מאת סינון התוכן) על בינה מלאכותית. חלק מהחותמים האחרים על המכתב הם בעלי עניין בחברות מתחרות, שככל הנראה נמצאות בעמדת פיגור למול OpenAI. ככלל, מפת האינטרסים של חברות הטכנולוגיה המובילות מורכבת מאד. עבור חלקן, כלי בינה מלאכותית מהווים בראש ובראשונה סכנה לפגיעה בהכנסות אם וכאשר כלים אוטומטיים יוכלו לתת מענה לצרכי השוק ללא תיווך של פתרונות תוכנה ושירותים. עבור אחרות, מדובר ב"טכנולוגיה מאפשרת" שבאמצעותה יוכלו לצמצם פערים תחרותיים קיימים.
מה שבטוח הוא שאין כרגע דרך לבדוק ולהוכיח האם חברה מסוימת אכן חדלה לפתח או לאמן מודלים מתקדמים של בינה מלאכותית, ולכן לפחות בשלב זה מדובר בקריאה ריקה מתוכן מעשי. מחברי המכתב קראו ל"הפסקה שאפשר להוכיח" בפיתוח וליצירת פרוטוקולי בטיחות שגורמים חיצוניים יוכלו לפקח על יישומם - כמעט אוטופיה בעולם העסקי התחרותי בו פועלות החברות המפתחות מודלים של בינה מלאכותית. חברת OpenAI, ששיחררה את גירסה 4 של ChatGPT רק לפני שבועות ספורים, הודיעה בתגובה כי אין לה תוכניות או פעילויות הקשורות לגירסה 5 עתידית.
מבינה מלאכותית לבשר מהונדס
מאז פרסום המכתב לפני כמה ימים עסקו אתרי הטכנולוגיה והעיתונים בניסיון להבין מהן המשמעויות האופרטיביות של ״הקפאת״ המהפכה לשישה חודשים. רמז ראשון הגיע דווקא מאיטליה, שם אסרה השבוע הממשלה על השימוש ב-ChatGPT וחסמה את הגישה אליו מספקיות הגישה לאינטרנט במדינה. הסיבה הרשמית לחסימה היא חששות לגבי זליגת מידע פרטי מהמערכת - במיוחד לאחר שלפני כשבועיים התגלתה דליפת נתונים אישיים ופרטי תשלום (ככל הנראה בשל תקלה הקשורה לקוד הפתוח של חברת רדיס הישראלית).
אבל מי שעוקב אחרי החלטות הרגולטור האיטלקי מזהה קשר בין החסימה להצעת חוק אחרת שעלתה השבוע באיטליה: איסור על ייצור ומכירה של בשר סינתטי ומהונדס.
מי שיפר את החוק המוצע, ובכך יסכן את "מסורת המזון האיטלקית ובריאות הציבור", ייקנס ב-60 אלף יורו. שר החקלאות והמזון האיטלקי, פרנצ׳סקו לולובריג׳ידה, אמר כי "מוצרי מעבדה אינם מוכחים כבטוחים, אך מסכנים את מסורת ייצור המזון והיין האיטלקית". את הארומה הפופוליסטית של ההחלטה מריחים עד לעמק הסיליקון.
התזוזה של אירופה ימינה מבחינה פוליטית עשויה להרחיב את הפער בין החדשנות הטכנולוגית לבין האינטרס הציבורי כפי שהוא מיוצג על ידי הפוליטיקאים. אם בעבר השמאל ייצג כמיהה להסדרה מרכזית והתערבות ממשלתית, והימין קידש את "השוק החופשי", הרי שבעולם בו הטכנולוגיה היא כוח-על, השליטה בו - הגבלתו או הכפפתו לכללי משחק אחרים - היא אינטרס פוליטי בשני קצוות הקשת.
התזוזה של אירופה ימינה מבחינה פוליטית עשויה להרחיב את הפער בין החדשנות הטכנולוגית לבין האינטרס הציבורי כפי שהוא מיוצג על ידי הפוליטיקאים
הסיכוי שממשל ביידן ייאמץ רשמית את הקריאה לעצירה באימון והכשרת מודלים של בינה מלאכותית נראה כרגע קלוש, למרות שההשלכות של ה-AI על החזית הפוליטית מיידיות וברורות. תמונות המעצר של דונאלד טראמפ בידי שוטרים שהופצו בשבוע האחרון נוצרו על ידי מנוע בינה מלאכותית.
נכון לרגע זה עדיין ניתן להבחין בינן לבין תמונות אמיתיות בקלות יחסית, אך הפער הולך ונסגר במהירות עצומה. תוך חודשים ספורים יוכל כל אחד מאיתנו לייצר כל תמונה או סרטון, לחקות קול אנושי והבעות פנים באופן שיקשה מאד על האדם הסביר להבחין בין מציאות לפייק. סביר להניח שב-1 באפריל הבא כבר יהיה קשה להבדיל בין האמת לבין מתיחה מוצלחת - אבל זה לא יהיה מצחיק במיוחד.