סונדאר פיצאי גוגל GOOGLE
צילום: Eesan1969, Wikipedia

גוגל משנה כיוון: האם הבינה המלאכותית שלה בדרך לשימושים צבאיים?

החברה עדכנה "מתחת לרדאר" את עקרונות ה-AI שלה והסירה את ההתחייבות שלא לפתח טכנולוגיות נשק ומעקב. האם זו הכנה לשיתופי פעולה עם הממשל והצבא?

אביחי טדסה |

גוגל Alphabet -7.42%   ביצעה שינוי דרמטי במדיניות הבינה המלאכותית שלה, כאשר הסירה מהעקרונות שלה את ההתחייבות שלא לפתח טכנולוגיות AI למטרות פוגעניות, כמו נשק או מערכות מעקב המפרות את הנורמות הבינלאומיות. העדכון, שנעשה ללא הודעה מוקדמת, מעורר שאלות נוקבות לגבי הכיוון החדש של החברה והאם היא פותחת את הדלת לשיתופי פעולה צבאיים וממשלתיים בהיקף נרחב.


AI בלי גבולות? גוגל כבר לא מתחייבת להימנע משימושים צבאיים 

בגרסה הקודמת של עקרונות הבינה המלאכותית של גוגל, החברה הצהירה במפורש כי לא תפתח נשק או טכנולוגיות שמטרתן לגרום או להקל באופן ישיר על פגיעה באנשים, וכן כי לא תעסוק בפיתוח טכנולוגיות מעקב שאינן עומדות בתקנים בינלאומיים מקובלים. אך עתה, ההצהרות הללו נעלמו מהאתר הרשמי של החברה. במקום זאת, גוגל מציינת כי היא "תפעל במקרים שבהם היתרונות הצפויים עולים משמעותית על הסיכונים האפשריים". השינוי מגיע בתקופה שבה מתקיימת תחרות גלובלית עזה על השליטה בתחום הבינה המלאכותית, בעיקר בין ארצות הברית וסין. דמיס חסביס, מנכ"ל Google DeepMind, הסביר בפוסט בבלוג החברה כי "הדמוקרטיות חייבות להוביל את פיתוח ה-AI, תוך שמירה על ערכים כמו חירות, שוויון וכבוד לזכויות האדם". אך רבים רואים בשינוי הזה סימן לכך שגוגל נערכת להפוך לשחקן מרכזי בתחום הביטחוני. 


גוגל קבעה את עקרונות ה-AI שלה בשנת 2018, בעקבות סערה פנימית שהתעוררה סביב חוזה שנוי במחלוקת עם הפנטגון בשם Project Maven. הפרויקט, שהתמקד בניתוח באמצעות AI של צילומים המצולמים באמצעות רחפנים, עורר התנגדות רחבה בתוך החברה. אלפי עובדים חתמו על עצומה נגד ההתקשרות עם משרד ההגנה האמריקאי, ועשרות אף התפטרו במחאה. בעקבות הלחץ הפנימי, גוגל הודיעה כי לא תחדש את החוזה עם הפנטגון ואף ויתרה על התמודדות על חוזה ענק נוסף בשווי 10 מיליארד דולר לאספקת שירותי ענן למשרד ההגנה, בטענה כי לא יכלה לוודא שהפרויקט יתיישב עם עקרונות הבינה המלאכותית שלה. למרות העבר הזה, נראה כי בשנים האחרונות גוגל שינתה את גישתה. תחת הנהגתו של המנכ"ל סונדאר פיצ'אי, החברה פועלת באופן אקטיבי להרחבת קשריה עם ממשלות וגופים ביטחוניים, מה שהוביל לעימותים חדשים בתוך הארגון. דוגמה בולטת לכך היא Project Nimbus, חוזה משותף של גוגל ואמזון בשווי 1.2 מיליארד דולר, המספק שירותי ענן ובינה מלאכותית לממשלת ישראל ולצה"ל. גם במקרה הזה, עובדים ניסו להביע התנגדות – עשרות מחו באופן פומבי, ולבסוף יותר מ-50 עובדים פוטרו בשל השתתפותם במחאות נגד הפרויקט. למרות טענות ההנהלה כי Nimbus אינו מפר את עקרונות הבינה המלאכותית של החברה, מסמכים שדלפו חשפו כי ההסכם כלל טכנולוגיות כמו קטלוג תמונות, מעקב אחר אובייקטים וכלים המאפשרים שימושים ביטחוניים פוטנציאליים.


לצד זאת, גוגל החלה להגביל דיונים פנימיים על נושאים פוליטיים ושנויים במחלוקת. מסמכים פנימיים מראים כי מאז ספטמבר 2024 החברה החמירה את הנהלים בפלטפורמות השיח הפנימיות שלה, והגבילה דיונים על סכסוכים גיאופוליטיים, מלחמות, מדיניות כלכלית ומחלוקות טריטוריאליות. המהלך הזה נתפס על ידי חלק מהעובדים כניסיון להשתיק ביקורת פנימית, במיוחד לאור המעורבות הגוברת של החברה בפרויקטים הקשורים לממשלות ולגורמים ביטחוניים ברחבי העולם. כעת, עם השינוי בעקרונות ה-AI של גוגל והסרת ההגבלות שהיו קיימות בעבר, השאלה המרכזית היא עד כמה רחוק תלך החברה בשיתוף הפעולה שלה עם המגזר הביטחוני, וכיצד השינויים הללו ישפיעו על עתיד הבינה המלאכותית.




מה שעשוי להיות טוב למשקיעים - עלול לפגוע באזרחים 


השינוי במדיניות של גוגל עשוי להגדיל את הרווחים של החברה ולמשוך משקיעים, במיוחד לאור הביקוש הגובר לטכנולוגיות מתקדמות מצד ממשלות וגורמים ביטחוניים. כניסה לתחומים כמו פיתוח טכנולוגיות מעקב או פתרונות מבוססי בינה מלאכותית לשימושים צבאיים עשויה לפתוח עבור החברה שווקים חדשים ורווחיים. עבור בעלי המניות, מדובר במהלך שעשוי להגביר את הצמיחה הפיננסית של גוגל ולחזק את מעמדה בתחרות מול חברות כמו פלנטיר, שכבר פועלות בתחום. עם זאת, עבור הציבור הרחב מדובר בהתפתחות מדאיגה. גוגל, שהציבה בעבר קווים אדומים בנוגע לשימוש בטכנולוגיית AI למטרות נשק ומעקב פולשני, משנה כיוון ומותירה פתח לשימושים שעלולים לפגוע בפרטיות ובזכויות אדם. השינוי הזה מעלה חששות בנוגע לשקיפות ולמחויבות של החברה לערכים דמוקרטיים, במיוחד כאשר מדובר בטכנולוגיות שיכולות לשמש ממשלות לריגול אחר אזרחים או לשימושים צבאיים שנויים במחלוקת. בעוד שבשוק ההון המהלך עשוי להיתפס כחיובי, עבור האזרחים מדובר בצעד שעלול להוביל לעולם שבו בינה מלאכותית משמשת ככלי לניטור ושליטה, ולא רק לשיפור חוויית המשתמש או לייעול תהליכים עסקיים.



עמק הסיליקון נמצא בתקופה סוערת, כשיותר ויותר מנהלים רואים בבינה מלאכותית תחרות בין המעצמות. שיאם סנקר, סמנכ"ל הטכנולוגיות של פלנטיר, אמר לאחרונה כי "זה יהיה מאמץ לאומי כולל, הרבה מעבר למחלקת ההגנה, אם אנחנו רוצים לנצח". גוגל, כך נראה, לא רוצה להישאר מאחור – והעדכון במדיניות שלה הוא עדות נוספת לכך. כעת עולה השאלה: האם גוגל תתחיל לספק טכנולוגיות AI לשימושים צבאיים או ממשלתיים? האם היא תעמוד בפני ביקורת חריפה מצד משתמשים, עובדים ורגולטורים? והאם השינוי הזה ישפיע על הדרך שבה תעשיית הבינה המלאכותית מתפתחת בשנים הקרובות? מה שבטוח – גוגל לא מהססת לשנות כיוון, וההשלכות עשויות להיות מרחיקות לכת.

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה