גוגל מכריזה שהיא 'נשענת יותר' על חוזי ביטחון לאומי עם הפנטגון, בזמן ש-Anthropic קיבלה תווית 'סיכון שרשרת אספקה' ו-OpenAI מגלה שהעסקאות הצבאיות מורכבות יותר ממה שציפתה.
כשגוגל הפסיקה לומר "אל תהיה רע"
לפני כמה שנים, גוגל הסירה את השורה "Don't be evil" מקוד ההתנהגות שלה. בשבוע האחרון, ההחלטה הזו קיבלה משמעות חדשה לגמרי.
גוגל הודיעה לעובדים שהיא "נשענת יותר" על חוזי ביטחון לאומי עם הפנטגון ועם גופי ביטחון נוספים. הניסוח זהיר, אבל המסר ברור: ה-AI הצבאי הוא הזדמנות עסקית שגוגל לא מתכוונת לפספס.
Anthropic שמה גבולות, והפנטגון ענה בחסימה
מה שמעניין במיוחד הוא ההשוואה ל-Anthropic. החברה שהקימה דריו אמודיי קבעה קווים אדומים ברורים על שימוש ב-AI שלה: לא לנשק אוטונומי, לא למעקב המוני אחרי אזרחים אמריקאים.
התוצאה? הפנטגון סיווג את Anthropic כ"סיכון שרשרת אספקה" ובפועל החרים אותה. Anthropic הגישה תביעה משפטית נגד משרד ההגנה.
OpenAI, מצדה, חתמה על עסקה עם הפנטגון ואחר כך גילתה שהעסקה מסובכת מהצפוי. המשתמשים לא אהבו, היו מחיקות המוניות של האפליקציה, ואת OpenAI עכשיו מחפשת דרך לאזן בין עסקי ביטחון לבין האמון הציבורי.
למה זה חשוב לכל עסק שמשתמש ב-AI
אתם אולי חושבים: "זה עניין של ממשלות וחברות ענק, לא רלוונטי לי." טעות.
כל עסק ישראלי שמשתמש היום בכלי AI, בין אם ChatGPT, Claude, Gemini או כל כלי אחר, חשוף לאותה שאלה בסקלה קטנה יותר: מי מחזיק ב-AI שלכם ולמי הוא נאמן?
כשגוגל מחליטה להתמסר לחוזים צבאיים, הגדרת "שימוש מקובל" עשויה להשתנות. כשהפנטגון יכול לחסום ספק שלם, אתם מבינים שה-AI שאתם סומכים עליו יכול להיות מושפע מהחלטות פוליטיות שאין לכם שליטה עליהן.
הפתרון: שליטה אמיתית על סוכן ה-AI שלכם. לא לסמוך על ענן ציבורי שמקבל החלטות בשבילכם.
AI BUDDY בנה את הגישה שלו בדיוק סביב הרעיון הזה: האוטומציה העסקית שלכם לא צריכה להיות תלויה בהחלטות עסקיות של גוגל, OpenAI או כל ספק חיצוני אחר.
שלושה שחקנים, שלוש אסטרטגיות שונות
גוגל: "שוק הביטחון שווה מיליארדים, ואנחנו כבר עובדים עם הפנטגון עשרות שנים. נכנסים פנימה."
Anthropic: "יש גבולות. מודלים של AI לא אמינים מספיק לנשק אוטונומי, ומעקב המוני פוגע בזכויות יסוד. נילחם בבית משפט אם צריך."
OpenAI: "חתמנו, חרטנו, מחפשים איזון. היה לנו גל של מחיקות אפליקציה ועכשיו אנחנו משדרים עמדה מחדש."
כל אחת מהאסטרטגיות הללו אומרת משהו על הערכים של החברה, ועל מה שיקרה ל-AI שלהן בשנים הקרובות.
מה האמת מאחורי המספרים
שוק ה-AI הביטחוני הוא עצום. הפנטגון לבד מוציא עשרות מיליארדי דולרים על טכנולוגיה כל שנה, וחלק גדל מהסכום הזה הולך ל-AI. לא מפתיע שגוגל, שראתה את ה-AI המסחרי נהפך לשוק תחרותי מטורף, מחפשת נישה שבה יש לה יתרון.
אבל יש מחיר. עובדים של גוגל כבר התפטרו בעבר על רקע חוזים צבאיים. פרויקט "מאוון" (Maven) ב-2018 גרם לגל התפטרויות. עכשיו ההנהלה שולחת מסר שאין עוד ויכוח פנימי על הנושא.
עידן חדש: AI בלי קווים אדומים?
אחד הדברים שנהיה ברורים בשנים האחרונות הוא שכל כלי AI יעיל גם לשימושים שהיוצרים שלו לא דמיינו. זה לא חדש. אבל כשחברה כמו גוגל מסירה את הגבולות בפומבי ומכריזה על מדיניות של "נכנסים לביטחון לאומי", השאלה לא רק ממשלתית.
עסקים, יזמים, ומשתמשים פרטיים צריכים לשאול: "מי מקבל את ההחלטות על ה-AI שאני משתמש בו?"
ClawBud מציע תשובה שונה: סוכן AI פרטי, על תשתית שלכם, עם חומת אש ייעודית. כשהוויכוחים הגדולים על ערכי AI מתנהלים בין ממשלות לחברות ענק, יש ערך ממשי בשליטה עצמאית.
סיכום
השבוע הזה ייזכר כרגע שבו ה-AI עבר מ"כלי עסקי" ל"שאלה ביטחונית ואסטרטגית" עבור כולם. גוגל הצהירה על עמדתה. Anthropic שילמה מחיר על עמדתה. OpenAI מחפשת עמדה שעובדת גם עסקית וגם ציבורית.
AI BUDDY שמה לב לזה מוקדם. כשבונים אוטומציה עסקית, אסטרטגיית ה-AI שלכם היא גם אסטרטגיית עצמאות. כי בסוף, ה-AI שעובד בשבילכם צריך להיות נאמן רק לכם.
VibeTech
כתב/ת טכנולוגיה ב-VibeTech