עובדים בכירים באמזון חשפו ל-Guardian: המנהלים מחייבים שימוש יומי ב-AI ועוקבים אחרי מי משתמש. הבעיה? הכלים מייצרים קוד שגוי, מאטים תהליכים ומשאירים את העובדים לנקות את הבלאגן.
אמזון, אחת מחברות הטכנולוגיה הגדולות בעולם, הפכה השנה את השימוש ב-AI לחובה מוחלטת עבור כמעט כל עובד. אבל על פי דיווח מקיף שפרסם ה-Guardian הבוקר, המציאות בשטח רחוקה מאוד מהיעילות שהובטחה.
כאשר ה-AI יוצר בעיות שאתה צריך לתקן
דינה, מפתחת תוכנה בניו יורק שהצטרפה לאמזון לפני שנתיים, תיארה את חוויתה בצורה קשה. "העבודה שלי הייתה לכתוב קוד", היא אמרה. "עכשיו זה בעיקר לתקן את מה שה-AI שובר."
הכלי הפנימי שאמזון דוחפת לשימוש, בשם Kiro, מייצר לעיתים קרובות קוד עם שגיאות ו"הזיות". דינה מספרת שהיא צריכה לעבור על כל תוצאה בקפידה, לתקן שגיאות, ולעיתים פשוט לאפס הכל ולהתחיל מחדש. "זה מרגיש כמו לנסות לצאת בעזרת AI מבעיה שה-AI עצמו יצר", היא ציינה.
ימים ספורים לאחר שדיברה עם ה-Guardian, דינה פוטרה.
מנהלים עוקבים אחרי כל קליק
לא מדובר רק בתוכנה לא מושלמת. העובדים מספרים שמנהלים באמזון מקבלים גישה לדאשבורד ייעודי שמאפשר להם לעקוב בדיוק אחרי כמה כל חבר צוות משתמש ב-AI. השאלה "האם אתה משתמש ב-AI? כמה פעמים? האם אתה משתמש חזק?" הפכה לשאלה שגרתית בראיונות עבודה ובשיחות הערכה.
מריה, מנהלת מוצר לשעבר שפוטרה מאמזון בינואר, תיארה את השינוי: "כל שאלה שנשאלתי עברה לדבר על AI. האם את משתמשת בו ביום יום? כמה פעמים? האם זה עדיפות אצלך?"
שישה מתוך עשרה ניסיונות כושלים
ליסה, מהנדסת שרשרת אספקה שעובדת באמזון יותר מעשור, אומרת שכלי ה-AI עוזרים לה בערך באחד מכל שלושה ניסיונות בלבד. "וגם אז, אני מוצאת בעיות ומוציאה יותר זמן על בדיקת התוצאות מאשר אם הייתי עושה את המשימה בעצמי מלכתחילה."
היא לא מתנגדת לכלי ה-AI, אלא לגישה הלא גמישה. "את לא מסתכלת על בעיה ואומרת 'איך אני משתמשת בפטיש שיש לי?'", היא הסבירה. "את שואלת קודם כל: האם זו בכלל בעיה לפטיש?"
פחד שה-AI מאמן את הרובוט שיחליף אותם
מעבר לאי-הנוחות היומיומית, חלק מהעובדים חוששים ממשהו עמוק יותר: שהם בעצם מאמנים את המערכות שיחליפו אותם. הם נדרשים להשתמש ב-AI, לתקן את שגיאותיו, ולספק משוב שיגרום לו להשתפר, ובכך הם עצמם תורמים לבניית הכלי שיוציא אותם מהעבודה.
הדיווח הזה מגיע על רקע הצהרת אמזון שהיא כוונתה להפחית את מספר עובדי הניהול בגלל AI, לצד פיטורים של עשרות אלפי עובדים בכל הטכנולוגיה ב-2026 בגלל מעבר לאוטומציה.
הפער בין הבטחה למציאות
הסיפור של אמזון ממחיש את הסתירה המרכזית בגל האדופשן הנוכחי של AI בארגונים. החברות רוצות להראות למשקיעים שהן מובילות בטכנולוגיה, אבל דוחפות את הכלים לפני שהם מוכנים, ולפני שהעובדים קיבלו הכשרה אמיתית.
זה שונה מהגישה של חברות שמיישמות AI בצורה מחושבת. ב-AI Buddy, למשל, הגישה היא הפוכה: תחילה מבינים אילו תהליכים מתאימים לאוטומציה, ורק אחר כך מיישמים. סוכני AI אוטונומיים עובדים בצד העובד, לא במקומו.
מה ניתן ללמוד מהמקרה של אמזון
כאשר ארגון מחייב שימוש ב-AI ללא הכנה מספקת, התוצאה היא לרוב גרועה משתי הסיבות:
ראשית, העובדים מרגישים חוסר אמון ומנוטרים, מה שפוגע במורל. שנית, אם הכלי לא מתאים למשימה, הוא מייצר יותר עבודה לא פחות.
הפתרון לא טמון בלחץ ניהולי, אלא בהטמעה חכמה. ClawBud מציעה גישה שמבוססת על הבנת הצרכים תחילה, ורק לאחר מכן בניית סוכן שמתאים לתפקיד. כך נוצר ערך אמיתי, ולא עוד שכבה של ביורוקרטיה דיגיטלית.
עבור חברות ישראליות שחושבות על אימוץ AI, הלקח הוא ברור: קודם כל מבינים מה אתם רוצים לשפר, ורק אחר כך בוחרים כלי. לא הפוך.
VibeTech
כתב/ת טכנולוגיה ב-VibeTech