כשכלי הקוד של AI מייצרים יותר pull requests ממה שצוות פיתוח יכול לבדוק, Anthropic שולחת צוות שלם של סוכני AI לעשות את העבודה. כלי Code Review ב-Claude Code עלה לאוויר.
# Anthropic משיקה בדיקת קוד עם סוכני AI: "ה-pull requests שלנו הכפילו את עצמם"
ב-9 במרץ 2026, Anthropic הוציאה לאוויר את Code Review, תכונה חדשה בתוך Claude Code שמפעילה צוות של סוכני AI כדי לבדוק קוד. לא עוד כלי שמחפש שגיאות כתיב. זה מערכת שמנתחת כל pull request לעומק, מזהה שגיאות לוגיות ומשאירה הערות ישירות בקוד, בדיוק כמו שמפתח בכיר היה עושה.
## הבעיה שהביאה אותם לכאן
Cat Wu, ראש המוצר ב-Anthropic, סיפרה ל-TechCrunch שהשאלה הזאת חזרה שוב ושוב מלקוחות ארגוניים גדולים: "עכשיו ש-Claude Code פותח pull requests בקצב שמעולם לא ראינו, איך אנחנו מוודאים שמישהו בודק אותם?"
כלי הקוד המבוססי AI כמו Claude Code, Cursor ו-Codex שינו איך מפתחים עובדים. הם מאפשרים לכתוב הרבה קוד בזמן קצר. הצד השני: יותר pull requests ממה שצוות יכול לבדוק ביום עבודה רגיל. הצוואר בקבוק עבר מ"כתיבת קוד" ל"בדיקת קוד".
Code Review הוא התשובה שלהם.
## איך זה עובד
המערכת מתחברת ל-GitHub ועובדת ברקע. כשמפתח פותח pull request, Code Review מפעיל כמה סוכני AI במקביל. הם בוחנים את השינויים בקוד, מחפשים שגיאות לוגיות, ומשאירים הערות ישירות על הקוד. לא "נא לשנות את השם המשתנה הזה". הערות עם הסבר ברור: מה השגיאה, למה היא בעיה, ואיך לתקן.
מפתחי צוות ומפתחי ארגון יוכלו להפעיל את התכונה ברירת מחדל לכל אחד בצוות. לא צריך לבחור ידנית מה לבדוק.
הנקודה שWu הדגישה: "ראינו AI שנותן פידבק ואוטומטי ומרגיז כי הוא לא ניתן לפעולה. החלטנו לתת עדיפות לשגיאות לוגיות בלבד. ככה אנחנו תופסים את הדברים בעלי העדיפות הגבוהה ביותר."
לא ביקורת על סגנון. לא הערות על שמות משתנים. רק מה שעלול לשבור את הקוד בייצור.
## מי משתמש בזה כבר
Wu ציינה חברות כמו Uber, Salesforce ו-Accenture כמי שכבר עובדות עם Claude Code ועכשיו מקבלות את Code Review. הכלי עלה בתצוגה מקדימה למחקר עבור לקוחות Claude for Teams ו-Claude for Enterprise.
המספרים ברקע מסבירים למה Anthropic זזה כל כך מהר. מאז תחילת 2026 הוכפעלה ההרשמה לארגונים פי 4. ה-run-rate revenue של Claude Code עבר 2.5 מיליארד דולר.
## קוד שנכתב על ידי AI צריך בדיקה של AI
יש הגיון בזה. הגל של מה שנקרא "vibe coding" (כתיבת קוד בשפה רגילה, תן ל-AI לתרגם לקוד) מאיץ פיתוח אבל מכניס סוג חדש של שגיאות. קוד שאף אחד לא כתב בידיים, שאף אחד לא עבר עליו שורה אחר שורה. Anthropic טוענת ש-Code Review נבנה בדיוק על הנסיון שלהם מבפנים, ממש כך שהם עובדים פנימית על קוד ב-Anthropic.
ישראל לא נשארת מחוץ לתמונה. חברות פיתוח ישראליות רבות כבר עובדות עם כלי AI לכתיבת קוד. הלחץ לשחרר מהר, לעמוד בדד-ליינים, לא תמיד מאפשר ל-code review אנושי לעמוד בקצב. פתרון כמו Code Review מרלוונטי גם פה.
אם אתם עסק ישראלי שחושב על שילוב סוכני AI בתהליכי עבודה, הכלים שפועלים ברקע ובודקים עבודה של AI אחר הם הדור הבא. ב-[AI Buddy](https://aibuddy.co.il) בונים בדיוק את זה: סוכנים שעובדים, בודקים ומדווחים.
## בצד השני: Anthropic מול הפנטגון
שיק הצלחה של Code Review יצא ביום שבו Anthropic גם הגישה שתי תביעות משפטיות נגד משרד ההגנה האמריקאי. הרקע: הפנטגון סיווג את Anthropic כ"סיכון לשרשרת האספקה", מה שמנע ממנה עסקאות ממשלתיות. Anthropic הגיבה בבתי משפט.
זה הכיוון שבו נעות חברות AI גדולות: מצד אחד מוצרים ארגוניים עם הכנסות שמשביעות את המשקיעים, מצד שני מאבקי רגולציה שמגדירים מחדש מי רשאי לעבוד עם מי.
המסר לשוק ברור. Code Review לא נולד מתוך מחשבה אקדמית. הוא נולד כי לקוחות ארגוניים שאלו שאלה פשוטה: "מי בודק את מה ה-AI שלנו כותב?" עכשיו יש להם תשובה.
,-
*רוצים להבין איך סוכני AI יכולים לשנות את תהליכי העבודה בעסק שלכם? [AI Buddy](https://aibuddy.co.il/services/ai-agents) מתמחה בהטמעת פתרונות AI לארגונים ישראלים. אפשר גם לגלות את [ClawBud](https://clawbud.ai) לניהול סוכני AI מותאמים.*
מערכת VibeTech
כתב/ת טכנולוגיה ב-VibeTech