קולט קרס (אנבידיה)קולט קרס (אנבידיה)

מה אמרה סמנכ"לית הכספים של אנבידיה בשיחת הוועידה ומה צפוי להיות הכיוון של המניה?

ג'נסן הואנג, המייסד והמנכ"ל וקולט קרס סמנכ"לית הכספים עונים על שאלות האנליסטים - הרווחיות, התחזית, הביקושים, המהפכה, הבלקוול ומה קורה עם המכירות בסין?

אדיר בן עמי | (1)

אנבידיה הכתה את התוצאות וסיפקה תחזית טובה להמשך, אבל עם כוכבית - הרווחיות נשחקת. החברה העוצמתית הזו הגיעה לשלב שבו המוצרים החדשים מעין מתחרים במוצרים מהדור הקודם ונוצרת שחיקה ברווחיות. הטענה של מנהליה שזה זמני, אבל החשש הוא שזאת תחילת הסוף. אין ולא היתה חברה במיוחד בתחום השבבים שהצליחה לאורך זמן להרוויח בשיעורי רווחיות גבוהים כל כך. רווחיות גולמית של מעל 70% זה סממן של שוק כושל, שוק לא תחרותי. האם זה יימשך על פני זמן? לא. השאלה היחידה היא האם הגידול בהכנסות יהיה כזה שיפצה על השחיקה ברווחיות. בינתיים זה אכן כך ובגדול, אבל נראה שבהדרגה הצמיחה תתמתן וזה כבר קורה ברבעונים האחרונים ובמקביל שהרווחיות תמשיך להישחק. שם המשחק הוא תחרות. בינתיים AMD ואינטל מאחור, אבל התחרות מגיעה גם ממקומות אחרים כשמעבר לכך יש סימני שאלה על הבסיס של המוצרים של אנבידיה ועל היקף האימון של מודולי AI שהוא הבסיס לצמיחתה. האם יש באמת צורך בהיקף כה גדול של שבבים מתקדמים? האם באבולוציה של תחום ה-AI לא נגיע לכך שעדיף לאמן פחות את המודולים ולעשות את זה חכם יותר - הרעיון של דיפסיק ואחרות? התפיסה הזו עדיין תדרוש שבבי AI אבל פחות.

בינתיים, וול סטריט מקבלת את הדוחות והתחזית בחמימות. בהתחלה עלייה, אחר כך ירידה קלה, שוב עלייה וירידה. זה גמגומים, פלרטוטים לקראת פתיחת המסחר. המסחר אחרי הסגירה אתמול ולפני הפתיחה היום הם אמיתיים לגמרי, אבל הפתיחה במקרים רבים מנקזת אליה את מכלול המשקיעים המוסדיים הגדולים ושם נקבע המחיר, אם כי האינדיקציות של לפני הן כמובן מאוד חשובות. 


אז ג'נסן הואנג, מנכ"ל אנבידיה אמר שהביקושים לבלקוול השבב החדש הם - "AMAZING", אבל התחזית קצת פחות "AMAZING", אם כי הנהלת החבה דיברה על שיפורי הרווחיות בהמשך. בשיחת הוועידה עם האנליסטים פתחה קולט קרס סמנכ"לית הכספים של אנבידיה בתיאור תוצאות הרבעון וסיפקה דגשים על הבלקוול, הביקושים בשוק והתחזית קדימה - "הרבעון הרביעי היה רבעון שיא נוסף. ההכנסות של 39.3 מיליארד דולר היו גבוהות ב-12% באופן רציף (בהשוואה לרבעון הקודם) וב-78% בהשוואה שנתית, ועקפו את התחזית שלנו שעמדה על 37.5 מיליארד דולר. בשנת הכספים 2025 (שאצל אנביידה מסתיימת בינואר), ההכנסות היו 130.5 מיליארד דולר, עלייה של 114% מהשנה הקודמת.

"נתחיל עם מרכז הנתונים. ההכנסות ממרכז הנתונים בשנת הכספים 2025 הסתכמו ב-115.2 מיליארד דולר, יותר מהכפלה מהשנה הקודמת. ברבעון הרביעי, ההכנסות ממרכז הנתונים עמדו על 35.6 מיליארד דולר – שיא, עלייה של 16% באופן רציף ו-93% בהשוואה שנתית, כאשר ההשקה של Blackwell החלה, ו-Hopper 200 המשיך לצמוח.

"ברבעון הרביעי, המכירות של Blackwell עלו על הציפיות שלנו. סיפקנו 11 מיליארד דולר של הכנסות מ-Blackwell כדי לעמוד בביקוש הגבוה. זהו קצב ההשקה המהיר ביותר בהיסטוריה של החברה שלנו, חסר תקדים במהירות ובהיקף שלו. ייצור ה-Blackwell מתבצע במלואו עם מספר תצורות שונות, ואנו מגדילים במהירות את ההיצע ומרחיבים את האימוץ על ידי הלקוחות.

"ברבעון הרביעי, ההכנסות ממחשוב מרכזי נתונים קפצו ב-18% בהשוואה רציפה ולמעלה מפי 2 בהשוואה שנתית. הלקוחות מתחרים ביניהם כדי להרחיב את התשתית שלהם כדי לאמן את הדור הבא של המודלים המתקדמים ולפתוח את הרמה הבאה של יכולות הבינה המלאכותית.עם Blackwell, יהיה נפוץ שמרכזי נתונים יתחילו עם 100,000 יחידות GPU או יותר. משלוחים החלו כבר למספר מערכות בקנה מידה כזה.

כל הכותרות

"היקף תהליכי ההתאמה האישית לאחר האימון הוא עצום, ויכול לדרוש פי כמה סדרי גודל יותר חישוב מאשר תהליך האימון הראשוני. הביקוש שלנו ל-Inference (חיזוי בזמן אמת) מאיץ, מונע על ידי מודלים כמו OpenAI's O3, DeepSeek-R1, ו-Grok 3.

קיראו עוד ב"גלובל"

"מודלים של Reasoning AI (בינה מלאכותית המבוססת על חשיבה מעמיקה) יכולים לדרוש פי 100 יותר כוח חישוב עבור כל משימה בהשוואה ל-Inference רגיל. Blackwell תוכנן במיוחד עבור Reasoning AI Inference.הוא מציע עד פי 25 יותר מהירות עיבוד טוקנים (Token Throughput) ופי 20 פחות עלות בהשוואה ל-Hopper 100.המנוע הטרנספורמטיבי המהפכני שלו נבנה במיוחד עבור Large Language Models (מודלי שפה גדולים) ושימוש בטכניקת Mixture of Experts.

"טכנולוגיית NVLink Domain של Blackwell מספקת פי 14 יותר תפוקה בהשוואה ל-PCIe Gen 5, ומבטיחה זמני תגובה מהירים, תפוקה גבוהה ויעילות עלות. חברות מכל הענפים משתמשות בפלטפורמת ה-Inference של NVIDIA כדי לשפר ביצועים ולהפחית עלויות.לדוגמה, Now שילשה את תפוקת ה-Inference וצמצמה עלויות ב-66% באמצעות NVIDIA TensorRT עבור תכונת הצילום שלה.Perplexity רושמת 435 מיליון שאילתות בחודש וצמצמה את עלויות ה-Inference פי 3 עם NVIDIA Triton Inference Server ו-TensorRT-LLM. Microsoft Bing השיגה מהירות גבוהה פי 5 וחיסכון משמעותי בעלות הבעלות הכוללת (TCO) לחיפוש ויזואלי באמצעות NVIDIA TensorRT.

"CUDA, הארכיטקטורה התכנותית שלנו, מאיצה כל מודל AI ולמעלה מ-4,400 אפליקציות, ומבטיחה שההשקעות בתשתית הגדולה לא יתיישנו מהר מדי בשוק שמתפתח במהירות. הביצועים והקצב של החדשנות שלנו חסרי תחרות. הגענו להפחתה של פי 200 בעלויות Inference בשנתיים האחרונות בלבד. אנו מספקים את העלות הכוללת הנמוכה ביותר ואת החזר ההשקעה הגבוה ביותר, עם אופטימיזציות בכל הערימה של NVIDIA ושל האקוסיסטם הגדול שלנו, הכולל 5.9 מיליון מפתחים שמשפרים כל הזמן את העסקים עבור הלקוחות שלנו.

"ברבעון הרביעי, ספקי הענן הגדולים (CSPs) היוו כ-50% מהכנסות מרכזי הנתונים שלנו, כאשר המכירות שלהם כמעט הוכפלו בהשוואה לשנה שעברה. ספקי הענן הגדולים היו הראשונים שהטמיעו את Blackwell, כאשר Azure, GCP, AWS ו-OCI מביאים מערכות GB200 לאזורים שונים בעולם כדי לענות על הביקוש הגובר לבינה מלאכותית. אירוח של GPU של NVIDIA בענני אירוח אזוריים גדל כאחוז מההכנסות של מרכזי הנתונים, משקף את ההמשך של בניית "מפעלים ל-AI" ברחבי העולם ואת העלייה המהירה בביקוש למודלים של Reasoning AI וסוכני AI.


המסרים היו חיוביים, ההמשך צפוי להבטא צמיחה משמעותית וכך גם עלה בתשובות של המייסד ומנכ"ל החברה ג'נסן האונג. בהמשך שיחת הוועידה הגיעו השאלות של האנליסטים והתשובות של ג'נסן הואנג וקולט קרס:

C.J. Muse, קאנטור פיצג'רלד: ג'נסן, ככל שחישוב בזמן בדיקה (test-time compute) ולמידת חיזוק (reinforcement learning) מראים הבטחה רבה, אנו רואים בבירור טשטוש גובר בין אימון לבין Inferenceמה זה אומר לגבי הפוטנציאל העתידי של אשכולות ייעודיים ל-Inference? ואיך אתה חושב על ההשפעה הכוללת על NVIDIA ועל הלקוחות שלך?

ג'נסן הואנג – נשיא ומנכ"ל:. ישנם מספר חוקים של scaling (חוקי התרחבות). יש את חוק ההתרחבות של האימון המוקדם (pre-training), וזה ימשיך להתרחב כי יש לנו ריבוי מודלים (multi-modality), יש לנו נתונים שהגיעו מתהליכי חשיבה (reasoning) וכעת משמשים לאימון מוקדם. יש את חוק ה-post-training scaling, שימוש בלמידת חיזוק עם משוב אנושי, למידת חיזוק עם משוב מבוסס בינה מלאכותית, ולמידת חיזוק עם תגמולים הניתנים לאימות.כמות החישוב שאתה משתמש בה עבור post-training היא למעשה גבוהה יותר מאשר ב-pre-training. וזה די הגיוני במובן הזה שאם אתה משתמש בלמידת חיזוק, אתה יכול לייצר כמות עצומה של נתונים סינתטיים או טוקנים שנוצרו באופן סינתטי. מודלי בינה מלאכותית בעצם מייצרים טוקנים כדי לאמן מודלי בינה מלאכותית. וזהו post-training.


והחלק השלישי – וזה החלק שציינת – הוא test-time compute או reasoning AI inference scaling. כולם בעצם אותו רעיון. וכאן, יש לך שרשרת מחשבה (chain of thought), יש לך חיפושכמות הטוקנים שנוצרים, כמות החישוב הנדרש ל-Inference, כבר עכשיו גבוהה פי 100 בהשוואה לדוגמאות חד-פעמיות (one-shot examples) וליכולות ה-one-shot שהיו למודלי שפה גדולים בתחילת הדרך. וזה רק ההתחלה. זו רק ההתחלה. הרעיון שהדור הבא של מודלים יוכל לבצע חשיבה עמוקה הרבה יותר ואולי אפילו להשתמש בהדמיות (simulation-based) וחיפוש מתקדם כדי להגביר את היכולות – הוא משהו שנמצא בעתיד שלנו.

"אז השאלה היא איך אתה מתכנן ארכיטקטורה כזו?חלק מהמודלים הם auto-regressive, חלק מהמודלים מבוססים על diffusion.לפעמים אתה רוצה שהמרכז הנתונים שלך יהיה עם Inference מבוזר (disaggregated inference). לפעמים, אתה רוצה שהוא יהיה מרוכז (compacted).אז קשה לקבוע מהי הקונפיגורציה הטובה ביותר של מרכז נתונים.וזו בדיוק הסיבה שהארכיטקטורה של NVIDIA כל כך פופולריתאנחנו מריצים כל מודל.אנחנו מצוינים באימון. הרוב המכריע של חישובי ה-GPU שלנו כיום הוא למעשה Inference.ו-Blackwell לוקח את כל זה לשלב הבא. תכננו את Blackwell מתוך מחשבה על מודלים של Reasoning AI.וכשאתה מסתכל על האימון, הוא פי כמה יותר מהיראבל מה שבאמת מדהים זה שבזמן בדיקה (test-time scaling), מודלים של Reasoning AI מהירים עשרות מונים, עם פי 25 יותר תפוקת טוקנים (token throughput). אז Blackwell הולך להיות מדהים בכל קנה מידה.


ג'ו מור – אנליסט, מורגן סטנלי:

אני רוצה לשאול על GB200 – ב-CES דיברתם על המורכבות של מערכות הרמות-מדף (rack-level systems) והאתגרים הכרוכים בכך. כפי שציינת בהצהרה המוכנה, ראינו עכשיו זמינות מסחרית רחבה יותר.איפה אתם נמצאים מבחינת קצב ההשקה? האם יש עדיין צווארי בקבוק ברמת המערכת מעבר לרמת השבב? והאם ההתלהבות שלך מ-NVL72 נשארה כפי שהייתה?


ג'נסן הואנג – נשיא ומנכ"ל:

ובכן, אני יותר נלהב היום מכפי שהייתי ב-CES.והסיבה לכך היא כי מאז CES שלחנו הרבה יותר מערכות.יש לנו כ-350 מפעלים שמייצרים 1.5 מיליון רכיבים לכל מערכת Blackwell rack, Grace Blackwell rackכן, זה מאוד מורכב.אבל הצלחנו להשיק את Grace Blackwell בקצב מהיר, עם הכנסות של כ-11 מיליארד דולר ברבעון האחרון.אנחנו צריכים להמשיך להתרחב כי הביקוש גבוה מאוד, והלקוחות חסרי סבלנות לקבל את המערכות שלהם.בטח ראיתם באינטרנט הרבה חגיגות על כך שמערכות Grace Blackwell עולות לאוויר.כמובן שגם אנחנו מפעילים מערכות כאלה בעצמנו – יש לנו מתקן גדול של Grace Blackwell להנדסה, לעיצוב ולפיתוח תוכנה. CoreWeave כבר הצהירו פומבית על כך שהביאו את המערכת שלהם לפעולה בהצלחהMicrosoft גם כןOpenAI כבר עובד על זהואתם תתחילו לראות עוד ועוד ספקים עולים לאוויר.

"אז אני חושב שהתשובה לשאלתך היא – שום דבר ממה שאנחנו עושים הוא לא קלאבל אנחנו עושים את זה נהדר, וכל השותפים שלנו מצליחים בכך גם כן.


Vivek Arya – אנליסט:  קולט, האם תוכלי לאשר אם הרבעון הראשון הוא התחתית (bottom) של שיעור הרווח הגולמי? וג'נסן, השאלה שלי אליך – מה נמצא על לוח הבקרה שלך שנותן לך את הביטחון שהביקוש החזק יימשך גם לשנה הבאה? האם החדשנות של DeepSeek שינתה את נקודת המבט שלך לגבי זה? תודה.


קולט – סמנכ"לית כספים, סגנית נשיא בכירה: ובכן, אני אתחיל עם החלק הראשון של השאלה בנוגע לרווח הגולמי. במהלך ההשקה של Blackwell, שיעור הרווח הגולמי שלנו יהיה ברמות הנמוכות של ה-70%. כרגע, אנחנו ממוקדים בהאצת הייצור, בהאצת הייצור כדי לוודא שאנחנו יכולים לספק ללקוחות שלנו בהקדם האפשרי. Blackwell נמצא בהשקה מלאה, וברגע שהוא יגיע לבשלות מלאה, נוכל לשפר את העלויות ואת שיעור הרווח הגולמי. אז אנחנו מצפים להיות באמצע ה-70% בהמשך השנה.

אם תעברו על מה ששמעתם מג'נסן בנוגע למורכבות המערכות – המערכות שלנו הן מותאמות אישית במקרים מסוימים, יש להן אפשרויות רשת שונות, יש להן קירור באוויר וקירור בנוזל. אז אנחנו יודעים שיש לנו הזדמנויות לשיפור הרווחיות בהמשך. אבל כרגע הפוקוס שלנו הוא לסיים את הייצור במהירות ולהעביר ללקוחות כמה שיותר מהר.


ג'נסן הואנג – נשיא ומנכ"ל: יש לנו ראייה די טובה על ההשקעות ההוניות (CapEx) של מרכזי הנתונים וכמה הם מתכננים להוציא.אנחנו יודעים שהרוב המוחלט של התוכנה העתידית תתבסס על למידת מכונה. אז מחשוב מואץ ובינה מלאכותית יוצרת (generative AI) יהיו הארכיטקטורה המובילה במרכזי הנתונים. יש לנו כמובן תחזיות ותוכניות מהשותפים הגדולים שלנו. אנחנו גם יודעים שעדיין יש לא מעט סטארט-אפים חדשניים ומלהיבים שמתפתחים,ומנסים להביא את הדור הבא של הבינה המלאכותית,בין אם זה סוכני AI (agentic AI), בינה מלאכותית מבוססת reasoning, או AI פיזי (physical AI).

"מספר הסטארט-אפים נותר גבוה, וכל אחד מהם צריך תשתית חישוב מסיבית. אז אם נסתכל על הרמזים לטווח הקצר, לטווח הביניים, ולטווח הארוך –הזמנות רכש (POs) ותחזיות. האותות לטווח הביניים הם ההשקעות במרכזי נתונים וההיקף של ההוצאות ההוניות שלהם בהשוואה לשנים קודמות. האותות לטווח הארוך –אנחנו יודעים שכל התוכנה משתנה,מכתיבה ידנית (hand-coding) שרצה על מעבדי CPU,למבוססת למידת מכונה ו-AI שרץ על GPUs ומחשוב מואץ. יש לנו תחושת ודאות גבוהה מאוד שזה העתיד של התוכנה. ואם נסתכל על זה מנקודת מבט רחבה יותר, אנחנו רק בתחילת הדרך – צרכנים מתחילים לאמץ AI, חברות מתחילות להשתמש בסוכני AI, מדינות מתחילות לבנות AI ריבוני (sovereign AI). כל התחומים האלו רק בתחילת הדרך, ואנחנו רואים המון פעילות בתחומים האלו.


Timothy Arcuri – אנליסט: ג'נסן, שמענו הרבה על שבבי ASIC מותאמים אישית. תוכל לדבר על האיזון בין שבבי ASIC מותאמים אישית לבין GPUs מסחריים? שמענו על אשכולות סופר-מחשוב (heterogeneous superclusters) שמשלבים גם ASIC וגם GPUs. האם זו באמת מגמה אמיתית, או שמערכות ה-GPU יישארו נפרדות לחלוטין?

ג'נסן הואנג – נשיא ומנכ"ל: ובכן, אנחנו בונים משהו שונה לחלוטין מ-ASICs. ASICs מאוד מוגבלים במטרות שלהם. הארכיטקטורה שלנו היא כללית, היא מואצת, והיא תומכת בכל סוגי המודלים. אנחנו היעד הראשון לכל החדשנות המתקדמת ביותר, וזה מה שמבדל אותנו באופן מוחלט משבבי ASIC ייעודיים.


בן רייטזס – אנליסט:  ג'נסן, יש לי שאלה הקשורה לגיאוגרפיה.ראינו שההכנסות שלכם בארה"ב עלו בכ-5 מיליארד דולר ברבעון האחרון, וזה מעורר חשש מסוים לגבי ההשלכות של רגולציה אפשרית על אזורים גיאוגרפיים אחריםכשאתם מסתכלים קדימה, האם הצמיחה בארה"ב תוכל לפצות על כל השינויים הרגולטוריים במקומות אחרים? ואם כן, האם זו הסיבה שבגללה אתם כל כך בטוחים בתחזיות הצמיחה שלכם?

ג'נסן הואנג – נשיא ומנכ"ל: סין נמצאת כיום על בערך מחצית מהיקף הפעילות שלה לפני מגבלות הייצוא, אבל האחוז היחסי נשאר די יציב מאז שהמגבלות נכנסו לתוקף. לגבי שווקים אחרים –AI היא טכנולוגיית תוכנה. זהו תחום שהפך לחלק מרכזי מהחיים המודרניים, בכל מקום. למשל, שירותי משלוחים משתמשים בבינה מלאכותית כדי לייעל את הפעילות שלהם. גם מערכות חינוך, רפואה, שירותים פיננסיים, כל תחום משתמש היום ב-AI ברמה מסוימת. זה לא משהו שייחודי לארה"ב, אלא תופעה גלובלית לגמרי.ולכן, החדירה של בינה מלאכותית לתוך חיינו רק בתחילת הדרך. אנחנו שנתיים בלבד בתוך מהפכת הבינה המלאכותית, ובפועל, אנחנו עדיין בשלב של בניית התשתיות לכל המהפכה הזו. אז כשמסתכלים על זה בפרספקטיבה רחבה, ברור שאנחנו רק בתחילת המסע. ואם נחשוב על זה מבחינת השפעה כלכלית עולמית, AI מסוגל לגעת ולהשפיע על חלק גדול יותר מהתוצר הגולמי העולמי מאשר כל טכנולוגיה שהייתה לפניה.

עטיף מאליק מ-Citi: קולט, רציתי להתמקד בשולי הרווח הגולמייםאמרת קודם שהרבעון הראשון יהיה כנראה התחתיתאבל כדי להגיע חזרה לאמצע ה-70% כפי שאתם מצפיםתצטרכו לשפר את השוליים בכ-200 נקודות בסיס בכל רבעון בהמשך השנהבנוסף, עדיין לא ברור כיצד מכסי המגן בארה"ב ישפיעו על תעשיית השבבים בכללאז מה נותן לך את הביטחון שנראה שיפור כה מהיר ברווחיות?


קולט: שולי הרווח שלנו מאוד מורכביםבגלל רמות שונות של חומרה ותצורות שונות של Blackwellלכן, יש לנו הרבה מאוד אפשרויות לשיפור הרווחיות לאורך זמןהדבר הכי חשוב כרגע הוא להשלים את ההשקה בצורה מוצלחת ולוודא שאנחנו מסוגלים לספק ללקוחות כמה שיותר מהרברגע שזה יקרה, נתחיל לעבוד על הורדת עלויות כדי לשפר את הרווחיות.

לגבי הנושא של מכסי המגןכרגע אנחנו עדיין ממתינים לקבלת מידע נוסף מהממשל האמריקאיעדיין לא ברור מה יהיה גובה המכסיםעל אילו מוצרים הם יחולוואיך הם ישפיעו על התעשייה כולה.

 

תגובות לכתבה(1):

הגב לכתבה

השדות המסומנים ב-* הם שדות חובה
  • 1.
    אנונימי 27/02/2025 09:37
    הגב לתגובה זו
    הדיפשיט כבר עכשיו רואים שכל עניין דיפשיט deepseek רק הגביר את הביקוש לשבבי ההופר.ולגבי הרווחיות הגולמית היא תחזור לעלות במחצית השנייה של השנה!