• הוסף לסימניות
  • #2
מיקרוסופט כבר לא ספקית הענן הבלעדית של OpenAI
השקעת הענק של מיקרוסופט ב-OpenAI, שעומדת כרגע על כ-13 מיליארד דולר, הגיעה עם סעיף מעולה עבור המשקיעה: היא תהיה ספקית הענן הבלעדית של OpenAI. אך הסעיף הזה משתנה כעת. מיקרוסופט הודיעה על חתימת הסכם חדש עם OpenAI שבמסגרתו היא תוכל לבחור אם לספק את שירותי הענן שלה ל-OpenAI או להודיע כי לא תוכל לעשות זאת, ואז החברה של סם אלטמן תצטרך למצוא לה ספקית ענן אחרת. במסגרת ההסכם החדש תוכל OpenAI להריץ ולאמן את המודלים שלה על תשתיות ענן מתחרות, אולי על אלו של Oracle שבדיוק חתמה איתה על עסקת ענק להקמת תשתית AI בחצי טריליון דולר. גיקטיים
 
  • הוסף לסימניות
  • #3
בהשקעה של פחות מ-6 מיליון דולר: מודל ה-AI הסיני שמפיל בחדות את מניות השבבים

ברקע איומי הגבלת הייצוא של שבבים חזקים מארה"ב לסין: סטארט-אפ סיני הצליח לפתח מודל בינה מלאכותית שמתחרה טוב מאוד במודלים האמריקאים הגדולים ● עם שינוי משמעותי, בזול יותר וללא צורך בשבבים חזקים ● מנכ"ל מיקרוסופט סאטיה נאדאלה: "אנחנו צריכים לקחת את ההתפתחויות מסין מאוד מאוד ברצינות"
נבו טרבלסי/גלובס
כשברקע מאיימים המגבלות של ארצות הברית על סין: סטארט-אפ סיני בשם DeepSeek הצליח לפתח מודלי בינה מלאכותית שמתחרים במודלים האמריקאים הגדולים - עם שינוי משמעותי, בזול יותר ועם פחות שבבים חזקים. המודלים הללו מסעירים את הסיליקון וואלי ואת הרשת כולה.
DeepSeek הסינית יש מודלים בקוד פתוח שמתחרים במודלים הגדולים ביותר של OpenAI, למרות שפותחו בתקציב זעום
תכירו את DeepSeek, סטארטאפ AI סיני שמשחרר מודלים בקצב מהיר – ובקוד פתוח – ומתכנן להתחרות בשחקניות האמריקאיות הגדולות ביותר גם בביצועים וגם בעלויות של השימוש במודלים שלו. הסטארטאפ התפרסם בחודש שעבר אחרי ששחרר את DeepSeek-V3, המודל החדש שלו בקוד פתוח שמגיע גם בתצורת צ'אטבוט כדי להתחרות ראש בראש עם ChatGPT, קלוד, ג'מיני ואחרים.
המודל פותח בארכיטקטורת Mixture-of-Experts, הכוללת מספר רשתות המתמחות בפתרון בעיות מסוימות שכל אחת מהן מופעלת בהתאם לפרומפט שמקבל המודל. המודל כולל 671 מיליארד פרמטרים, 37 מיליארד מתוכם מופעלים פר טוקן שתשלחו בפרומפט שלכם. המודל אומן על כ-15 טריליון טוקנים של טקסט והוא מתמחה במטלות מתמטיות וכתיבת קוד. לראייה, אחוז ההצלחה שלו בבנצ'מרק כתיבת ופתרון בעיות קוד (Codeforces) יותר מכפול מזה של GPT-4o של OpenAI. במאמר שפרסמה החברה היא מציינת כי אימנה את המודל הענק על כ-2,000 GPUs בלבד לאורך חודשיים.
 
  • הוסף לסימניות
  • #5
גוגל מתכננת לבטל את השימוש בקודי SMS לאימות זהות ב-Gmail, עקב סיכוני אבטחה וניצול לרעה. במקום זאת, החברה תאמץ אימות באמצעות סריקת קוד QR. השינוי צפוי להיכנס לתוקף בחודשים הקרובים (פורבס).
אם לא היה די בסאגה לציבור החרדי להשיג SMS נראה איפה שהסאגה רק הולכת להסתבך פי כמה
 
  • הוסף לסימניות
  • #9
מהפכה ב WhatsApp: בקרוב תשלחו הודעות בלי לחשוף את המספר שלכם!

WhatsApp שוקדת בימים אלו על פיצ'ר חדשני שיאפשר שליחת וקבלת הודעות באמצעות שם משתמש ייחודי – במקום מספר הטלפון האישי.

מטרת המהלך: לשדרג את פרטיות המשתמשים ולצמצם את התופעה של הטרדות והתחזות.

השם שייבחר יהיה ייחודי לכל משתמש, בדומה לטוויטר או טלגרם, אך עם מגבלות מחמירות כדי למנוע התחזות או זיופים. לפי הדיווחים, ניתן יהיה לשנות את השם – אך לא לעיתים קרובות, ולא באופן שיקשה על זיהוי אמיתי. הפיצ'ר נמצא כעת בפיתוח, וצפוי להיות מושק בהדרגה במהלך החודשים הקרובים.

מדובר באחד השינויים הגדולים ביותר באפליקציה מאז השקתה, והוא עשוי לשנות לחלוטין את הדרך בה אנו מתקשרים - במיוחד בקבוצות או בצ'אטים עם זרים.
 
  • הוסף לסימניות
  • #10


יוניטרי רובוטיקס, המתכוננת להנפקה ראשונית לציבור, חשפה את דגם ה-R1 של הרובוט דמוי האדם שלה במחיר של 5,900 דולר ליחידה. מה שהופך אותו לנגיש עבור מפתחים פרטיים וצרכנים.
 

קבצים מצורפים

  • רובוט.zip
    2.4 MB · צפיות: 39
  • הוסף לסימניות
  • #11
  • הוסף לסימניות
  • #12
"כמו לדבר עם דוקטור": OpenAI השיקה את GPT-5

הדור הבא של מודל הבינה המלאכותית של OpenAI זמין באופן מיידי לכל המשתמשים בצ'טבוט ChatGPT; לפי החברה, GPT-5 עונה על שאלות מהר יותר - וגם מועיל יותר בשאילתות הקשורות לעולם האמיתי

כלכליסט

ענקית הבינה המלאכותית OpenAI השיקה את הדור הבא של מודל ה-AI שלה, GPT-5, שיהיה זמין באופן מיידי לכלל המשתמשים בצ'טבוט ChatGPT, כולל במסלול החינמי.

מייסד ומנכ"ל OpenAI, סם אלטמן, אמר כי המודל החדש מהווה זינוק דרמטי לעומת מודלים קודמים, וכי הוא חכם יותר, מהיר יותר ובעל נטייה פחותה למסור תשובות שגויות. "GPT-3 היה כמו לדבר עם תלמיד תיכון", הוא אמר בתדרוך לעיתונאים. "יכולת לשאול אותו שאלה. אולי היית מקבל תשובה נכונה, אולי משהו משוגע. GPT-4 הרגיש כמו לדבר עם סטודנט באוניברסיטה. עם GPT-5 זה מרגיש כמו לדבר עם מומחה בעל תואר דוקטור. זה המודל הטוב בעולם בתכנות, המודל הטוב בעולם בכתיבה, המודל הטוב בעולם בתחום הבריאות, ועוד רשימה ארוכה של דברים".

עוד לפני השיפורים ביכולות המודל, OpenAI ביטלה את הפיצול שלו לתתי-מודלים (למשל, תת-מודל חושב). בתוך הצ'טבוט, GPT-5 מופיע כמודל אחד, כאשר ChatGPT מפעיל את יכולות החשיבה העמוקה שלו בהתאם למורכבות השאילתה או הוראה מהמשתמש בפרומט. "התחושה של המודל מאוד טובה", אמר מנהל ChatGPT, ניק טורלי. "אני חושב שאנשים ממש ירגישו את זה, במיוחד האדם הממוצע שלא מבלה הרבה זמן במחשבה על מודלים".

ברמת היכולות שלו, לדברי החברה, GPT-5 לא רק מספק ביצועים טובים יותר ממודלים קודמים לפי מדדים מקובלים ועונה על שאלות מהר יותר, הוא גם מועיל יותר בשאילתות שקשורות לעולם האמיתי. "רשמנו התקדמות משמעותית בהפחתת ההזיות (תשובות שקריות או מטעות, ע"כ), ציות טוב יותר להוראות וצמצום חנפנות, תוך שיפור הביצועים בשלושת השימושים הנפוצים ביותר: תכנות, כתיבה ובריאות", מסרה OpenAI.

בכל הנוגע לתכנות, GPT-5 צפוי לספק שיפור משמעותי ביצירת קוד פרונטאנד מורכב ובדיבאגינג של מאגרי קוד גדולים. "הוא גם יכול ליצור אתרים, אפליקציות ומשחקים יפים, עם דגש על אסתטיקה, בפרומט אחד, ולהפוך רעיונות אינטואטיביים למציאות. נסיינים מוקדמים גם הבחינו בכך שהבחירות העיצוביות שלו יותר טובות בכל הנוגע להבנה של ריווחים, טיפוגרפיה וחללים לבנים".

בתדרוך לעיתונאים, הדגימה החברה את יכולות המודל עם בקשה ליצור אתר ללימוד צרפתית שכולל משחק אינטראקטיבי. בתוך שניות כתב GPT-5 מאות שורות קוד והציג את עמוד הכניסה לאתר. בהדגמה, כל הפונקציות באתר פעלו כשורה.

בכל הנוגע לכתיבה, אומרת החברה, GPT-5 מסוגל להפוך רעיונות גסים ל"כתיבה מושכת ומהדהדת עם עומק ספרותי וקצב. יכולות אלו מאפשר ל-ChatGPT לסייע טוב יותר במשימות יומיומיות כמו כתיבת ועריכת דוחות, אימיילים, מזכרים ועוד".

משתמשים רבים פונים ל-ChatGPT בשאילתות בנושאי בריאות, ולדברי החברה המודל החדש הוא הטוב ביותר במענה לשאלות כאלו, ומקבל ציון גבוה יותר מהמודלים הקודמים. "בהשוואה למודלים קודמים, הוא פועל יותר כמו שותף להליך החשיבה, ובאופן יזום מצביע על דברים מעוררי דאגה ושואל שאלות שנותנות תשובות מועילות יותר", מסרה החברה. "המודל גם מספק תשובות מדויקות ואמינות יותר, ויודע להתאים אותן להקשר, רמת הידע והמיקום הגיאוגרפי של המשתמש".

לפי OpenAI, המודל החדש מציג שיפורים בהיבטים כמו ציות להוראות מרובות שלבים, פעילות כאייג'נט, ומענה לשאילתות שמשלבות טקסט עם תמונה, וידאו ועוד.

סוגיה משמעותית היא ההזיות של מודלי AI. לדברי החברה, היא בחנה את המודל החדש במשך 5,000 שעות כדי להבין את סיכוני הבטיחות שלו, כאשר אחת המטרות העיקריות היתה לוודא שהוא לא משקר למשתמשים. מנהל תחום מחקר הבטיחות ב-OpenAI, אלכס בויטל, אמר שהמודל עונה עם פחות הזיות מהמודל החושב o3, אך ששקרים עדיין נותרו בעיה גדולה. בהקשר זה, בעיה שהחברה לא הצליחה לפתור היא טענה של המודל שהוא מסוגל להשלים משימה שהוא לא יכול לבצע. עם זאת, לדברי OpenAI יש שיפור ביכולת של המודל להודות בכך שאינו מסוגל להשלים משימה.

אלטמן גם התייחס למטרת החברה לפתח בינה מלאכותית כללית (AGI, מודל שמסוגל לחשוב, ללמוד ולפעול כמו בני אדם), ואמר שהמודל החדש הוא צעד בדרך לשם. "אני קצת שונא את המונח AGI, כי בשלב הזה כל אחד משתמש בו בצורה קצת אחרת", הוסיף. "אבל זה צעד משמעותי לכיוון מודלים כאלו".

לצד GPT-5, חשפה OpenAI גם אישיות נבדלות ל-ChatGPT, שיאפשרו למשתמשים להתאים את האינטראקציה עם הצ'טבוט להעדפותיהם. בתור התחלה, יהיו זמינות ארבע אישיות: ציני, רובוט, מאזין וחנון.
 
  • הוסף לסימניות
  • #13
מה קרה להבטחה ל"מוח דיגיטלי עוצמתי"? ההשקה של GPT–5 אכזבה את המשתמשים

השיפור המתון מאוד עד לא קיים של GPT-5, שהושק בשבוע שעבר לאחר השקעה של עשרות חודשי עבודה ומיליארדי דולרים — מנפץ את התחזיות של מומחי AI לפיתוח מהיר של “מוח דיגיטלי עוצמתי בלתי ניתן לשליטה”. האם היכולות של מודלי בינה מלאכותית גנרטיבית מודרניים מתקרבות לסף העליון שלהן?

כלכליסט
B11V7uP00ex_199_56_1027_578_0_x-large.jpg


במרץ 2023, ימים ספורים אחרי ש־OpenAI הדהימה את העולם עם מודל ה־AI החדש שלה, פרסמו מאות ממומחי בינה מלאכותית ומדעי המחשב אזהרה חמורה שקראה לעצור את הפיתוח של מערכות עוצמתיות יותר לחצי שנה לפחות. "מעבדות AI נמצאות במרוץ חסר שליטה לפתח ולהטמיע מוחות דיגיטליים עוצמתיים שאף אחד לא יכול להבין, לחזות או לשלוט בהם", הם התריעו.

אבל החברות המשיכו במרץ בפיתוח המודלים שלהן. OpenAI עצמה הקדישה יותר משנתיים לפיתוח מודל הדור הבא, GPT-5. בסוף השבוע חשפה החברה את המודל החדש, והתברר שהחשש והלחץ של המדענים הבכירים לא היה במקומו. לא מכיוון ש־OpenAI דאגה ליישם מנגנוני הגנה ראויים שימנעו את תרחיש האימים, אלא מכיוון שהמודל עצמו פשוט לא כזה מרשים. לא "מוח דיגיטלי עוצמתי", לא קפיצת מדרגה משמעותית, אפילו לא בטוח ששיפור מורגש לעומת דור המודלים הקודם.

אתמול אפילו OpenAI עצמה הודתה בכך בעקיפין, כשהנגישה מחדש את מודל GPT-4o, שהמודל החדש היה אמור לייתר. הכישלון של GPT-5 להרשים מעלה שאלה מהותית: האם היכולות של מודלי בינה מלאכותית גנרטיבית מודרניים כבר מתקרבות לסף העליון שלהן?

מתקשה בחשבון פשוט

ההשקה ביום חמישי שעבר אמורה היתה להיות רגע הניצחון של OpenAI ל־2025. אחרי שהציתה מהפכה עם ChatGPT ב־2022 ומיצבה את עצמה כמובילת התחום עם GPT-4 ב־2023, היא סבלה מכמה מהמורות. מתחרות מקומיות כמו אנת'רופיק הציגו מודלים עם יכולות טובות כמו שלה, ובהיבטים מסוימים אף טובים יותר. ומלמטה זינבו בה מתחרות סיניות כמו דיפסיק, שיצרו מודלים בעלי יכולות דומות לשלה בשבריר מההשקעה. במקביל הפיתוח של GPT-5 נתקל בקשיים ועיכובים, וסבל מעלויות גבוהות מהצפוי.

ההשקה בשבוע שעבר היתה אמורה להיות התיקון של זה, פריצת הדרך הבאה של OpenAI שתחזיר אותה לדרך המלך. כשחשפה אותו בחמישי הבטיחה החברה זינוק דרמטי, עם מודל חכם יותר ואמין יותר. לדברי המייסד והמנכ"ל סם אלטמן, אם שיחה עם GPT-4 הרגישה כמו שיחה עם סטודנט, עם GPT-5 כבר ירגיש המשתמש כאילו הוא משוחח עם מומחה בעל תואר דוקטור. ההבטחה היתה לשיפורים גורפים במשימות כמו כתיבה, תכנות ושיח בנושא בריאות, ולצד זאת הרבה פחות הזיות.

אבל מהר מאוד התגלעו בקיעים בהבטחות הנוצצות. במדיה חברתית משתמשים רבים הביעו תסכול מכך שהמודל החדש עדיין נוטה להמציא דברים ושוגה בשאלות חשבון ואיות פשוטות. כך, למשל, במקרה אחד כשהתבקש המודל להגיד כמה פעמים האות b מופיעה במילה blueberry, הוא השיב "שלוש". כשמשתמש העלה תמונה של זברה עם חמש רגליים ושאל כמה רגליים מופיעות בה, השיב המודל שמדובר באשליה אופטית ולזברה יש ארבע רגליים. בימים שלאחר ההשקה הפוסט הפופולרי ביותר בסאב־רדיט של OpenAI (שלרוב מזוהה עם תמיכה בחברה), קבע בין השאר שעם המודל החדש, החברה התמקדה "בהנמכת עלויות, ולא בשרטוט מחדש של הגבולות".

בשיחה עם גולשים ברדיט אמר מייסד ומנכ"ל OpenAI, סם אלטמן, שהוא סבור שאיכות הכתיבה של GPT-5 גבוהה הרבה יותר ממודל הדור הקודם. "אתם חושבים שהיא גרועה יותר?" הוא שאל. התשובה הגורפת: כן. "4 ו-4.5 הצטיינו בכתיבה יצירתית ודינמית. 5 הוא כל כך סטרילי, זה כמו לבקש מפרופסור למתמטיקה להיות אמילי דיקינסון.

וגם פרופסורים למתמטיקה לא התרשמו מהמודל החדש. "ההשקה היתה מאכזבת", אמר לבלומברג פרופ' נואה ג’יאנסיראקוזה, מתמטיקאי מאוניברסיטת בנטלי. "היו שיפורים מסוימים, אך הם היו הרבה יותר שוליים מכפי שחשבתי".

ד"ר גארי מרקוס, פרופ' אמריטוס לפסיכולוגיה ומדעי המוח ב־NYU ואחד ממומחי ה־AI החשובים בעולם, כינה את GPT-5 "מאכזב" ואת ההשקה שלו "כאוטית". "OpenAI התפוצצה, ולא במובן החיובי", הוא כתב בבלוג שלו. "חוץ מכמה משפיענים שמשבחים כל מודל חדש, התגובה הדומיננטית היא אכזבה משמעותית. GPT-5 הוא לא מודל נוראי, אבל הוא לא שונה משום דבר שבא לפניו. GPT-4 נחשב להתקדמות קיצונית לעומת GPT-3, ו־GPT-3 להתקדמות קיצונית לעומת GPT-2. אבל GPT-5 הוא בקושי טוב יותר מהמודל החדש של החודש שעבר (גרוק 4), ובמדדים מסוימים אפילו גרוע יותר. מדובר פשוט בשיפור אינקרמנטלי".

תלונה נוספת של משתמשים נגעה להחלטה של OpenAI לבטל את האפשרות של מנויים בתשלום לבחור את המודל שאיתו יעבדו. קודם להשקת GPT-5 יכלו מנויים לבחור איזה מודל יענה על השאילתה שלהם מתוך מספר אפשרויות. רבים ניצלו אפשרות זו כדי להתאים את המודל לסוג השאילתה — יצירתיות, לוגיקה, מחקר עמוק ועוד — או כדי לבצע בדיקה צולבת של תשובות כדי לזהות שגיאות או הזיות של המודל.

עם השקת GPT-5 נעלמה בחירה זו, והבחירה היחידה היא בין המודל הרגיל לגרסה החושבת של המודל (ולמשתמשי מסלול הפרו שעולה 200 דולר בחודש, גם גרסה לתבונה ברמה מחקרית). ChatGPT אמור לנווט מאחורי הקלעים את הבחירה למודל הטוב ביותר, מהלך שהכעיס משתמשים רבים, ותקלה בניתוב האוטומטי ביום ההשקה לא סייעה. אלטמן הבטיח שהתקלה תוקנה ושהחברה תבליט איזה מודל עונה לכל שאילתה, אבל המשתמשים הנאמנים לא התרצו, ואלפים חתמו על עצומה בדרישה להחזיר את 4o. אלטמן שמע את קריאותיהם, ושלשום בערב אמר כי מנויים בתשלום יכולים לבחור את המודל הוותיק יותר.

ההנגשה המחודשת של מודל בן יותר משנתיים, שאמור להיות לא רלוונטי לנוכח המודל החדש, ממחישה את האתגרים הנוכחיים של חברות ה־AI. כשהושק GPT-4, קפיצת הדרך שלו היתה כל כך מרשימה ומשמעותית שמיטב המומחים חשו בסכנה מיידית מהמשך הפיתוח המואץ. אבל גם לאחר עשרות חודשים של עבודה והשקעה של מיליארדים, לא הצליחה OpenAI להביא יותר משיפור הדרגתי במקרה הטוב, כזה שהמשתמשים המנוסים ביותר לא בהכרח מרוצים ממנו.

ייתכן בהחלט שהפיתוחים וקפיצות הדרך הגדולות של תחום הבינה המלאכותית הגנרטיבית כבר מאחורינו; שהאפשרות לייצר התקדמות משמעותית בתוך זמן קצר ובעלות הגיונית (הגם שמשמעותית מאוד) כבר אינה קיימת; שמעתה כל התקדמות תעלה בהרבה מאמץ והשקעה ותספק הישגים שוליים בלבד.

אשליה שברירית

מחקר של חוקרים מאוניברסיטת אריזונה, שהועלה לרשת בשבוע שעבר וטרם עבר ביקורת עמיתים, מחזק את הסברה שיהיה קשה מאוד לרשום פריצות דרך נוספות בתחום. החוקרים אימנו מודל AI, ואז בחנו את יכולתו לפתור בעיות בהליך שרשרת חשיבה דומה לזה של מודלי AI חושבים אחרים. בהליך זה המודל שוקל שאילתה לזמן רב יותר, ומפרט גם את שרשרת החשיבה הלוגית שלו צעד אחר צעד. אולם החוקרים גילו ששרשרת זו היא לא יותר מאשליה שברירית, שנעלמת ברגע שהמודל מתבקש להתמודד עם בעיה שחורגת מהסוגיות שעליהן אומן. כלומר הוא מתקשה לבצע הכללה של מצבים פרטניים. "הכישלון לבצע הכללה אומר לנו למה כל עשרות הניסיונות לבנות מודלים מתקדמים הרבה יותר מחמיצים את המטרה", כתב מרקוס. "זו לא תאונה. הכישלון הזה מובנה".

אם זה המצב, מדובר בנורת אזהרה נוספת לתחום שגם כך כבר סובל מבעיות מבניות כמו עלויות אדירות של תשתיות, תפעול וכוח אדם והיעדר מודל עסקי משמעותי. כשמוסיפים לכך גם חוסר יכולת לרשום פריצת דרך משמעותית שתאפשר לחברה לבדל את עצמה מאחרות וגם דרישה להשקעה משמעותית הרבה יותר כדי לרשום התקדמות הדרגתית בלבד, נוצר מצב שבו לא ברור אם המערכת יכולה לקיים את עצמה, בוודאי לאור מספר המתחרות הגדול.
 
  • הוסף לסימניות
  • #14
איך אתם משתמשים ב–ChatGPT, כקביים או כמקפצה?

האם הבינה המלאכותית הופכת אותנו לעצלנים קוגניטיבית, או יכולה דווקא לשפר את הזיכרון, הריכוז והיצירתיות? שורת מחקרים עדכניים משרטטת את הגבול הדק בין כלי שמעצים חשיבה לכזה שמנוון אותה

הכתבה בוחנת את ההשפעות הקוגניטיביות של שימוש בבינה מלאכותית כמו ChatGPT - האם היא כלי שמחזק חשיבה או מקבע תלות. ניסוי בקרב סטודנטים שכתבו חיבור בעזרת GPT הראה כי הם הפגינו פחות פעילות מוחית וזכרו פחות תוכן לעומת מי שכתבו לבד, וההשפעה נמשכה חודשים. עם זאת, שימוש בכלי אחרי כתיבה עצמאית דווקא שיפר את הפעילות המוחית והתוצרים. מחקרים נוספים מצביעים על תופעות כמו "מיקור חוץ קוגניטיבי" – ויתור הדרגתי של המוח על משימות חשיבה לטובת מכונה, מה שעלול לפגוע ביכולות זיכרון, חשיבה ביקורתית ופתרון בעיות. השפעות אלה ניכרות גם בלמידה, בעבודה ובהחלטות רגשיות ומוסריות, כאשר ביטחון עצמי נמוך מגביר הסתמכות על ה-AI.

דה מרקר

בפברואר 2024, נטליה קוסמינה ממעבדת המדיה של המכון הטכנולוגי של מסצ'וסטס (MIT) ערכה ניסוי שנשמע כמו משהו שיכול היה להשתלב בקלות במצגת משקיעים של סטארטאפ מבטיח. שלוש קבוצות של סטודנטים התבקשו לכתוב חיבור קצר על נושא מופשט, בדומה לחיבור שנדרש בבחינות קבלה לאוניברסיטאות בארצות הברית (SAT). למשל, "האם צריך לחשוב לפני שמדברים?". קבוצה אחת כתבה ללא כלי עזר. השנייה קיבלה גישה למנוע חיפוש, והשלישית קיבלה גישה ל־ChatGPT.

כמו בכל דמו של מוצר טכנולוגי חדש, התוצאות הראשוניות נראו מרשימות. קבוצת ה־GPT סיימה את החיבור בפחות ממחצית הזמן, והטקסטים שהפיקה היו מהוקצעים, ממוקדים ומשכנעים. לכאורה, חלומו של כל מעסיק שרוצה להגביר פרודוקטיביות. אבל אז הגיע השלב שבו החוקרת וצוותה הביטו לנסיינים לתוך הראש.

את הניסוי ביצעו הסטודנטים כשעל ראשם כובעי EEG – מכשירים שקוראים את הפעילות החשמלית במוח ומאפשרים לראות אילו אזורים פועלים ואיך הם מתקשרים זה עם זה בזמן הכתיבה. התברר כי חברי הקבוצה שכתבה "מהראש", ללא עזרה דיגיטלית, הפעילו רשת עצבית רחבה, כולל חיבורים בין אזורים שאחראים על עיבוד חזותי והחלטות מורכבות. בנוסף, נמצא כי בקרב חברי קבוצה זו נמדדו הרמות הגבוהות ביותר של גלי אלפא ובטא – תדרים שמעידים על ריכוז, חשיבה מעמיקה ועיבוד מידע. לעומתם, חברי הקבוצה שהותר לה להשתמש במנוע החיפוש הסתמכו בעיקר על אזורי זיכרון וראייה, ואילו בקבוצה שחבריה השתמשו ב־ChatGPT נרשמה הפעילות הנמוכה ביותר.

אחר כך ביקשה קוסמינה מהסטודנטים לשחזר את הרעיונות המרכזיים מהטקסט שהגישו. 83% ממשתמשי ChatGPT הצליחו להיזכר רק בנקודות כלליות, לעתים שטחיות וללא פירוט או מבנה טיעון ברור. היא המשיכה ועקבה אחרי אותם סטודנטים במשך ארבעה חודשים, וגילתה שההרגלים שלהם לא נעלמו עם תום הניסוי – הם רק העמיקו. בקבוצת ChatGPT, איכות הטקסטים נשחקה והלכה. המעורבות ירדה, החיבור הרגשי למה שנכתב כמעט נעלם. אפילו כשהתבקשו לחזור לכתיבה "נקייה", ללא עזרים, פעילות המוח לא חזרה לרמות של הקבוצה שכתבה כך מלכתחילה.

הממצא הזה התחיל להתיישב עם תופעה מוכרת: אפקט גוגל. אותו מנגנון שבו המוח מוותר על זכירה של מידע שהוא יודע שנמצא במרחק הקלדה. אבל כאן, ההשלכה רחבה יותר, מאחר שזה לא רק הזיכרון שנפגע – אלא עצם התהליך. המוח, כך נראה, פשוט מפסיק לנסות.

קוסמינה מבקשת לא להתפתות לאמירות דרמטיות. היא מדגישה שהמוח לא "נרדם", ושהממצאים שלה לא מוכיחים עצלות מנטלית. ובכל זאת, מול הפיתוי של יעילות מיידית, הניסויים שלה מציעים תזכורת: כתיבה היא לא רק מה שמתקבל בסוף. היא הדרך שבה אנחנו מעבדים, מארגנים ומבינים מידע. כשמפסיקים לעבור את הדרך, אז גם התוצאה, חלקה ככל שתהיה, נשארת ריקה.

הילדים לא יחכו לביקורת עמיתים

פרופ' אמיר עמדי, העומד בראש מכון ברוך איבצ'ר לחקר מוח, קוגניציה וטכנולוגיה באוניברסיטת רייכמן, לא התרשם מהכותרות שהקיפו את המחקר של קוסמינה. בעיניו, הן פספסו את החלק המעניין באמת. "כולם התרכזו בירידה בפעילות המוחית וביכולות הכתיבה, אבל התעלמו מתוצאה כמעט הפוכה שהמחקר הציג", הוא אומר. "בניסוי נוסף שהצוות ביצע ופורסם באותה טיוטת מאמר – המשתתפים כתבו בעצמם ורק אחר כך שיפרו את הטקסטים בעזרת הצ'אט. דווקא אז נרשמה תגובה הפוכה גם ברמת הפעילות והקישוריות המוחית וגם בתוצרי הכתיבה".

עמדי רואה בכך שיעור חשוב: הבעיה היא לא עצם השימוש בבינה מלאכותית, אלא האופן שבו משתמשים בה ואיך משלבים אותה בפרקטיקות אחרות. כשמשתמשים בצ'אטבוט כדי להתחמק ממאמץ, זה מנוון. אבל כשהוא נכנס לתמונה רק אחרי שהכותב כבר חשב וניסח, הוא יכול לשמש כלי עזר שמעשיר את התוצאה, מפעיל עוד שכבות של עיבוד ועל הדרך גם משפר את פעילות המוח וחיזוקו.

זו גם הגישה שמניעה את רמפי (Remepy), הסטארטאפ שעמדי הוא אחד ממייסדיו (ונמנה עם נבחרת הסטארטאפים של מגזין TheMarker לשנת 2025). החברה פיתחה אפליקציית אימון קוגניטיבי־רגשי שנשענת על מחקרים מדעיים וקליניים מתוך ומחוץ למעבדתו של עמדי, ומשתמשת ב־AI כדי להתאים את רמת הקושי של המשימות ליכולות של כל משתמש בזמן אמת – במטרה לאתגר בעדינות את המוח ולעודד חיזוק הדרגתי של קישוריות עצבית.

במחקר אקראי־מבוקר שפורסם ביוני 2025 ב־npj Digital Medicine, נבדקו 103 משתתפים בני 50־65 שהתלוננו על ירידה קוגניטיבית סובייקטיבית וסבלו מרמות חרדה גבוהות. שלושה שבועות של שימוש יומי באפליקציה הובילו לשיפור במדדים של דיכאון, חרדה וחוסן נפשי – שינויים שנשמרו גם לאחר סיום ההתערבות. במקביל נרשמה ירידה ברמות של חלבונים שקשורים לדלקת מתמשכת בגוף, ובדיקת fMRI – סריקה מוחית שמודדת פעילות על סמך שינויים בזרימת הדם – חשפה שינויים בקישוריות המוחית, במיוחד באזור האינסולה, מבנה מוחי עמוק שמתווך בין מערכת החיסון למצב הרגשי והקוגניטיבי.

"AI אינה תחליף למוח, אלא משהו שאמור לעזור לו לעבוד יותר טוב", אומר עמדי. "אם משתמשים בה נכון – זה יכול לשפר אינטליגנציה, לעזור בשיקום ולתרום לבריאות המוח. אבל זה דורש חינוך".

מבחינת עמדי, הסיפור של ChatGPT הוא בכלל על בני אדם וההרגלים שלהם שקשה לשבור. "אנשים הם חיה מוזרה", הוא אומר. "אנחנו מסוגלים לטפס על האוורסט, אבל מתקשים לקום לכבות את הטלוויזיה כי אנחנו רגילים לחפש את השלט". לדבריו, "אם היתה תרופה שמפחיתה ב־50% את הסיכון למחלות ניווניות, רוב האנשים היו מוכנים לשלם עליה הון. בפועל, התרופה הזו קיימת – קוראים לה פעילות גופנית, לפעמים אפילו הליכה יומית של רבע שעה. אבל הרוב פשוט מוותרים".

52-mob.png


עצלות, הוא מסביר, היא ברירת מחדל. ולכן לא מספיק להתריע על הסכנות, אלא צריך להנדס את המערכת אחרת. "אם לא נבנה את ה־AI כך שתאתגר אותנו, אנחנו נאבד עניין ואז נבזבז את הפוטנציאל שלה. יש דרכים שבהן הטכנולוגיה יכולה לעזור לנו לשנות הרגלים – למשל שימוש בשיטות תגמול ומשחק, שיגרמו לאדם לא רק להיעזר בבינה מלאכותית, אלא לחשוב באמצעותה ברמה עמוקה יותר. כך אפשר להגיע לרמות גבוהות יותר של קישוריות ופעילות מוחית, דווקא כשמשתמשים בטכנולוגיה באופן קבוע".

אבל יש גבולות שגם עמדי לא מוכן למתוח. כשמדובר בילדים, הסיכונים בעיניו אמיתיים. "המוח מתפתח בשלבים קריטיים עד גיל 18, ובוודאי עד גיל 12", הוא אומר. "כמו שאלכוהול פוגע אחרת במוח צעיר, כך גם בינה מלאכותית. אם לא נלמד את הילדים להשתמש בבינה נכון, נשלם את המחיר בעוד שנים". זו בדיוק הסיבה, לדבריו, לכך שקוסמינה פרסמה את המחקר שלה כטיוטה לפני ביקורת עמיתים (Preprint). "היא הסבירה שהיא לא עושה את זה בדרך כלל", הוא אומר. "אבל הפעם הרגישה שזה לא יכול לחכות וצריך להעיר את הציבור כמה שיותר מוקדם. היא פחדה שאם תמתין – הכלים האלה כבר ייכנסו לגני הילדים".

אשליית הטייס האוטומטי

אם דרושה עוד הוכחה להשפעה של בינה מלאכותית כבר בגיל צעיר, אפשר למצוא אותה במחקר שנערך בבתי ספר תיכוניים בטורקיה – גם הוא עדיין בגרסת טיוטה לפני ביקורת עמיתים. בסוף 2023, חוקרים מאוניברסיטת פנסילבניה ביקשו לבדוק מה קורה כשנותנים לתלמידים לתרגל מתמטיקה עם או בלי עזרה של ChatGPT. זה היה ניסוי שכלל יותר מ־1,000 תלמידי תיכון, שחולקו באקראי לשלוש קבוצות. כולם למדו אותו חומר בכיתה, וההבדל התחיל בשלב התרגול.

הקבוצה הראשונה תרגלה לבד, השנייה השתמשה בגרסה רגילה של ChatGPT ואילו השלישית קיבלה גרסה דמויית ChatGPT שעברה שינוי – במקום בוט שנותן תשובות, בוט שמתפקד כמו מורה פרטי ומציע רמזים שעוזרים להגיע לפתרון הנכון. בשלב התרגול זה עבד – המשתמשים בצ'אטבוט פתרו 48% יותר תרגילים בהצלחה. מי שקיבלו את המורה הפרטי בגרסת ה־AI, שיפרו אפילו יותר. הסיבה היא שהצ'אט בגרסתו הרגילה נתן תשובה שגויה בכמעט מחצית מהמקרים – והתלמידים פשוט העתיקו ממנו את התשובות, כולל השגיאות. הצ'אט המתוכנת קיבל את התשובות הנכונות מראש ולכן הרמזים שלו היו מדויקים.

אבל כשהגיע שלב המבחן התמונה התהפכה. תלמידים שהשתמשו ב־ChatGPT בגרסתו הרגילה קיבלו ציונים נמוכים ב־17% לעומת אלה שלמדו לבד, ואלה שלמדו עם מורה AI לא הראו שיפור מול התלמידים שתרגלו בדרך הישנה. מי שתרגל בלי עזרים הצליח באותה מידה, רק בלי הבאז. הממצא המדאיג הוא שרוב התלמידים כלל לא הרגישו שקרה משהו. חלקם אפילו חשבו שהלך להם מצוין במבחן, כשבפועל הם נכשלו יותר מהאחרים. החוקרים קוראים לזה "אשליית הטייס האוטומטי": ככל שמישהו אחר שולט בהגאים, כך אתה שוכח איך לטוס לבד.

המנגנון שמאחורי התופעות האלו כבר זכה לשם "מיקור חוץ קוגניטיבי" (Cognitive Offloading). זהו תהליך שבו המוח מוותר על משימות חשיבה לטובת כלי חיצוני והוא לא מתרחש בבת אחת אלא לאט. פעולה אחת ואז עוד אחת, וכמו בכל שריר שלא מופעל, גם כאן מתחילה נסיגה. במאמר שפורסם בסוף 2023 בכתב העת Brain-X, הסבירו לונג באי, חוקר מאוניברסיטת שנחאי בסין, ועמיתיו, שכתיבה עצמאית היא לא רק תרגול אקדמי. היא דרך להפעיל רשתות של קשב, זיכרון, תכנון ודמיון. כשמישהו אחר עושה את העבודה המוח מתרגל לוותר. בטווח הארוך, זה פוגע ביכולת לפרק בעיה מורכבת, לארגן את המחשבה ולבנות טיעון. התוצאה, לפי הכותבים, היא לא רק אובדן של מיומנות, אלא גם יצירת הרגל: תלות שקטה בכלי חכם גם במקרים שאין בו צורך ואנו יודעים לפתור את הבעיה בעצמנו, מה שמכונה "תלות קוגנטיבית".

53-mob.png


ההשפעה לא נעצרת שם. לפי אותו מאמר, השימוש ב־AI משנה גם את האינטראקציה החברתית. במקום להתווכח, להסביר רעיונות או ללמוד דרך שיתוף פעולה, תלמידים מתרגלים לעבוד מול ממשק. הם פחות מתרגלים הבנת סאבטקסט ופחות מתאמנים על אמפתיה.

אם להודות באמת, לא צריך ניסויים מורכבים כדי לבטא את מה שאנחנו מרגישים בעצמנו, ככל שאנחנו משתמשים יותר ויותר בבינה מלאכותית. בכנס CHI 2025 שנערך במאי האחרון ביוקוהמה, יפן, הציגו חוקרים ממיקרוסופט ואוניברסיטת קרנגי מלון מחקר רוחבי שכלל 319 עובדי ידע – מהייטק, עיצוב, כתיבה ושיווק – שמשתמשים באופן קבוע בכלים כמו ChatGPT או Copilot. המשתתפים התבקשו לתאר מתי ואיך הם משלבים את הבינה המלאכותית בעבודה וסיפקו לחוקרים 936 דוגמאות כאלה. המגמה שחזרה על עצמה היתה שככל שהאמון ב־AI היה גבוה יותר, כך ירדו רמות המעורבות הקוגניטיבית והחשיבה הביקורתית. מי שבטחו ביכולות המקצועיות שלהם ערכו, בדקו ושיפרו את התוצאות של הבינה המלאכותית. מי שפחות בטחו בעצמם, לקחו את הפלט כמו שהוא, בלי לשאול יותר מדי שאלות.

החוקרים תיארו שלושה שינויים בצורת החשיבה כתוצאה משימוש ב־AI, המתרחשים במקביל: במקום לחפש מידע, המשתמשים בדקו אם הפלט "נשמע נכון"; במקום לפתור בעיות, הם התמקדו בשילוב של פתרון שהציע ה־AI; ובמקום לפעול, הם פיקחו. השינוי הזה אולי נראה טבעי, אבל הוא גובה מחיר. ככל שהמשימה נראית פשוטה יותר, פוחתת המוטיבציה לבדוק אותה. וככל שהביטחון ביכולת העצמית יורד – כך גם פוחת הסיכוי שנערער על הפלט שמספקת המכונה. המסקנה של החוקרים לא עסקה בטכנולוגיה, אלא בתיווך. אם אנחנו רוצים לשמר ואולי לחזק את היכולות האנושיות, נצטרך לעצב כלים שמזמינים את המשתמש לחשוב. לא לספק תשובות סופיות, אלא לעורר ספק.

החשיבה האינטואיטיבית הזאת, שלפיה אנחנו צריכים לעצב את המסגרת ולא רק את הכלי, עומדת גם בלב מאמר דעה שכתבו בחודש שעבר פרופ' ויטומיר קובאנוביץ' ורבקה מרון באתר האוסטרלי The Conversation. הם חזרו רגע לשנות ה־70, כשהמחשבון הפך לנחלת הכלל. מערכת החינוך של אז לא ניסתה להילחם במחשבון – היא פשוט שינתה את הכללים. הבחינות נהפכו קשות יותר, וההתמקדות עברה מביצוע חישובים טכניים להבנה עמוקה של בעיות. המחשבון לא הוריד את הרף אלא העלה אותו, והתוצאה היתה סוג של אבולוציה פדגוגית.

עם ChatGPT, הם טוענים, זה עוד לא קרה. כלי רב־עוצמה נכנס לכיתה, אבל הציפיות מהתלמידים נשארו כשהיו. המורים ממשיכים לדרוש את אותן עבודות שדרשו לפני חמש שנים. במצב כזה, אין פלא שהתלמידים מעבירים את החשיבה למכונה, וזה בדיוק מה שקרה בניסוי של MIT, הם מזכירים. הסטודנטים שקיבלו גישה ל־ChatGPT התאימו את עצמם לרף המוכר. זה שקול למצב שבו היינו מבקשים משתי קבוצות לפתור תרגיל בחשבון: אחת תעשה זאת בראש, השנייה בעזרת מחשבון. למי שלא צריך להתאמץ, אין סיבה להפעיל את המוח.

לבסוף, ההשפעה של ChatGPT לא נעצרת בכתיבה או בלמידה. היא מתחילה לחלחל גם להחלטות שאנחנו מקבלים ולמה שמניע אותנו כשאנחנו מקבלים אותן. ב־2024, פרסמו שינוסוקה איקדה מאוניברסיטת קנאזווה ביפן, ועמיתיו, מחקר בכתב העת Scientific Reports, שבחן את ההשפעה של הצ'אט על אופן קבלת החלטות בתחומים טעונים: מוסר, מגדר וכסף. הם גייסו יותר מ־1,900 משתתפים מיפן, וחילקו אותם לשלוש קבוצות. אחת קיבלה ייעוץ מהצ'אטבוט, השנייה ממומחה אנושי, והשלישית לא קיבלה ייעוץ כלל.

באופן טבעי, המשתתפים נטו לבחור במנתח בעל הניסיון הרב ביותר, בלי קשר למגדר. אבל כשהצ'אטבוט המליץ לבחור בגבר פחות מנוסה, שיעור הבחירה בו זינק פי שלושה. כשאותה המלצה ניתנה לגבי אישה – לא קרה כמעט דבר. המסקנה של החוקרים היתה כי ייעוץ, מכל סוג, מחזק סטריאוטיפים בקלות רבה יותר משהוא מאתגר אותם, במיוחד כשההחלטה טעונה רגשית.

בדילמות מוסריות מובהקות, כמו דילמת הטרולי – תרחיש שבו רכבת דוהרת על מסילה לעבר חמישה בני אדם, והדרך היחידה להצילם היא להסיט את המסילה כך שהיא תפגע באדם אחר אחד – העצות מהמומחה או ה־AI לא שינו הרבה. רוב המשתתפים נשארו בעמדתם המקורית. מה שכן הפתיע היה רמת האמון. המשתתפים קיבלו את עצות GPT כמעט באותו שיעור כמו את עצות המומחה. גם כשההמלצות היו אקראיות, סותרות ולא עקביות.

הגורם שקבע מי יאמץ את ההמלצה לא היה מהימנות המקור, אלא הביטחון העצמי של האדם שמקבל אותה. מי שהרגיש בטוח בעצמו – חשב. מי שהיה פחות בטוח בעצמו, העביר את ההחלטה לגורם החיצוני. וכמו בממצאים האחרים, גם כאן נרשם אותו מעגל חוזר: ככל שאתה פחות מאמין בעצמך, כך תסמוך יותר על המכונה. וככל שתסמוך עליה יותר, כך תזדקק לה שוב בפעם הבאה.
 
  • הוסף לסימניות
  • #15
צ'אט GPT נראה כמו קסם שלא דורש משאבים — אך הוא צורך חשמל של מדינה שלמה

בשונה מקופסת גבינה, מוצר שאנו רואים מול העיניים וקל לנו להבין את התשומות שנדרשו עד שהגיעה אלינו — "הקסם" של תשובת AI על המסך נראה כאילו הושג בלי מאמץ ובלי השקעה • זו כמובן שטות • כדי שבוט AI יוכל לענות על כל שאלה שלנו, נדרשות תשומות אדירות

חושבים שבינה מלאכותית היא קסם זול? תחשבו שוב. צ'אט GPT לבדו צורך בחודש אחד אנרגיה השווה לטעינת 332 אלף מכוניות חשמליות. צריכת החשמל השנתית שלו גבוהה מזו של מדינת סלובניה כולה. מעבר לצריכת האנרגיה העצומה, נדרשות השקעות ענק בתשתיות מחשוב שמתיישנות במהירות ודורשות החלפה תכופה. בעוד שקל לנו להבין את העלויות בייצור גבינה - חומרי גלם, עובדים, מכונות - התשומות האדירות הנדרשות להפעלת AI נסתרות מהעין, ורבים מעריכים אותן בחסר. האם המודל העסקי באמת בר-קיימא?

דורון צור, דה מרקר

כדי להבין לעומק תופעות כלכליות ועסקיות, צריך לפעמים להשתמש בדוגמות פשוטות. לא פעם, דווקא הפשטות של הדוגמה עוזרת לשפוך אור על הנמשל המסובך יותר.

אחת התופעות שבהן אני נתקל באחרונה היא חוסר המודעות של רבים לגבי ההיקף האדיר של התשומות הנדרשות כדי לספק לנו תשובות לשאילתות AI ("פרומפט"), שאותן אנחנו מבצעים כלאחר יד. כולם מודעים ומדברים על הפוטנציאל האדיר בצד ההכנסות, ועל הפוטנציאל העצום של החיסכון בעלויות — אך איכשהו דנים הרבה פחות בכמות המשאבים העצומה שנדרשת כדי לספק את השירות הזה.

זה מוזר, כי הערך הכלכלי שייווצר משימוש ב–AI אינו נמדד רק בהכנסות והחיסכון בעלויות שהוא יביא. כמו בכל יצירת ערך כלכלית, היא אינה נמדדת ברוטו, בדמות ההכנסות והחיסכון שנוצר — אלא נטו. התועלת שנוצרה, פחות התשומות שנדרשו להשגתה. הפער הזה בין הברוטו לנטו יכול להיות אדיר. לפעמים, אפילו שלילי. ייתכן שהתועלת שנוצרה קטנה מהתשומות שנדרשו — אך את זה לא ניתן לדעת מראש, רק בדיעבד.

כאשר אנחנו קונים מוצר רגיל, אנו מודעים באופן אינטואיטיבי לתשומות שנדרשו כדי שיגיע אלינו. למשל, קופסת גבינה שליקטנו מהמדף בסופרמרקט. ברור לגמרי כי עד שהיא נחתה בסל שלנו, הושקעו בה תשומות רבות. החל מחומרי הגלם כמו חלב ופלסטיק לאריזה, דרך שכר העובדים במפעל הייצור, ועד משאית הקירור שהביאה אותה למרכול, שכר העובדים בסופר ועלות מדף הקירור שבו היא הוצגה לנו, וכך הלאה.

זה כמובן רק חלק קטן, על קצה המזלג, מכלל התשומות שנדרשו לטובת המוצר הסופי. לאורך כל שרשרת הערך בייצורו ושיווקו — נדרשו מאות סוגי תשומות. חלק מהותיות יותר, חלק פחות, אך כל אחת מהן נדרשה כדי לספק לנו את המוצר. ניתן לחלק את התשומות האלה לארבע קבוצות עיקריות.

חומרי גלם: החל מהמספוא לפרות שייצרו את החלב, וכלה בנייר הכסף שאטם את הקופסה.

שכר עבודה: החל משכר הרפתן, ועד שכר הסדרן שסידר את הקופסה במקרר במרכול.

אנרגיה: זו שנדרשה להפעלת מכונות החליבה והייצור, וכן זו ששימשה לחימום החלב לצורך פיסטור — ואז לקירור שלו ושל המוצר הסופי. החל מהמפעל, דרך השינוע ועד התצוגה לצרכן.

הון פיזי: ההשקעות בכל נכסי ייצור ושינוע שנדרשו — ממבנה הרפת והמפעל, דרך מכונות החליבה והייצור ועד משאית הקירור והמקרר בסופר. בכל אלה נדרשה השקעת הון משמעותית, שזמנה קצוב. לאורך זמן נדרש להחליף את ההון הפיזי, לשדרג אותו ולתחזק אותו תקופתית.

כל מי שיבצע ניתוח כלכלי והערכת שווי לעסק בתחום ייצור הגבינות, יהיה חייב כמובן להתייחס לתחזית ההכנסות. מהו גודל שוק הגבינות, כמה מוצרים העסק ימכור ובאיזה מחיר. זוהי ההתחלה של כל ניתוח. מה יהיו ההכנסות. מיד לאחר מכן, השאלות הבאות יהיו בצד התשומות. כמה יעלו חומרי הגלם, כמה שכר עבודה יידרש, כמה אנרגיה תידרש וכמה השקעה הונית נדרשת.

אחרי שעושים את כל התחשיב המסובך הזה — שכרוך כמובן באי־ודאות גדולה, ובסיכוי לא קטן לפספס בתחזיות — ניתן לשאול את עצמנו כמה שווה לשלם על העסק הזה. ברור שהסיכוי לטעות הוא לא קטן. זהו טבעו של העולם הכלכלי.

לעתים נגלה שהתחזיות התממשו, ואולי המציאות אף עלתה עליהן. במקרה כזה יתברר שעשינו השקעה טובה. אבל לעתים הן לא יתממשו, ואז יתברר שההשקעה הייתה לא מוצלחת, ואולי אף גרועה מאוד. גם זה קורה.

סקאלה שונה לחלוטין

ומכאן ל–AI. בקנייה של קופסת הגבינה, ברור לנו באופן אינטואיטיבי שנדרשו תשומות גדולות כדי להביא אותה אלינו. לעומת זאת, כשאנו שואלים את צ'אט GPT, ג'מיני או מתחריהם משהו, זה נראה כמו קסם. תוך כמה שניות הצ'אטבוט עונה לנו, או מציג לנו פתרון על המסך. ברוב המקרים זו תשובה סבירה והגיונית, שחסכה לנו זמן ומאמץ. אבל מדי פעם הוא עונה שטויות, שמהן צריך להיזהר.

העניין הוא שבניגוד לקופסת הגבינה, שבה אנו רואים מול העיניים מוצר, וקל לנו להבין את התשומות שנדרשו, "הקסם" של התשובה על המסך נראה כאילו הושג בלי מאמץ, ובלי השקעה.

זו כמובן שטות מוחלטת. כדי שאותו בוט AI יוכל לענות לנו על כל שאלה שלנו, בין אם היא חכמה ובין אם שטותית, נדרשו תשומות אדירות. אנחנו פשוט לא רואים אותן — ולכן לא מודעים אליהן.

מהן אותן תשומות אדירות, ולמה הן נדרשות? נתחיל שוב מהסבר פשוט, שידגים מדוע AI הוא צרכן תשומות כה גדול.

נניח שיש לנו תחביב לגדל ורדים, וגילינו יום אחד כנימות על אחד השיחים. פעם, לפני עידן האינטרנט, היינו הולכים למשתלה, לשאול את הגנן מה לעשות. אולי היינו מוצאים שם חוברת הדרכה של חברה לייצור מוצרי הגנת הצומח, ולומדים ממנה מה לעשות.

אולי היינו הולכים לספרייה העירונית, ומבקשים לשאול ספר הדרכה על טיפול בצמחי נוי, והספרנית הייתה מפנה אותנו למעבר 3, מדף B — שבו יש ספרי הדרכה. את עבודת הקריאה והלימוד היינו עושים לבד. הספרנית נתנה לנו רק מראה מקום. הראתה לנו איפה יש מידע — ומשם המשכנו לבד, באופן אנושי.

בסוף שנות ה–90 הגיע האינטרנט, ומנועי חיפוש כמו גוגל החליפו בהדרגה את הספרנית. במקום ללכת לספרייה, שאלנו את גוגל — שנתן לנו גם הוא רשימה של מראי מקום. החל מספרי הדרכה ועד אתרים מקצועיים של חברות הדברה. במקום להגיד לנו תלכו למעבר 3, מדף B, הוא סיפק לנו קישורים לאתרים — ומשם המשכנו לבד.

באחרונה הגיע ה–AI. הפער בין המידע שזו נותנת לנו, לזה שנתנה לנו הספרנית של פעם, או שנותן לנו גוגל — הוא עצום. למעשה, ה–AI "רצה" עבורנו לאותו מעבר 3, מדף B, "קוראת" במהירות שיא את כל ספרי ההדרכה בנושא, מסכמת עבורנו את החומר שהיא קראה — ונותנת לנו תשובה מתומצתת על איך להיפטר מהכנימות.

כאמור, ברוב המקרים זו תשובה טובה. מדי פעם — מטופשת. בכל מקרה, למי שיושב מול המסך — נראה כאילו התהליך נעשה ללא מאמץ.

אבל זו טעות גדולה. אשליה. הפער במאמץ, קרי התשומות שנדרשו בין הספרנית של פעם, בין אם זו האנושית ובין אם מנוע חיפוש, שרק נתנו לנו מראה מקום, לבין ה–AI — שרצה, קוראת עבורנו את המידע ומתמצתת אותו — הוא אדיר. מדובר בסקאלה שונה לחלוטין של תשומות שנדרשות. עולם אחר לגמרי.

שלא כמו קופסת הגבינה, שהיא מוצר פיזי, תשומות ה–AI לא כוללות חומרי גלם — אך הן כוללות את כל שלושת מרכיבי התשומות האחרים. המרכיב הקטן יותר בתשומות הוא שכר העבודה של מי שפיתח ומתחזק עבורנו את המודלים. לשכר נוסף מרכיב משמעותי מאוד של אנרגיה, שנדרשת לשם הרצת כל אותם מאות אלפי שרתים שרצים ברקע, "קוראים" כמויות עצומות של מידע ומסכמים אותו עבורנו במהירות שיא — ולא פחות מכך, לקירור שלהם.

male-energia-mob.png


המרכיב המשמעותי ביותר הוא ההשקעה בהון הפיזי — כל אותם שרתים העוסקים במלאכה. אלה, בניגוד למכונות חליבה או מכונות ייצור גבינה, מתיישנים מהר בהרבה מבחינה טכנולוגית, ונדרשים להחלפה ושדרוג בתדירות גבוהה. בעוד בייצור גבינה, מרכיב עלות הציוד קטן ביחס לעלות חומרי הגלם או השכר — באספקת שירותי AI היא חלק הארי.

לפי חישוב שהציג "וושינגטון פוסט", צ'אט GPT צורך כ–1.2 טרה־ואט־שעה בחודש אחד. זו כמות אנרגיה זהה לזו שדרושה כדי לטעון 332 אלף מכוניות חשמליות, או 240 מיליון סמארטפונים. כמות האנרגיה שצורך הצ'אט בשנה, 14.4 טרה־ואט־שעה, גדולה מסך החשמל שנצרך בסלובניה ב–2023, כ–14 טרה־ואט־שעה.

מתחת לרדאר

אלא מה? בשל האופן שבו עלות זו מוצגת בתוצאות החברות — היא נרשמת כהשקעה. מלבד העובדה ששיעורי הפחת עליה נראים נמוכים מדי, הם גם יגיעו לידי ביטוי בעיקר בעתיד ולא כהוצאה שוטפת.

לכן, היא נמצאת מתחת לרדאר של רבים מהמשקיעים ושל התקשורת הכלכלית. נדמה שהם לא מביאים בחשבון את העלות האמיתית ואת היקף התשומות שיידרש לאורך זמן כדי לספק תשובות לעוד ועוד שאילתות שונות ומשונות של כולנו. אני רואה לא מעט ניתוחים שפשוט מעריכים בחסר את העלות הזאת.

והדרך מתת־הערכה של התשומות הנדרשות לאס
פקת שירות, להערכת יתר של הערך הכלכלי שייווצר ממנו — קצרה מאוד.
 
  • הוסף לסימניות
  • #16
מייסד של סטארטאפ ביקש, ומנכ"ל גוגל הוסיף לו פיצ'ר חדש ביומן גוגל

במקום לחכות או להתחנן בפורומים של גוגל, מנכ"ל סטרייפ פשוט תייג את סונדאר פיצ'אי, וקיבל את הפיצ'ר שהוא רצה ביומן גוגל

גיקטיים

פניתם פעם לחברה כלשהי עם הצעה לשיפור או לפיצ'ר חדש? סביר להניח שהתעלמו מכם לחלוטין או שלחו אתכם לפורום שבו גם אם כל העולם יעשו לכם upvote, אף אחד לא יתייחס ברצינות להצעה שלכם. אבל זה בגלל שאתם לא מנכ"ל של סטארטאפ שמתייג את מנכ"ל גוגל.

למה משהו כל כך בסיסי צריך להיות כל כך מסובך

בחודש שעבר כתב ג'ון קוליסון, מייסד שותף בענקית התשלומים האמריקאית Stripe, בחשבון ה-X שלו: "אנחנו יכולים ש-CTRL-Click יעבוד ביומן גוגל וישכפל אירועים, כמו בהרבה אפליקציות לוחות שנה אחרות?". אתם יודעים, במקום להזיז את העכבר שלכם אל האירוע, להקליק עליו, ללחוץ על כפתור שלוש הנקודות, ואז על Duplicate כדי לשכפל אירוע, ואז אחרי שעשיתם את זה, אתם צריכים להשתמש בתפריט של יצירת אירוע בקלנדר, כדי לקבוע את התאריך והשעה… מייגע. למהאז קוליסון תהה למה לא פשוט לגרור את האירוע עם CTRL (או CMD) על גבי לוח השנה וככה לשכפל אותו? האמת? פשוט צודק. רק שקוליסון הוא לא מוגל כמוכם. הוא החליט לתייג את סונדאר פיצ'אי, מנכ"ל Alphabet ו-Google. אתם יודעים, כמו שכל אחד יכול לעשות ב-X. רק שבניגוד למקרים שבהם אתם תעשו את זה, כאן זה עבד.

"תודה על ההצעה!"

הלילה הגיב פיצ'אי מחשבונו הרשמי: "הפיצ'ר עלה לאוויר עכשיו לכל המשתמשים ביומן גוגל בגירסת הווב. תודה על ההצעה!". ואכן, מבדיקה מהירה שלנו נראה שמעתה, אתם יכולים ללחוץ על CTRL (או CMD ב-Mac), להקליק על אירוע, ולגרור אותו למועד אחר. עזבתם? שכפלתם. כמו שאנשי ה-UX/UI של גוגל היו צריכים לעשות לפני עשור, אבל ב-2025. אבל היי, גם חודש מרעיון לפרודקשן זה לא כזה רע.

וכך, פיצ'ר חדש ומתבקש נולד ביומן גוגל הודות לקשרים בין המלכים של סיליקון וואלי. בינתיים, נראה שמשתמשים אחרים כבר מנצלים את הפוסט של קוליסון כדי להציע לפיצ'אי עוד בקשות. גם מנכ"ל Box, שהוא לחלוטין לא איכר כמונו, כתב "ג'ון, אתה יכול לבקש ש-Waymo יעבדו גם באל קמינו דרך הפנינסולה? תודה!". הכוונה כאן היא לכביש שעובר דרך פאלו אלטו, מאונטיין וויו, סן מטאו ועוד – או במילים אחרות, אחת הדרכים המרכזיות של סיליקון וואלי. לכך השיב פיצ'אי באימוג'י צוחק, אבל החשבון הרשמי של Waymo כבר כתב לו "שלח לנו DM". בקיצור, אם אתם רוצים פיצ'ר חדש, פשוט תהפכו ליזם או יזמת של סטארטאפ גדול בסיליקון וואלי. אתם בדרך לשם, אנחנו מאמינים בכם.
 
נערך לאחרונה ע"י מנהל:
  • הוסף לסימניות
  • #17
"הוכרתי כהלום קרב לפני שנה וחצי": ארגון נכי צה"ל בנה אתר באמצעות AI — ומידע רגיש נחשף

האתר נבנה באמצעות מערכת של Base44, שמאפשרת גם לאנשים ללא ידע טכני לבנות אתרים ואפליקציות בקלות • רוב המשתמשים אולי מניחים שהקוד שיוצרות מערכות כאלה מאובטח, אבל זה לא תמיד נכון • ארגון נכי צה"ל: "התקלה הנקודתית טופלה תוך הסרת האתר"

ארגון נכי צה"ל רצה להקים אתר שבו אפשר יהיה להגיש מועמדויות לתוכנית מנהיגות של הארגון, והשתמש לשם כך במערכת של חברת Base44, שבונה אתרים קטנים ואפליקציות באמצעות בינה מלאכותית יוצרת. פרצת אבטחה באתר הביאה לחשיפת פרטים אישיים של יותר מ-500 מועמדים, סיפורים אישיים רגישים, וכן מידע ביטחוני.
הארגון לא לבד: לפי מחקר של מוב, יותר מ-40% מהאתרים שנוצרו באמצעות וייב קודינג חושפים לאינטרנט מידע של משתמשים באופן לא מודע.

דה מרקר

פרצת אבטחה באתר של ארגון נכי צה"ל, שנבנה באמצעות בינה מלאכותית יוצרת, הביאה לחשיפת פרטים אישיים של יותר מ-500 איש. אלה כוללים סיפורים אישיים רגישים, וכן מידע ביטחוני כמו פירוט על פעילויות צבאיות בעבר ובהווה.

בארגון נכי צה"ל רצו להקים אתר שבו אפשר יהיה להגיש מועמדויות ל"אטלס", תוכנית מנהיגות של הארגון. הם יצרו לשם כך אתר תוך שימוש במערכת של חברת Base44, שבונה אתרים קטנים ואפליקציות. באתר התבקשו המועמדים להזין לא רק פרטים מזהים כמו שם מלא, מספר תעודת זהות, כתובת ומספר טלפון, אלא גם סיפורים אישיים מפורטים: "הוכרתי כהלום לפני שנה וחצי לערך. כל השנים מאז השירות היו עם לא מעט סימנים, אך לא מדברים על דברים כאלה — ככה לימדו אותנו", נכתב באחד מהם.

עוד נחשף פירוט על מבצעים, כולל שמות ותאריכים. זהו אוצר בלום של מידע, שעלול לשמש ארגונים בינלאומיים וגם מדינות עוינות אם הוא ייפול לידיים הלא נכונות — מעבר לבעייתיות שבחשיפת מידע רפואי.

המידע היה גלוי לכל אדם עם ידע טכני מינימלי ודפדפן בלבד. כדי לקבל אותו היה צריך רק לבחון את קוד האתר או את התנועה לאתר; להזין את הנתיב המתאים, שנחשף בקוד; ולקבל את המידע בפורמט טקסטואלי. בינתיים ארגון נכי צה"ל טיפל בפרצה.

חשיפת המידע התאפשרה בגלל שגיאה נפוצה של מודל ייצור הטקסט (LLM, ובלשון העם — בינה מלאכותית) שהמערכת של Base44 מבוססת עליו. המערכת הזאת, כמו מערכות דומות אחרות, עלולה להתעלם מנוהגי אבטחת מידע בסיסיים, שמתכנת אנושי ומקצועי כנראה ייתן עליהם את הדעת. בחברת וויקס, שרכשה באחרונה את Base44, סירבו להתייחס לנושא.

חסרה עין אנושית

בניגוד למקרים רבים של חשיפת מידע שנגרמים בשל טעויות אנוש, המקרה הזה נגרם באשמת LLM שמייצר קוד. המערכת של Base44 נוחה וקלה להפעלה. כל מה שבונה האתר או האפליקציה צריך לעשות הוא להקליד טקסט שמתאר את מה שהוא רוצה ליצור — והמערכת יוצרת אותם. יצירת אתרים, ובכלל "תכנות" באופן הזה, הם שזכו לכינוי וייב קודינג (vibe coding).

אף שמתכנתים רבים משתמשים ב-LLM לכתיבת קוד, במקרה של השימוש במערכות כמו זו של Base44, אין בהכרח עין אנושית שבוחנת אותו. רוב המשתמשים אינם מבינים בטכנולוגיה, ואולי מניחים שהקוד מאובטח ועומד בדרישות. זה לא תמיד נכון.

בדיוק כפי שמאמר המיוצר על ידי LLM עשוי להיראות מרשים במבט ראשון, אך במבט שני להכיל טעויות וחזרתיות — כך גם קוד. גם אם הוא מניב את התוצאה המבוקשת, ייתכן שבפועל הוא לא מאובטח, הביצועים שלו אינם טובים, או שהוא אינו עומד בתקנים שונים. אם משתמשים במודל כדי לבנות אתר קטן שנבנה לעסק פשוט — זה לאו דווקא נורא. אבל ברגע שמתחילים לאסוף מידע של משתמשים, העניינים מתחילים להסתבך.

"זאת ברירת המחדל"

בחברת מוב (Mobb) ערכו מחקר על אלפי אתרים שנוצרו בווייב קודינג באמצעות פלטפורמות שונות. בחברה גילו לחרדתם שיותר מ-40% מהאתרים חושפים לאינטרנט מידע של משתמשים באופן לא מודע — לרבות מידע אישי, מידע פיננסי, סיסמאות ועוד. הבדיקה נעשתה באמצעות סריקה פשוטה ולא באמצעים מחוכמים יותר. האתר של תוכנית אטלס בארגון נכי צה"ל היה אחד מהאתרים שנחשפו כך. ובדיוק כפי שחוקרי מוב וגם אני הגענו למידע הזה, כל אחד בעולם היה יכול לעשות כן.

תומר כהן, סגן נשיא (VP Product) במוב, מספר כי גילוי הפרצה התחיל ממקרה אמיתי. "בנינו עמוד נחיתה עם טופס שאוסף מידע ממבקרים, וגילינו להפתעתנו שכל המידע חשוף לַכל באינטרנט", אומר כהן. "מתברר שזו הדרך שבה כל הפלטפורמות עובדות כברירת מחדל. אם תיכנס עכשיו לכל אחת מהן ותזין את ההוראה 'בנה אתר לעסק שלי שאוסף פרטי קשר של לקוחות', תקבל מיד אתר שאוסף PII (פרטים אישיים מזהים, רב"ז) וחושף את כל המידע לכולם. כדי לחסום את הגישה הציבורית למידע, תצטרך להיכנס בעצמך לעומק הגדרות האתר ולשנות אותן".

"באופן לא מפתיע, כשבדקנו מדגם של אתרים, גילינו שרובם חושפים מידע רגיש כלשהו. נראה שרוב בוני האתרים פשוט לא מודעים לבעיה. בתוך שעתיים בלבד של סריקה מצאנו מאות אלפי רשומות של מידע רגיש ממגוון אתרים בכל הפלטפורמות המובילות — פרטים אישיים כמו שמות, טלפונים, כתובות אי־מייל וכתובות פיזיות, מידע פיננסי, התכתבויות פרטיות, ואפילו סיסמאות. יש מיליוני אתרים עם פרצות כאלה, מכרה זהב של מידע רגיש. אין לי ספק שגורמים זדוניים ברחבי האינטרנט כבר אוספים אותו ממש ברגעים אלה".

"המשתמש עלול לקבל אתר חצי אפוי"

כלים לבנייה עצמית, שהולכים ומשתכללים — מוויקס ועד שופיפיי — נותנים גם לאנשים ללא ידע טכני אפשרויות נהדרות לנסות את כוחם בבנייה ובפיתוח. אבל הדוגמה הזאת, ודוגמאות רבות נוספות שנחשפו במחקר ועדיין לא קיבלו פומבי, מראות עד כמה מסוכן לטפל במידע אישי כשמשתמשים בפלטפורמות האלה.

"וייב קודינג מאפשר לכל אחד עם רעיון וחיבור לאינטרנט לבנות אתר שנראה משכנע, אבל זה בערך כמו לבנות חזית של בית בלי קירות תומכים או צנרת. אפשר לבקר בו לרגע, אבל לא מומלץ לגור שם לאורך זמן", אומר אלון אורינג, חוקר בתחום הבינה המלאכותית ומרצה באוניברסיטת רייכמן. "הטכנולוגיה הנוכחית מתמקדת בפני השטח ומאפשרת לנו להפוך רעיון בוסרי לממשק נוצץ כמעט ללא מאמץ, אבל היא מתעלמת מהיסודות: אבטחה, ביצועים, פרטיות, נגישות, וכל מה שהופך אתר מקליפה יפה למוצר שיכול לשרת משתמשים בעולם האמיתי.

"המשתמש הממוצע כלל לא יודע שהוא עלול לקבל אתר חצי אפוי. גם אם היה יודע 'לבקש' מ-Base44 שידאג לסוגיות האבטחה והפרטיות, אין לו כלים וידע לבדוק שזה אכן נעשה כראוי. למעשה, במצבה הנוכחי של הטכנולוגיה, המוצר שמקבלים מווייב קודינג מזכיר מצגת מפוארת יותר מאשר אתר מקצועי ושלם. בשורה התחתונה, כלי וייב קודינג הם דוגמה נהדרת למהפכה שהבינה המלאכותית הגנרטיבית (GenAI) עושה בתחומים רבים, אבל גם לסכנות של אימוץ מהיר מדי של טכנולוגיות חדשות שעוד לא הספיקו להבשיל".

כהן מחברת מוב בטוח שלמרות הסיכונים, לא צריך לפסול את הסיכויים. "אני מאמין שהעתיד של פיתוח בעזרת AI הוא ורוד, גם מבחינת אבטחת מידע", הוא אומר. "סוכני הבינה המלאכותית (agents) ישתפרו, ויידעו לבנות מוצרים איכותיים ובטוחים יותר כבר מהשלבים הראשונים. מצד שני, אי־אפשר לדעת כמה זמן ייקח עד שזה יקרה בפועל — ייתכן שחודשים, וייתכן ששנים. בינתיים, חברות שרוצות לנצל את היתרון התחרותי העצום של פיתוח בעזרת AI, אבל חוששות מהסיכונים או מוגבלות בגלל דרישות אבטחה — צריכות פתרונות מיידיים שיאפשרו להן לעבוד עם הכלים האלה בצורה בטוחה".

מארגון נכי צה"ל נמסר בתגובה: "המקרה מוכר ומטופל על ידי כלל הגורמים הרלוונטיים, לרבות אנשי מקצוע מוסמכים. מרגע קבלת הדיווח, התקלה הנקודתית טופלה תוך סגירה והסרת האתר (דף נחיתה). הארגון ממשיך לפעול בהתאם לפרוטוקול סדור, תוך יידוע כלל הרשויות הרלוונטיות והמועמדים לתוכנית, ומקיים תחקיר פנימי למניעת מקרים כאלה בעתיד". עוד נמסר מהארגון כי כבר עתה הוחלט על חידוד הנהלים מול ספקים חיצוניים, תוך איסור על בניית אתרים בעתיד באמצעות פלטפורמת Base44 או טכנולוגיות LLM דומות שבהן עלול להיאסף מידע אישי.
 
  • הוסף לסימניות
  • #18
תחרות ל-ChatGPT: גוגל משיקה בישראל את AI Mode

אחרי כחצי שנה של פעילות בארה"ב ובמספר מדינות מצומצם, הודיעה היום (ה') גוגל כי היא משיקה ב-180 מדינות, בהן ישראל, את AI Mode – ממשק החיפוש שלה, שמזכיר את ChatGPT.

גיקטיים
IMG_20250821_181118_158.jpg


כמו ChatGPT, רק בגוגל

גוגל הכריזה מוקדם יותר השנה על AI Mode, מצב חיפוש חדש שנועד להחליף את רשימת הלינקים הקלאסית של מנוע החיפוש, ומזכיר את AI Overviews על סטרואידים. מעכשיו, בנוסף לחיפוש הרגיל, תוכלו לבצע חיפוש גוגל ב-AI Mode, ומנוע החיפוש ישנה את פניו עם חלונית שמזכירה את ChatGPT. החלון יכלול תשובה מג'ונרטת על ידי Gemini, לצד לינקים רלוונטיים והפניות למשל למוצרים רלוונטיים לרכישה דרך Google Shopping.



הפיצ'ר נועד לאפשר למשתמשים תשובות רחבות יותר המבוססות על שימוש ביכולות ההיסק (reasoning) של המודלים שלה, לצד היכולות המולטי-מודאליות שלהם, כלומר יכולות מעבר לטקסט. לפי גוגל, AI Mode יכול להיות שימושי להשוואה בין מוצרים – כך שמנוע החיפוש שלה ייתן לכם גם תשובה טקסטואלית לצד לינקים שמהם הביא את המידע; או לתכנון טיולים; או לבצע חיפוש עמוק יותר. בדוגמה שגוגל מביאה למשל נראה חיפוש של מקום למספר אנשים נתון במסעדה במועד מסוים, כשהתשובה של גוגל היא פשוט בחירה בשעת ההזמנה הרצויה – במקום ערימת הלינקים המוכרת מהחיפוש הרגיל.

לאחר מכן אתם יכולים כמובן לשאול אותו שאלות נוספות, והוא יספק לכם מידע, כשהוא מודע לקונטקסט של כל השיחה. זאת כמובן בהשוואה למנוע החיפוש הרגיל של גוגל, שלא זוכר מה היה בחיפוש הקודם שלכם ומספק לכם מענה על שאלה אחת בלבד כל פעם.

גוגל אומרת כי בנוסף למידע מהאתרים, AI Mode יתחבר גם ל-Knowledge Graph שלה – שממנו הוא מושך מידע כללי שאתם רואים בתיבות בצד או בראש מנוע החיפוש. AI Mode משתמש גם בשיטה שאותה גוגל מכנה Query fan-out, שבמסגרתה הוא שולח שורה של שאילתות חיפוש בהתאם לשאלה המקורית שלכם כדי לייצר לכם מידע על תתי-נושאים רלוונטיים שיכול להתאים לחיפוש שלכם – שאותו הוא יציג לכם כחלק מהתשובה שתקבלו. השיטה הזו שהכניסה גוגל ל-AI Mode אמורה לתת למשתמשים גישה להרבה יותר מידע מאשר בחיפוש גוגל רגיל.

בגוגל אומרים שפיצ'ר ה-AI Mode יעבוד בשלב הראשון בישראל רק עם שאלות באנגלית, כשהתמיכה בעברית צפויה להגיע בהמשך. הפיצ'ר צפוי להגיע לכלל המשתמשים בישראל בשעות ובימים הקרובים.
 
  • הוסף לסימניות
  • #19
אנבידיה מודיעה: פריצת דרך שהושגה בישראל תאפשר לאחד דאטה-סנטרים מכל העולם

המרכז של ענקית השבבים ביקנעם פיתח טכנולוגיה שתאפשר למרכזים המרוחקים זה מזה פיזית לפעול כאילו היו במקום אחד; כך יגדל כוח המחשוב המירבי לעוסקים בתחום ה-AI; "לראשונה בהיסטוריה, אנחנו יכולים לייצר בינה בלי מגבלות פיזיות", אמר מייסד ומנכ"ל אנבידיה, ג'נסן הואנג

כלכליסט

פריצת דרך טכנולוגית של אנבידיה ישראל תאפשר לדאטה-סנטרים שנמצאים במיקומים פיזיים מרוחקים זה מזה לפעול כאילו היו במקום אחד, ליצור למעשה "מפעלי AI" בקנה מידה עצום ולהגדיל את כוח המחשוב המירבי שזמין לעוסקים בתחום – כך מודיעה הערב (ו') ענקית השבבים.

מרכז המו"פ של אנבידיה בישראל, שמבוסס על רכישת מלאנוקס, עוסק בעיקר בפיתוח פתרונות תקשורת לשבבי ה-AI של אנבידיה. שני מוצרי התקשורת העיקריים של המרכז מספקים חיבורים אולטרה-מהירים בין שבבים בתוך שרת ובין שרתים באותו דאטה-סנטר. יכולות אלו הן קריטיות לניצול מרבי של עןצמת העיבוד של שבבי ה-AI של אנבידיה. עתה, חושפת החברה פיתוח חדש שיאפשר לחבר בצורה דומה בין דאטה-סנטרים מרוחקים פיזית, וליצור מהם למעשה מעין מגה-מחשב-על אחד; פיתוח שיגדיל את עוצמת המחשוב המרבית של דאטה-סנטרים.

לדברי אנבידיה, כיום דאטה-סנטרים כבר מגיעים לקצה גבול יכולת המחשוב שמתקן אחד יכול לספק, לאור מגבלות פיזיות כמו אספקת חשמל וקיבולת שבבים. הטכנולוגיה החדשה, Spectrum-XGS, מאפשרת להתמודד עם אתגרים כמו זמני תגובה (Latency) ארוכים, שמגבילים את היכולת של דאטה-סנטרים נפרדים לפעול כיחידה אחת.

"מהפכת ה-AI התעשייתית כבר כאן, ומפעלי בינה מלאכותית בקנה מידה עצום הם תשתית הכרחית", אמר מייסד ומנכ"ל אנבידיה, ג'נסן הואנג. "באמצעות Spectrum-XGS, ניתן לחבר עתה דאטה-סנטרים שנמצאים בערים, במדינות וביבשות שונות על מנת לבנות מפעלי AI עצומים ב-Giga-Scale".

פריצת הדרך של אנבידיה ישראל מתבססת על אלגוריתמים שמאפשרים לרשת להתאים את עצמה באופן דינמי למרחק בין דאטה-סנטרים. "באמצעות בקרת עומסים שמותאמת למרחק באופן אוטומטי, ניהול זמני תגובה מדויק, וניטור מרוחק היא יכולה להאיץ את התקשורת בין שבבי AI ושרתים. כתוצאה, מספר דאטה-סנטרים יכולים לפעול כמפעל AI יחיד, לאחר שעברו אופטימיזציה לתקשורת ארוכת טווח", נמסר מהחברה בהודעה לעיתונות.

הפיתוח העדכני שב ומדגיש את החשיבות האסטרטגית של מרכז המו"פ המקומי בעבור אנבידיה. מפת הדרכים של אנבידיה לשלוש השנים הקרובות כוללת ארבעה קווי מוצרים מרכזיים – מעבדי AI, מעבדי מחשב (CPUs), ושני סוגים של שבבי תקשורת. מתוכם, שלושת האחרונים מפותחים בהובלת מרכז המו"פ ביקנעם. ייתכן שהטכנולוגיה החדשה תתווסף גם היא למפת הדרכים הזו, ותחזק עוד יותר את מעמד המרכז הישראלי בחברה.

לכן אין זה מפתיע שאנבידיה הכריזה בקיץ על מהלך רחב היקף להקמת קמפוס ענק בצפון הארץ בהשקעה של מיליארדי דולרים ובשטח של בין 70 ל-120 דונם. עם השלמת בניית המרכז החדש, בתוך חמש עד שש שנים, תחלוש החברה על קמפוס ההייטק הגדול בישראל ותהיה המעסיקה הפרטית הגדולה במדינה.
 
  • הוסף לסימניות
  • #20
מודל הוידאו של גוגל veo3 מגיע לכולם בחינם לסוף שבוע - עד יום שני בבוקר (מוגבל ל3 סרטונים ביום).

מצורף סרטון שנוצר בכלי הנ"ל.

 

קבצים מצורפים

  • יצירת_סרטונים_חינם_עם_ג_מיני.zip
    1.4 MB · צפיות: 41

פרוגבוט

תוכן שיווקי
פרסומת

פוסטים חדשים שאולי לא קראת....

עודכן אדר תשפ"ד
ראשית, גופי הכשרות
ברוב אשכולות בנושא 'השקעות בשוק ההון' בפרוג, משתרבב עניין הכשרות.
למען הסדר באשכול זה נעלה עדכונים בנושא כשרות.
אני אשתדל לסכם ולתמצת ככל האפשר.

יש 4 גופי כשרות
  • בד"ץ העדה החרדית - על פי פסקי הרב יעקב בלוי זצ"ל שהיה בקיא גדול בתחום שוק ההון והוא שהביא את פסקיו ועל פי פסקים אלו נוהגים עד היום בגוף כשרות זה. היום הכשרות בראשות הרב שלמה זאב קרליבך.
  • גלאט הון - על פי פסקי רבי ניסים קרליץ והרב שמואל ואזנר. שסמכו ידיהם על הרב יעקב לנדו שמכיר את שוק ההון לעומקו. הרב משה שטרנבוך ראב"ד העדה החרדית הוא מרבני 'גלאט הון'.
  • תשואה כהלכה – הרב שמואל דוד גרוס, רב חסידי גור אשדוד ועוד רבנים מוכרים וידועים בכל שכבות הציבור החרדי.
  • כלכלה על פי ההלכה- הרב אריה דביר, על פי פסקי הרב יוסף שלום אלישיב.

היום בכל החברות יש מסלולים כשרים, שמאושרים לפחות ע"י אחת מהכשרויות.
בין החברות שנמצאת ברשותם תעודת כשרות אפשר למצוא את:
אלטשולר שחם, אינפיניטי, הפניקס, הראל, כלל, מגדל, מור, מיטב דש, מנורה.

רשימות קרנות כשרות:
סיכום אירועים: איראן בלהבות - מהמחאות ועד לסף עימות עולמי

הרקע וההתפרצות (סוף דצמבר 2025):

המחאות החלו ב-28 בדצמבר 2025 בטהראן, על רקע משבר כלכלי חריף וצניחה חדה בערך הריאל. מה שהחל כזעקת סוחרים ואזרחים על יוקר המחיה, הפך במהירות לגל הפגנות חסר תקדים ב-187 ערים הקורא להפלת המשטר.


הטבח והחשכת המידע (ינואר 2026):
  • דיכוי אלים: המשטר האיראני הגיב באכזריות יוצאת דופן. לפי נתוני ארגון זכויות האדם HRANA, נכון ל-23 בינואר, מספר ההרוגים המאומת עומד על למעלה מ-5,000 בני אדם, בהם 4,716 מפגינים ועשרות ילדים.
    יש דיווחים לא מאומתים מצד האופוזיציה האיראנית על מעל 60,000 הרוגים!

  • מעצרים המוניים: למעלה מ-26,500 בני אדם נעצרו, וקיים חשש כבד להוצאות להורג המוניות בבתי הכלא.

  • חסימת אינטרנט: החל מה-8 בינואר הוטל מצור דיגיטלי כמעט מוחלט על המדינה כדי למנוע זליגת תיעודים מהטבח.

המעורבות האמריקנית - "הארמדה של טראמפ":
הנשיא טראמפ, שחזר והזהיר את טהראן מפני המשך הטבח, הכריז ב-22 בינואר כי "ארמדה" אמריקנית (צי ספינות מלחמה, כולל נושאת המטוסים אברהם לינקולן) עושה את דרכה למפרץ הפרסי. טראמפ הבהיר כי ארה"ב בוחנת אפשרויות תקיפה ישירות נגד מטרות שלטוניות אם לא ייפסק הדיכוי. ולאחר הדלפות על ממדי הטבח, הכריז "העזרה בדרך".


הזווית הישראלית והאזורית:
  • כוננות שיא: ישראל נמצאת בדריכות עליונה מחשש שהסלמה אמריקנית תוביל לתגובה איראנית ישירה או באמצעות שלוחיה (פרוקסי).

  • איומי נתניהו: ראש הממשלה נתניהו הזהיר כי אם איראן תבצע "טעות" ותתקוף את ישראל, היא תפגוש עוצמה שטרם הכירה.

  • איומי טהראן: המשטר האיראני הודיע כי במקרה של תקיפה, בסיסים אמריקניים ויעדים בישראל יהיו "מטרות לגיטימיות".

באשכול זה נמשיך לעדכן סביב השעון בכל התפתחות, דיווחים מהשטח ופרשנויות ביטחוניות.

אולי מעניין אותך גם...

הצטרפות לניוזלטר

איזה כיף שהצטרפתם לניוזלטר שלנו!

מעכשיו, תהיו הראשונים לקבל את כל העדכונים, החדשות, ההפתעות בלעדיות, והתכנים הכי חמים שלנו בפרוג!

לוח מודעות

הפרק היומי

הפרק היומי! כל ערב פרק תהילים חדש. הצטרפו אלינו לקריאת תהילים משותפת!


תהילים פרק כג

אמִזְמוֹר לְדָוִד יי רֹעִי לֹא אֶחְסָר:בבִּנְאוֹת דֶּשֶׁא יַרְבִּיצֵנִי עַל מֵי מְנֻחוֹת יְנַהֲלֵנִי:גנַפְשִׁי יְשׁוֹבֵב יַנְחֵנִי בְמַעְגְּלֵי צֶדֶק לְמַעַן שְׁמוֹ:דגַּם כִּי אֵלֵךְ בְּגֵיא צַלְמָוֶת לֹא אִירָא רָע כִּי אַתָּה עִמָּדִי שִׁבְטְךָ וּמִשְׁעַנְתֶּךָ הֵמָּה יְנַחֲמֻנִי:התַּעֲרֹךְ לְפָנַי שֻׁלְחָן נֶגֶד צֹרְרָי דִּשַּׁנְתָּ בַשֶּׁמֶן רֹאשִׁי כּוֹסִי רְוָיָה:ואַךְ טוֹב וָחֶסֶד יִרְדְּפוּנִי כָּל יְמֵי חַיָּי וְשַׁבְתִּי בְּבֵית יי לְאֹרֶךְ יָמִים:
נקרא  8  פעמים
למעלה