דה מרקר
בפברואר 2024, נטליה קוסמינה ממעבדת המדיה של המכון הטכנולוגי של מסצ'וסטס (MIT) ערכה ניסוי שנשמע כמו משהו שיכול היה להשתלב בקלות במצגת משקיעים של סטארטאפ מבטיח. שלוש קבוצות של סטודנטים התבקשו לכתוב חיבור קצר על נושא מופשט, בדומה לחיבור שנדרש בבחינות קבלה לאוניברסיטאות בארצות הברית (SAT). למשל, "האם צריך לחשוב לפני שמדברים?". קבוצה אחת כתבה ללא כלי עזר. השנייה קיבלה גישה למנוע חיפוש, והשלישית קיבלה גישה ל־ChatGPT.
כמו בכל דמו של מוצר טכנולוגי חדש, התוצאות הראשוניות נראו מרשימות. קבוצת ה־GPT סיימה את החיבור בפחות ממחצית הזמן, והטקסטים שהפיקה היו מהוקצעים, ממוקדים ומשכנעים. לכאורה, חלומו של כל מעסיק שרוצה להגביר פרודוקטיביות. אבל אז הגיע השלב שבו החוקרת וצוותה הביטו לנסיינים לתוך הראש.
את הניסוי ביצעו הסטודנטים כשעל ראשם כובעי EEG – מכשירים שקוראים את הפעילות החשמלית במוח ומאפשרים לראות אילו אזורים פועלים ואיך הם מתקשרים זה עם זה בזמן הכתיבה. התברר כי חברי הקבוצה שכתבה "מהראש", ללא עזרה דיגיטלית, הפעילו רשת עצבית רחבה, כולל חיבורים בין אזורים שאחראים על עיבוד חזותי והחלטות מורכבות. בנוסף, נמצא כי בקרב חברי קבוצה זו נמדדו הרמות הגבוהות ביותר של גלי אלפא ובטא – תדרים שמעידים על ריכוז, חשיבה מעמיקה ועיבוד מידע. לעומתם, חברי הקבוצה שהותר לה להשתמש במנוע החיפוש הסתמכו בעיקר על אזורי זיכרון וראייה, ואילו בקבוצה שחבריה השתמשו ב־ChatGPT נרשמה הפעילות הנמוכה ביותר.
אחר כך ביקשה קוסמינה מהסטודנטים לשחזר את הרעיונות המרכזיים מהטקסט שהגישו. 83% ממשתמשי ChatGPT הצליחו להיזכר רק בנקודות כלליות, לעתים שטחיות וללא פירוט או מבנה טיעון ברור. היא המשיכה ועקבה אחרי אותם סטודנטים במשך ארבעה חודשים, וגילתה שההרגלים שלהם לא נעלמו עם תום הניסוי – הם רק העמיקו. בקבוצת ChatGPT, איכות הטקסטים נשחקה והלכה. המעורבות ירדה, החיבור הרגשי למה שנכתב כמעט נעלם. אפילו כשהתבקשו לחזור לכתיבה "נקייה", ללא עזרים, פעילות המוח לא חזרה לרמות של הקבוצה שכתבה כך מלכתחילה.
הממצא הזה התחיל להתיישב עם תופעה מוכרת: אפקט גוגל. אותו מנגנון שבו המוח מוותר על זכירה של מידע שהוא יודע שנמצא במרחק הקלדה. אבל כאן, ההשלכה רחבה יותר, מאחר שזה לא רק הזיכרון שנפגע – אלא עצם התהליך. המוח, כך נראה, פשוט מפסיק לנסות.
קוסמינה מבקשת לא להתפתות לאמירות דרמטיות. היא מדגישה שהמוח לא "נרדם", ושהממצאים שלה לא מוכיחים עצלות מנטלית. ובכל זאת, מול הפיתוי של יעילות מיידית, הניסויים שלה מציעים תזכורת: כתיבה היא לא רק מה שמתקבל בסוף. היא הדרך שבה אנחנו מעבדים, מארגנים ומבינים מידע. כשמפסיקים לעבור את הדרך, אז גם התוצאה, חלקה ככל שתהיה, נשארת ריקה.
הילדים לא יחכו לביקורת עמיתים
פרופ' אמיר עמדי, העומד בראש מכון ברוך איבצ'ר לחקר מוח, קוגניציה וטכנולוגיה באוניברסיטת רייכמן, לא התרשם מהכותרות שהקיפו את המחקר של קוסמינה. בעיניו, הן פספסו את החלק המעניין באמת. "כולם התרכזו בירידה בפעילות המוחית וביכולות הכתיבה, אבל התעלמו מתוצאה כמעט הפוכה שהמחקר הציג", הוא אומר. "בניסוי נוסף שהצוות ביצע ופורסם באותה טיוטת מאמר – המשתתפים כתבו בעצמם ורק אחר כך שיפרו את הטקסטים בעזרת הצ'אט. דווקא אז נרשמה תגובה הפוכה גם ברמת הפעילות והקישוריות המוחית וגם בתוצרי הכתיבה".
עמדי רואה בכך שיעור חשוב: הבעיה היא לא עצם השימוש בבינה מלאכותית, אלא האופן שבו משתמשים בה ואיך משלבים אותה בפרקטיקות אחרות. כשמשתמשים בצ'אטבוט כדי להתחמק ממאמץ, זה מנוון. אבל כשהוא נכנס לתמונה רק אחרי שהכותב כבר חשב וניסח, הוא יכול לשמש כלי עזר שמעשיר את התוצאה, מפעיל עוד שכבות של עיבוד ועל הדרך גם משפר את פעילות המוח וחיזוקו.
זו גם הגישה שמניעה את רמפי (Remepy), הסטארטאפ שעמדי הוא אחד ממייסדיו (ונמנה עם נבחרת הסטארטאפים של מגזין TheMarker לשנת 2025). החברה פיתחה אפליקציית אימון קוגניטיבי־רגשי שנשענת על מחקרים מדעיים וקליניים מתוך ומחוץ למעבדתו של עמדי, ומשתמשת ב־AI כדי להתאים את רמת הקושי של המשימות ליכולות של כל משתמש בזמן אמת – במטרה לאתגר בעדינות את המוח ולעודד חיזוק הדרגתי של קישוריות עצבית.
במחקר אקראי־מבוקר שפורסם ביוני 2025 ב־npj Digital Medicine, נבדקו 103 משתתפים בני 50־65 שהתלוננו על ירידה קוגניטיבית סובייקטיבית וסבלו מרמות חרדה גבוהות. שלושה שבועות של שימוש יומי באפליקציה הובילו לשיפור במדדים של דיכאון, חרדה וחוסן נפשי – שינויים שנשמרו גם לאחר סיום ההתערבות. במקביל נרשמה ירידה ברמות של חלבונים שקשורים לדלקת מתמשכת בגוף, ובדיקת fMRI – סריקה מוחית שמודדת פעילות על סמך שינויים בזרימת הדם – חשפה שינויים בקישוריות המוחית, במיוחד באזור האינסולה, מבנה מוחי עמוק שמתווך בין מערכת החיסון למצב הרגשי והקוגניטיבי.
"AI אינה תחליף למוח, אלא משהו שאמור לעזור לו לעבוד יותר טוב", אומר עמדי. "אם משתמשים בה נכון – זה יכול לשפר אינטליגנציה, לעזור בשיקום ולתרום לבריאות המוח. אבל זה דורש חינוך".
מבחינת עמדי, הסיפור של ChatGPT הוא בכלל על בני אדם וההרגלים שלהם שקשה לשבור. "אנשים הם חיה מוזרה", הוא אומר. "אנחנו מסוגלים לטפס על האוורסט, אבל מתקשים לקום לכבות את הטלוויזיה כי אנחנו רגילים לחפש את השלט". לדבריו, "אם היתה תרופה שמפחיתה ב־50% את הסיכון למחלות ניווניות, רוב האנשים היו מוכנים לשלם עליה הון. בפועל, התרופה הזו קיימת – קוראים לה פעילות גופנית, לפעמים אפילו הליכה יומית של רבע שעה. אבל הרוב פשוט מוותרים".
עצלות, הוא מסביר, היא ברירת מחדל. ולכן לא מספיק להתריע על הסכנות, אלא צריך להנדס את המערכת אחרת. "אם לא נבנה את ה־AI כך שתאתגר אותנו, אנחנו נאבד עניין ואז נבזבז את הפוטנציאל שלה. יש דרכים שבהן הטכנולוגיה יכולה לעזור לנו לשנות הרגלים – למשל שימוש בשיטות תגמול ומשחק, שיגרמו לאדם לא רק להיעזר בבינה מלאכותית, אלא לחשוב באמצעותה ברמה עמוקה יותר. כך אפשר להגיע לרמות גבוהות יותר של קישוריות ופעילות מוחית, דווקא כשמשתמשים בטכנולוגיה באופן קבוע".
אבל יש גבולות שגם עמדי לא מוכן למתוח. כשמדובר בילדים, הסיכונים בעיניו אמיתיים. "המוח מתפתח בשלבים קריטיים עד גיל 18, ובוודאי עד גיל 12", הוא אומר. "כמו שאלכוהול פוגע אחרת במוח צעיר, כך גם בינה מלאכותית. אם לא נלמד את הילדים להשתמש בבינה נכון, נשלם את המחיר בעוד שנים". זו בדיוק הסיבה, לדבריו, לכך שקוסמינה פרסמה את המחקר שלה כטיוטה לפני ביקורת עמיתים (Preprint). "היא הסבירה שהיא לא עושה את זה בדרך כלל", הוא אומר. "אבל הפעם הרגישה שזה לא יכול לחכות וצריך להעיר את הציבור כמה שיותר מוקדם. היא פחדה שאם תמתין – הכלים האלה כבר ייכנסו לגני הילדים".
אשליית הטייס האוטומטי
אם דרושה עוד הוכחה להשפעה של בינה מלאכותית כבר בגיל צעיר, אפשר למצוא אותה במחקר שנערך בבתי ספר תיכוניים בטורקיה – גם הוא עדיין בגרסת טיוטה לפני ביקורת עמיתים. בסוף 2023, חוקרים מאוניברסיטת פנסילבניה ביקשו לבדוק מה קורה כשנותנים לתלמידים לתרגל מתמטיקה עם או בלי עזרה של ChatGPT. זה היה ניסוי שכלל יותר מ־1,000 תלמידי תיכון, שחולקו באקראי לשלוש קבוצות. כולם למדו אותו חומר בכיתה, וההבדל התחיל בשלב התרגול.
הקבוצה הראשונה תרגלה לבד, השנייה השתמשה בגרסה רגילה של ChatGPT ואילו השלישית קיבלה גרסה דמויית ChatGPT שעברה שינוי – במקום בוט שנותן תשובות, בוט שמתפקד כמו מורה פרטי ומציע רמזים שעוזרים להגיע לפתרון הנכון. בשלב התרגול זה עבד – המשתמשים בצ'אטבוט פתרו 48% יותר תרגילים בהצלחה. מי שקיבלו את המורה הפרטי בגרסת ה־AI, שיפרו אפילו יותר. הסיבה היא שהצ'אט בגרסתו הרגילה נתן תשובה שגויה בכמעט מחצית מהמקרים – והתלמידים פשוט העתיקו ממנו את התשובות, כולל השגיאות. הצ'אט המתוכנת קיבל את התשובות הנכונות מראש ולכן הרמזים שלו היו מדויקים.
אבל כשהגיע שלב המבחן התמונה התהפכה. תלמידים שהשתמשו ב־ChatGPT בגרסתו הרגילה קיבלו ציונים נמוכים ב־17% לעומת אלה שלמדו לבד, ואלה שלמדו עם מורה AI לא הראו שיפור מול התלמידים שתרגלו בדרך הישנה. מי שתרגל בלי עזרים הצליח באותה מידה, רק בלי הבאז. הממצא המדאיג הוא שרוב התלמידים כלל לא הרגישו שקרה משהו. חלקם אפילו חשבו שהלך להם מצוין במבחן, כשבפועל הם נכשלו יותר מהאחרים. החוקרים קוראים לזה "אשליית הטייס האוטומטי": ככל שמישהו אחר שולט בהגאים, כך אתה שוכח איך לטוס לבד.
המנגנון שמאחורי התופעות האלו כבר זכה לשם "מיקור חוץ קוגניטיבי" (Cognitive Offloading). זהו תהליך שבו המוח מוותר על משימות חשיבה לטובת כלי חיצוני והוא לא מתרחש בבת אחת אלא לאט. פעולה אחת ואז עוד אחת, וכמו בכל שריר שלא מופעל, גם כאן מתחילה נסיגה. במאמר שפורסם בסוף 2023 בכתב העת Brain-X, הסבירו לונג באי, חוקר מאוניברסיטת שנחאי בסין, ועמיתיו, שכתיבה עצמאית היא לא רק תרגול אקדמי. היא דרך להפעיל רשתות של קשב, זיכרון, תכנון ודמיון. כשמישהו אחר עושה את העבודה המוח מתרגל לוותר. בטווח הארוך, זה פוגע ביכולת לפרק בעיה מורכבת, לארגן את המחשבה ולבנות טיעון. התוצאה, לפי הכותבים, היא לא רק אובדן של מיומנות, אלא גם יצירת הרגל: תלות שקטה בכלי חכם גם במקרים שאין בו צורך ואנו יודעים לפתור את הבעיה בעצמנו, מה שמכונה "תלות קוגנטיבית".
ההשפעה לא נעצרת שם. לפי אותו מאמר, השימוש ב־AI משנה גם את האינטראקציה החברתית. במקום להתווכח, להסביר רעיונות או ללמוד דרך שיתוף פעולה, תלמידים מתרגלים לעבוד מול ממשק. הם פחות מתרגלים הבנת סאבטקסט ופחות מתאמנים על אמפתיה.
אם להודות באמת, לא צריך ניסויים מורכבים כדי לבטא את מה שאנחנו מרגישים בעצמנו, ככל שאנחנו משתמשים יותר ויותר בבינה מלאכותית. בכנס CHI 2025 שנערך במאי האחרון ביוקוהמה, יפן, הציגו חוקרים ממיקרוסופט ואוניברסיטת קרנגי מלון מחקר רוחבי שכלל 319 עובדי ידע – מהייטק, עיצוב, כתיבה ושיווק – שמשתמשים באופן קבוע בכלים כמו ChatGPT או Copilot. המשתתפים התבקשו לתאר מתי ואיך הם משלבים את הבינה המלאכותית בעבודה וסיפקו לחוקרים 936 דוגמאות כאלה. המגמה שחזרה על עצמה היתה שככל שהאמון ב־AI היה גבוה יותר, כך ירדו רמות המעורבות הקוגניטיבית והחשיבה הביקורתית. מי שבטחו ביכולות המקצועיות שלהם ערכו, בדקו ושיפרו את התוצאות של הבינה המלאכותית. מי שפחות בטחו בעצמם, לקחו את הפלט כמו שהוא, בלי לשאול יותר מדי שאלות.
החוקרים תיארו שלושה שינויים בצורת החשיבה כתוצאה משימוש ב־AI, המתרחשים במקביל: במקום לחפש מידע, המשתמשים בדקו אם הפלט "נשמע נכון"; במקום לפתור בעיות, הם התמקדו בשילוב של פתרון שהציע ה־AI; ובמקום לפעול, הם פיקחו. השינוי הזה אולי נראה טבעי, אבל הוא גובה מחיר. ככל שהמשימה נראית פשוטה יותר, פוחתת המוטיבציה לבדוק אותה. וככל שהביטחון ביכולת העצמית יורד – כך גם פוחת הסיכוי שנערער על הפלט שמספקת המכונה. המסקנה של החוקרים לא עסקה בטכנולוגיה, אלא בתיווך. אם אנחנו רוצים לשמר ואולי לחזק את היכולות האנושיות, נצטרך לעצב כלים שמזמינים את המשתמש לחשוב. לא לספק תשובות סופיות, אלא לעורר ספק.
החשיבה האינטואיטיבית הזאת, שלפיה אנחנו צריכים לעצב את המסגרת ולא רק את הכלי, עומדת גם בלב מאמר דעה שכתבו בחודש שעבר פרופ' ויטומיר קובאנוביץ' ורבקה מרון באתר האוסטרלי The Conversation. הם חזרו רגע לשנות ה־70, כשהמחשבון הפך לנחלת הכלל. מערכת החינוך של אז לא ניסתה להילחם במחשבון – היא פשוט שינתה את הכללים. הבחינות נהפכו קשות יותר, וההתמקדות עברה מביצוע חישובים טכניים להבנה עמוקה של בעיות. המחשבון לא הוריד את הרף אלא העלה אותו, והתוצאה היתה סוג של אבולוציה פדגוגית.
עם ChatGPT, הם טוענים, זה עוד לא קרה. כלי רב־עוצמה נכנס לכיתה, אבל הציפיות מהתלמידים נשארו כשהיו. המורים ממשיכים לדרוש את אותן עבודות שדרשו לפני חמש שנים. במצב כזה, אין פלא שהתלמידים מעבירים את החשיבה למכונה, וזה בדיוק מה שקרה בניסוי של MIT, הם מזכירים. הסטודנטים שקיבלו גישה ל־ChatGPT התאימו את עצמם לרף המוכר. זה שקול למצב שבו היינו מבקשים משתי קבוצות לפתור תרגיל בחשבון: אחת תעשה זאת בראש, השנייה בעזרת מחשבון. למי שלא צריך להתאמץ, אין סיבה להפעיל את המוח.
לבסוף, ההשפעה של ChatGPT לא נעצרת בכתיבה או בלמידה. היא מתחילה לחלחל גם להחלטות שאנחנו מקבלים ולמה שמניע אותנו כשאנחנו מקבלים אותן. ב־2024, פרסמו שינוסוקה איקדה מאוניברסיטת קנאזווה ביפן, ועמיתיו, מחקר בכתב העת Scientific Reports, שבחן את ההשפעה של הצ'אט על אופן קבלת החלטות בתחומים טעונים: מוסר, מגדר וכסף. הם גייסו יותר מ־1,900 משתתפים מיפן, וחילקו אותם לשלוש קבוצות. אחת קיבלה ייעוץ מהצ'אטבוט, השנייה ממומחה אנושי, והשלישית לא קיבלה ייעוץ כלל.
באופן טבעי, המשתתפים נטו לבחור במנתח בעל הניסיון הרב ביותר, בלי קשר למגדר. אבל כשהצ'אטבוט המליץ לבחור בגבר פחות מנוסה, שיעור הבחירה בו זינק פי שלושה. כשאותה המלצה ניתנה לגבי אישה – לא קרה כמעט דבר. המסקנה של החוקרים היתה כי ייעוץ, מכל סוג, מחזק סטריאוטיפים בקלות רבה יותר משהוא מאתגר אותם, במיוחד כשההחלטה טעונה רגשית.
בדילמות מוסריות מובהקות, כמו דילמת הטרולי – תרחיש שבו רכבת דוהרת על מסילה לעבר חמישה בני אדם, והדרך היחידה להצילם היא להסיט את המסילה כך שהיא תפגע באדם אחר אחד – העצות מהמומחה או ה־AI לא שינו הרבה. רוב המשתתפים נשארו בעמדתם המקורית. מה שכן הפתיע היה רמת האמון. המשתתפים קיבלו את עצות GPT כמעט באותו שיעור כמו את עצות המומחה. גם כשההמלצות היו אקראיות, סותרות ולא עקביות.
הגורם שקבע מי יאמץ את ההמלצה לא היה מהימנות המקור, אלא הביטחון העצמי של האדם שמקבל אותה. מי שהרגיש בטוח בעצמו – חשב. מי שהיה פחות בטוח בעצמו, העביר את ההחלטה לגורם החיצוני. וכמו בממצאים האחרים, גם כאן נרשם אותו מעגל חוזר: ככל שאתה פחות מאמין בעצמך, כך תסמוך יותר על המכונה. וככל שתסמוך עליה יותר, כך תזדקק לה שוב בפעם הבאה.