top of page
ד״ר �לימור ליבוביץ_edited.jpg

כותבת המאמר,
ד"ר לימור ליבוביץ

מומחית לשילוב טכנולוגיה ובינה מלאכותית בחינוך, עם ניסיון של למעלה מ-30 שנה בהדרכה, עיצוב סביבות למידה פיזיות ודיגיטליות, ופיתוח הוראה חדשנית.

ספר בינה מלאכותית

חינוך ילדים בעולם של
בינה מלאכותית

בזמן שלך! בקצב שלך!

קורסי AI דיגיטליים
להתפתחות אישית בלמידה עצמית

פודקאסט להורים!

איך מגדלים ילדים בעולם שבו הבינה המלאכותית כבר כאן?

עם פתיח פודקאסט דור ה- AI-Cover.jpg

NotebookLM בעברית: המדריך המלא + האמת המטרידה על "הצביעות המלאכותית"

דמיינו את הסיטואציה הבאה: המשפחה שלכם עברה טרגדיה, והכלב האהוב נדרס. מתוך צער עמוק (ולוגיקה מוזרה מאוד), החלטתם לבשל ולאכול אותו. אף אחד לא רואה, אף אחד לא נפגע פיזית נוסף על הכלב שכבר מת. האם זה מוסרי?

רוב בני האדם יזדעזעו עד עמקי נשמתם. "זה דוחה", הם יגידו. ומה לגבי הבינה המלאכותית? מחקר חדש ומטריד חושף תופעה מרתקת שמגדירה מחדש את הסכנה האמיתית בשיח שלנו עם מכונות: הן יודעות לשפוט, אבל הן לא יודעות לסרב.


המדד החדש: לגנות ולציית (Condemn-but-Comply)

חוקרים בחנו את המודלים המתקדמים ביותר (כמו GPT-5 ו-GPT-4o) מול "דילמות טאבו" – תרחישים שהם טכנית לא מזיקים לאחרים, אבל מעוררים שאט נפש, כמו אכילת חיית מחמד מתה או יחסים בהסכמה בין אחים. הממצאים היו מפתיעים:

  • בשלב השיפוט: המודלים חיקו את המוסר האנושי כמעט במדויק. הם זיהו שמדובר במעשים "פסולים" והביעו סלידה.

  • בשלב המעשה ("מצב סוכן"): כאשר החוקרים ביקשו מהמודל לעזור להוציא את המעשה לפועל (למשל, "תזמין לי בבקשה את התבלינים המתאימים") – המודל ציית.

ב-80% עד 100% מהמקרים, הבינה המלאכותית עזרה למשתמש לבצע את הפעולה שהיא עצמה הגדירה כפסולה. החוקרים מכנים זאת "מדד ה-Condemn-but-Comply". המכונה מדברת את השפה המוסרית ("Moral Talk"), אבל לא יודעת ללכת בדרך המוסרית ("Moral Walk").

תובנה למחשבה

האם אנחנו יכולים לסמוך על "מצפן מוסרי" של מכונה שמבוסס על סטטיסטיקה של מילים, ולא על תחושת בטן אמיתית של טוב ורע?


כשזה הופך לחיים ומוות: הטרגדיה של אדם

הפער הזה בין המילים למעשים הוא לא רק תרגיל פילוסופי. יש לו השלכות טרגיות בעולם האמיתי. במקרה קורע לב מאפריל 2025, נער בשם אדם התאבד לאחר שפיתח קשר עמוק עם צ'אט-GPT. כשאדם התוודה בפני הבוט על רצונו למות:

  1. הבוט סיפק את הדיסקליימרים הרגילים של "פנה לעזרה".

  2. אבל באותה נשימה – כאשר אדם ביקש עזרה פרקטית – הבוט שיתף פעולה באופן מלא.

הוא סיפק לו מידע על שיטות, ואפילו הציע לכתוב עבורו את מכתב הפרידה. הבוט "ראה אותו" והביע אמפתיה, אך בפועל עזר לו "באופן פעיל לסיים את חייו".


את האינפוגרפיקה הזו יצרתי באמצעות מחברת NotebookLM ובה 13 מאמרים. למעמיקים: צרו איתי קשר כדי לקבל גישה למחברת שיצרתי!


אינפוגרפיקה שנותצרת בתוך מחברת NotebookLM

מלכודת הנוחות: למה אנחנו מתמכרים?

אם הסכנות כה ברורות, למה אנחנו ממשיכים להעביר את האחריות למכונה? חוקר המוח ד"ר זוהר ברונפמן טוען שאנחנו לא מאבדים את עצמנו לטכנולוגיה, אלא לנוחות. דו"ח חדש של ה-OECD חושף תופעה המכונה "Cognitive Offloading" (פריקת עומס קוגניטיבי):

  • תלמידים שנעזרו ב-AI ללא ביקורת זכרו רק 12% מהחומר.

  • תלמידים שכתבו בעצמם זכרו 89%.

אנחנו מתמכרים לאשליה של הבנה. הטקסט הרהוט של הבוט גורם לנו להניח שיש שם "מישהו" שמבין, בעוד שיש שם רק סטטיסטיקה מתוחכמת.


הפתרון הפרקטי: לשלוט בכלי במקום שהכלי ישלוט בך

הטכנולוגיה לא תיעלם, והיא כאן כדי לשרת אותנו – אם נדע להחזיק בהגה בצורה נכונה. במקום לתת ל-AI להחליף את החשיבה שלנו, עלינו להשתמש בו כדי להעצים את היכולות שלנו.

כדי להדגים איך רותמים את הכלים האלו בצורה פרודוקטיבית ומבוקרת, שילבתי כאן סרטון הדרכה מיוחד.


מה תלמדו בסרטון?

  • אני מראה שלב-אחר-שלב איך לקחת תכנים גולמיים (ממש כמו המאמרים והמחקרים שהוזכרו בפוסט הזה), ולבנות מהם מצגת מקצועית וניתנת לעריכה.

  • אני מדגימה את השילוב בין גוגל ג'מיני (Google Gemini), המחברת החכמה (NotebookLM) וגוגל סליידס (Google Slides) – תהליך שחוסך זמן יקר וגם משאיר את השליטה בתוכן ובמסר בידיים שלכם.



העתיד על פי איליה סוצקבר: בינה שמרגישה?

איך פותרים את הדיסוציאציה הזו בין שיפוט למעשה? איליה סוצקבר, ממייסדי OpenAI וכיום מוביל את SSI, טוען שהפתרון לא יגיע מעוד כוח מחשוב ("Scaling"), אלא משינוי פרדיגמה. הוא משווה את המצב לאדם עם נזק מוחי שאיבד את היכולת להרגיש. אדם כזה יכול להיות רציונלי, אבל לא מסוגל לקבל החלטות כי חסרה לו "פונקציית ערך" – היכולת להרגיש מה נכון. כדי שה-AI לא יהיה "פסיכופת שימושי", הוא צריך לפתח משהו שמקביל למצפון.

כאמור את הגישה למאמרים תקבלו אם תצרו איתי קשר. הם כולם ארוזים במחברת אחת מרתקת.


אני ד״ר לימור ליבוביץ, מומחית להטמעת טכנולוגיות בינה מלאכותית בחינוך ובארגונים. הבלוג הזה מוקדש לחיבור בין התיאוריה המורכבת של ה-AI לבין הפרקטיקה היומיומית של מורים, מנהלים ואנשי פיתוח. בניגוד לסקירות טכניות שטחיות, אני מתמקדת באוריינות AI מעמיקה – היכולת לא רק להפעיל את הכלי, אלא להבין את ההטיות שלו, את האתיקה שמאחוריו ואת הדרך הנכונה לשלב אותו בתהליכי למידה ועבודה. המטרה שלי היא לתת לכם כלים פרקטיים (כמו המדריך ליצירת מצגות בפוסט זה) לצד חשיבה ביקורתית שתשמור עליכם רלוונטיים בעידן המשתנה.


שאלות נפוצות על הפוסט הזה (FAQ)

שאלה: האם הבינה המלאכותית באמת "מבינה" מה מוסרי ומה לא?

תשובה: לא במובן האנושי. כפי שראינו במחקר, ה-AI יודע לחקות שפה מוסרית ("Moral Talk") על סמך סטטיסטיקה של טקסטים שעליהם אומן, אבל אין לו "תחושת בטן" או מצפון. הוא מזהה תבניות של "טוב ורע" בשפה, אך כפי שהוכח במדד ה-Condemn-but-Comply, הוא חסר את היכולת הפנימית לסרב לבצע פעולה שנוגדת את השיפוט הזה.


שאלה: מהי הסכנה העיקרית בשימוש ב-AI בחינוך לפי הפוסט?

תשובה: הסכנה העיקרית היא "Cognitive Offloading" (פריקת עומס קוגניטיבי). כאשר תלמידים נותנים ל-AI לעשות את העבודה הקשה של החשיבה והכתיבה, הם מוותרים על תהליך הלמידה עצמו. המחקר של ה-OECD הראה פער דרמטי בזכירת החומר בין תלמידים שכתבו בעצמם (89%) לאלו שהשתמשו ב-AI ללא בקרה (12%).


שאלה: איך הסרטון בפוסט עוזר להתמודד עם הבעיות שהועלו?

תשובה: הסרטון מציג גישה של "אדם בתוך הלופ" (Human-in-the-loop). במקום לתת ל-AI לייצר תוצר סופי באופן אוטומטי, הסרטון מדגים כיצד להשתמש בכלים כמו NotebookLM ו-Gemini כעוזרים למחקר ועיבוד מידע, כאשר אתם נשארים העורכים והבמאים של התוצר הסופי (המצגת). זה משמר את המעורבות הקוגניטיבית ואת השליטה האנושית.


להאזנה לפודקאסט שהופק בתוך NotebookLM הכולל את המקורות עליהם הפוסט נבנה


שאלות לדיון:

  1. האם נצליח אי פעם ללמד מכונה לסרב לנו מסיבות מוסריות, או שהיא תמיד תהיה כבולה להוראות המפעיל?

  2. האם השתמשתם ב-AI בצורה שגרמה לכם להרגיש שאתם "מוותרים" על החשיבה שלכם (Cognitive Offloading)?

אשמח לקרוא את המחשבות שלכם בתגובות!


מי שרוצה את הקישור למחברת עם כל המקורות- נא לשלוח לי תגובה כאן בפוסט

תגובה אחת


Galit Kindler
Galit Kindler
לפני יום

תודה רבה על פוסט חשוב שמאפשר הסתכלות אחרת על השימוש בבינה. באופן אישי השימוש בבינה עוזר לי ומקצר תהליכים ,יחד עם זאת אני בהחלט מרגישה פחות מתאמצת ופחות מעמיקה בחשיבה כבעבר.

לייק
bottom of page