האם אפליקציית "Baby Grok" היא בינה מלאכותית לילדים או תמרור עצור להורים?
- ד"ר לימור ליבוביץ
- לפני 3 ימים
- זמן קריאה 4 דקות
ההבטחה והתמרור לעצור: מה אנחנו יודעים (ומה לא) על Baby Grok
ב-20 ביולי 2025, הודיע אילון מאסק כי חברת הבינה המלאכותית שלו, xAI, תפתח אפליקציה ייעודית לילדים בשם "Baby Grok". החברה מבטיחה מוצר שיספק "תוכן ידידותי לילדים", יעבור סינונים קפדניים ויכלול פיקוח הדוק. עם זאת, פרטים מהותיים על מנגנוני הבקרה, המודל העסקי ותהליכי בדיקת הבטיחות טרם נמסרו. עבור הורים רבים, הפער הזה בין הבטחות נוצצות למציאות עמומה הוא תמרור עצור ראשון.
אם אתם מבקשים מאיתנו, ההורים, להפקיד בידיכם את החינוך והבטיחות של ילדינו, הדרישה המינימלית שלנו היא שקיפות מלאה.
בעולם נטול רגולציה, נלמד ילדים על שימוש בטוח באפליקציות AI ממש כמו להדריך אותם לחצות כביש סואן בבטחה

בואו נכיר במציאות: בני הנוער כבר מזמן משוחחים עם חברים מלאכותיים
הרשת מוצפת במספרים על שימוש נרחב של בני נוער בבינה מלאכותית "חברתית". ייתכן שנתקלתם בציוץ ויראלי הטוען כי אחוזים ניכרים של מתבגרים כבר משתמשים ב-"AI Companions". זה לא רק היישום החדש של מאסק בכותרות. בשבועות האחרונים מתפרסמים נתונים ומחקרים שמראים שכ-70-75 אחוז מבני הנוער השתמשו כבר ב-AI Companions, וחלקם מפתחים תלות רגשית או מעבירים לשם שיחות רציניות. ארגונים כמו Common Sense Media ואנשי מקצוע מזהירים: “זה לא בטוח לילדים”, וקוראים לעצור עד שיוטמעו הגנות חזקות יותר. גם סם אלטמן (OpenAI) הזהיר פומבית מתלות של מתבגרים בצ’טבוטים. זה לא “עוד פאניקה מוסרית”. זו תמונה מצטברת של סיכונים אמיתיים ובלתי מוסדרים. וגם כדאי לדעת- יוניסף מצא שחלק גדול מתגובות של בוטים “חברותיים” מעלה דאגות בטיחות חמורות, כולל דיונים מיניים מפורשים אחרי חשיפה קצרה של מידע רגיש. במקביל, בארה”ב ה-FTC עדכן את כללי ה-COPPA להגנה על פרטיות ילדים, כולל חידודים סביב הסכמה הורית ושימוש במידע לאימון מודלים. כלומר - הרגולטורים כן מתקדמים, אבל השוק נע מהר יותר.
אמינות מייסד Baby Grok: אילון מאסק הוא הפיל שבחדר
אי אפשר להתעלם מהעובדה שהמיזם החדש מובל על ידי אילון מאסק, דמות שנויה במחלוקת בלשון המעטה. מאסק מנהל את הרשת החברתית X (לשעבר טוויטר) באופן שסופג ביקורת רבה, כולל טענות על קידום תכני טרור וארגונים הנמצאים תחת סנקציות בארה"ב. בנוסף, מאסק ידוע בהיסטוריה של הבטחות שלא תמיד מתממשות, מרכבים אוטונומיים לחלוטין ועד להצהרות על יישוב מאדים. כעת, אותו אדם מבקש מאיתנו להפקיד בידיו את עולמם הדיגיטלי של ילדינו.
ימים יגידו אם Baby Grok יהפוך לכלי חינוכי מהפכני או יצטרף לרשימת הפרויקטים הנוצצים אך הריקים מתוכן, שמטרתם העיקרית היא למשוך תשומת לב ולמצב את מאסק בשוק טכנולוגי נוסף.
ואפשר גם להשתמש בכלים אחרים.
לדוגמה Gemini Teens
האפליקציה מבית גוגל מגיעה מוכנה יותר מבחינת שקיפות, הגנה ורגולציה. אבל גם בה – השימוש אמור להיות תמיד מתוך קונטקסט חינוכי, עם הורה או מורה שמנחים.בעידן שבו גם הילד יכול להפעיל את הכלי לבד דרך Family Link, האחריות על ההורה לשוחח, ללמד ולנטר.
לעומת זאת, עם Baby Grok – אנחנו נמצאים עדיין בעמדת “שאלות”, ללא “תשובות”. אין ראיה של הגנות עמוקות, אין פיקוח נרחב – ולכן, לפחות לעת עתה, זה נראה פחות אמין וכל כך פחות בטוח לילדים קטנים או בני נוער.
אז איך שומרים על הילדים ובני הנוער כשהכל משתנה כל כך מהר?
במציאות הנוכחית האחריות היא שלנו ההורים!
במקום להמתין לתשובות מהחברות, אנו יכולים להפוך לצרכנים ביקורתיים ולהשתמש בכלים שברשותנו כדי לבדוק כל אפליקציה בעצמנו.
אבל איך עושים את זה בלי לקרוא עמודים אינסופיים של תנאי שימוש?
הפתרון האירוני והיעיל הוא להשתמש בבינה מלאכותית כדי להגן על ילדינו מבינה מלאכותית. הנה 3 פרומפטים (הנחיות) שימושיים שתוכלו להעתיק ולהדביק בכל צ'אטבוט (כמו ChatGPT, Gemini ועוד) כדי להפוך אותו ליועץ הבטיחות האישי שלכם:
3 פרומפטים על בינה מלאכותית לילדים שכל הורה חייב לשמור
פרומפט 1: ניתוח סיכוני בטיחות ופרטיות בבינה מלאכותית לילדים
“פעל כמומחה לבטיחות דיגיטלית של ילדים. קרא את התיאור של האפליקציה [הכנס שם הכלי כאן] ונתח מהם הסיכונים האפשריים לבני נוער (פרטיות, תוכן לא הולם, התמכרות, תקשורת מסוכנת). תן לי רשימת בדיקות והמלצות ספציפיות להורים כדי לוודא שימוש בטוח. ציין אילו תכונות כדאי לנטרל, אילו הרשאות לבדוק ואילו שאלות לשאול את הילד לפני השימוש.”
פרומפט 2: פירוש ה״אותיות הקטנות״ של מדיניות הפרטיות בבינה מלאכותית לילדים
“קרא את מדיניות הפרטיות של [הכנס שם הכלי כאן] והסבר לי בשפה פשוטה מה נאגר על המשתמש, מה נשלח לצד שלישי, וכמה זמן המידע נשמר. המלץ אילו צעדים אני כהורה יכול לנקוט כדי לצמצם איסוף מידע (למשל, הגדרות פרטיות או כתובת מייל ייעודית). האם המודל הזה עומד בתקנות הגנת פרטיות לילדים (כמו חוק COPPA האמריקאי, המחייב הסכמת הורים לאיסוף מידע מילדים מתחת לגיל 13)?”
פרומפט 3: יצירת הסכם שימוש משפחתי לשימוש בטוח בבינה מלאכותית לילדים
“עזור לי לבנות הסכם שימוש קצר עם ילדיי המתבגרים לכלי בשם [הכנס שם הכלי כאן]. ההסכם יכלול: שעות שימוש מותרות, רשימת נושאים שלא מתאים לשוחח עליהם עם הבוט, מה עושים אם עולה תוכן מטריד או מסוכן, ומתי חובה לשתף הורה. הוסף גם ‘כללי זהב’ לשמירה על בריאות נפשית (כמו לא להסתמך על בינה מלאכותית במקום חברים אמיתיים או אנשי מקצוע).”
לסיכום- העידן הבינה המלאכותית אינו ממתין לאף אחד, והכלים החדשים מציבים בפנינו אתגרים והזדמנויות. באמצעות גישה פרואקטיבית וביקורתית, נוכל להבטיח שילדינו ייהנו מהיתרונות של הטכנולוגיה תוך צמצום הסיכונים. בסופו של דבר, הטכנולוגיה היא רק כלי – החינוך, הערכים והליווי שלנו הם שיקבעו את ההשפעה שלה על חייהם.
אשמח מאוד אם תרשמו לאתר לקבלת הודעות וכן בצעו הרשמה לחברות Log In באתר כדי להיות מנויים לאתר ולהשתתף בשיח בנושאים שעולים כאן.
בנוסף, זכרו שניתן להזמין הרצאה מעוררת השראה וללמוד קורס מקוון בקצב אישי כאן באתר -״בינה בכיתה״.- קורס מלא לאנשי חינוך הכולל 60 הקלטות קצרות.
תוכלו גם ללמוד במיני קורס למתחילים הכולל 10 הקלטות קצרות שיכניסו אתכם לעולם הבינה מלאכותית בקצב שלכם. חדש באתר- מיני קורס הנדסת פרומפטים הכולל 15 הקלטות שיקח אתכם לרמה הבאה בחסכון בזמן ובפיתוח היכולות והכישורים שלכם.
וגם- הספר שלי ״דור ה-AI- לחנך ילדים בעידן החדש״ יצא לאור השנה. תוכלו להזמין לכם עותק מודפס או דיגיטלי בהנחה כבר כעת.
המממ.... האם הצלחנו בדורות קודמים של גימיקים וכלים טכנולוגיים? כפי הנראה שלא. הילדים נוכחים חשופים בשדה קרב של היצע פרוע ופרוץ של תכנים, לא פחות ואולי אף יותר, ובעיקר- ממי שהאיטרנס שלהם הוא האחרון מאשר לדאוג לילדים, אלא לקדם רווח כספי.