
דברים שממש לא כדאי לספר לצ'אטבוט שלכם – ואיך לשמור על הפרטיות
זהירות - הצ'אטים נפרצים, מעבירים מידע ומה שאתם מעלים ושואלים יכול להסתובב ברשת - איך לשמור על המידע והפרטיות שלכם ומה אסור בשום פנים ואופן להעלות לצ'אט?
צ'אטבוטים כמו ChatGPT, ג'מיני וקלוד הם כלי עזר רבי-עוצמה, מסייעים במתכונים, בלימודים, בכתיבה, ואפילו בקוד. אבל יש מחיר: כל פרט שאתם מקלידים – תחביב, מצב בריאותי, סיסמה – נשמר, מנותח ולעיתים משמש לאימון המודלים הבאים. חוקרי בינה מלאכותית מזהירים שחשיפת מידע רגיש עלולה להוביל לדליפות, גניבת זהות או שימוש לא הולם בנתונים. ולכן, כדאי שלא לספר לו הכל - הנה הדברים שכדאי להשאיר מחוץ לשיחות עם צ'אטבוטים וגם - האם יש צ'אטבוטים ששומרים על פרטיות?
תוצאות רפואיות ואבחונים
שיתוף תוצאות בדיקות דם, סריקות או אבחונים הוא סיכון גדול. המידע עלול לדלוף וגם אם אתם רוצים עזרה מהצ'אטבוט זה מסוכן - הוא יכול שלא לפרש נכון את התוצאות. צ'אטבוטים אינם כפופים לחוקי הגנת נתוני בריאות, והנתונים יכולים לשמש לאימון או להיחשף. צריך למחוק פרטים מזהים אם מעלים מידע רפואי.
סיכון נוסף הוא חוסר ההבנה של הבדיקות. כבר קרה שהצ'אט אמר שיש בעיה למרות שלא היתה. צ'אטים טועים באבחון, הם ממש לא מחליפים רופאים. אל תסתמכו עליהם. אולי בעתיד זה ישתפר, נכון לעכשיו - DONT.
ןאיך להימנע מחשיפה? העלו נתונים אנונימיים בלבד. מחקו שיחות והפעילו צ'אט זמני (Temporary Chat) ב-ChatGPT, שמונע שמירה. השתמשו בשירותים כמו WebMD עם הגנות פרטיות.
צ'אטבוטים פרטיים יותר? Grok של xAI לא משתמש בשיחות לאימון כברירת מחדל, וקלוד מוחק נתונים לאחר שנתיים, אבל עדיף להימנע משיתוף רפואי בכל מקרה.
מידע קנייני של החברה
שיתוף נתוני לקוחות, קוד תוכנה או סודות מסחריים בצ'אטבוט ציבורי מסכן את החברה שלכם. המידע עובר. דמיינו שאתם מעלים דוח מכירות פנימי של החברה שלכם. הוא כבר עובד ועוכל על ידי האלגוריתם. דמיינו שאחרי שעה מתחרה מבקש לדעת על מכירות בסגמנט מסוים של החברה שלכם והוא מקבל את המידע בזכות אותו מידע שאתם העלתם - גול עצמי, וזה לא דמיון, זה קרה.
מה לעשות? השתמשו בגרסאות ארגוניות כמו ChatGPT Enterprise או כלים פנימיים. מחקו שיחות, הימנעו ממשוב מפורט והפעילו צ'אט זמני לעבודה. בדקו מדיניות החברה לפני שימוש ב-AI.
- המנהלים מזהירים והעובדים מרגישים: ה-AI משנה את שוק העבודה
- אפל תנתח נתוני משתמשים לאימון AI
- תוכן שיווקי "הקרנות הפאסיביות מהוות 60% מהענף"
סיסמאות ופרטי כניסה
לעולם אל תשתפו סיסמאות, קודי אימות או שאלות אבטחה. שאלה כמו "הסיסמה שלי היא 'password123', איך משחזרים אותה?" מסכנת את החשבון שלכם. זה כבר קרה. איך להימנע מחשיפה? השתמשו במנהלי סיסמאות כמו 1Password, פנו לשירותי לקוחות לאיפוס סיסמאות והפעילו אימות דו-שלבי. מחקו שיחות והשתמשו בצ'אט זמני או Duck.ai לשאלות רגישות.
צ'אטבוטים פרטיים יותר? Duck.ai שומר על אנונימיות, וקלוד מציע מחיקה מחמירה, ובכל מקרה הקפידו לא למסור סיסמאות.
כתובות ומספרי טלפון
כתובת מגורים או מספר טלפון יכולים לשמש למעקב, הטרדה או לאמצעי שיווק. צ'אטבוט לא צריך לדעת שאתם גרים ברחוב הרצל 15 כדי להמליץ על מסעדה. אל תכתבו בסגנון - "אני גר בהרצל 15 ברמת גן איפה הפיצה הקרובה?" אלא חפשו איפה יש פיצה ברמת גן?
דעות פוליטיות או אישיות רגישות
דעות פוליטיות, דתיות או עמדות שנויות במחלוקת עלולות להוביל להטיות בתגובות הצ'אטבוט או לשימוש במידע נגדכם. לדוגמה, "אני תומך במפלגה X" עשוי להישמר ולהופיע בהקשרים לא רצויים. שאלו נייטרלית: "מה היתרונות של מדיניות כזו?" כך תקבלו תשובה אובייקטיבית בלי לחשוף עמדות.
איך פועלים? נסחו שאלות כלליות, מחקו שיחות והשתמשו בצ'אט זמני או ב-Duck.ai. הימנעו ממשוב שמסמן שיחות לבדיקה אנושית.
מספרי זיהוי אישיים
מספר תעודת זהות, דרכון או רישיון נהיגה הם מפתח לגניבת זהות. תאריך לידה גם מסוכן.הימנעו מפרטים מדויקים, השתמשו בסיסמה חזקה ואימות דו-שלבי, ומחקו שיחות. השתמשו ב-Duck.ai או בצ'אט זמני.
סודות משפחתיים או סיפורים אישיים
צ'אטבוטים מרגישים כמו חברים, אבל סיפורים על סכסוכים משפחתיים או רגעים אישיים יכולים להיחשף.
חשבונות בנק ומידע פיננסי
אל תמסרו מספרי חשבונות, כרטיסי אשראי או פרטי השקעות בצ'אטבוטים. דליפה עלולה לשמש לפישינג וזה כבר קרה מספר פעמים.
תוכניות עתידיות רגישות
תוכניות כמו קניית דירה או החלפת עבודה עלולות לשמש לגורמי שיווק להגיע אליכם ויותר חמור להגיע לגורמים שינצלו זאת לרעה.
קבצים או תמונות עם מידע רגיש
אל תעלו תמונות דרכונים, חוזים או מסמכים משפטיים. מחקו שמות וחתימות מחוזה לפני שמעלים לניתוח
טיפים לשמירה על פרטיות
מחקו שיחות באופן קבוע: מחקו כל שיחה בסיומה. רוב החברות מוחקות נתונים תוך 30 יום, אבל DeepSeek שומרת אותם ללא הגבלה.
השתמשו בצ'אט זמני: הפעילו Temporary Chat ב-ChatGPT למניעת שמירה. השיחה לא תופיע בהיסטוריה ולא תשמש לאימון.
שאלו אנונימית: Duck.ai מעביר שאלות בעילום שם למודלים כמו קלוד, ללא שמירה.
כבו אימון נתונים: ב-ChatGPT, Copilot וג'מיני, השביתו שימוש בשיחות לאימון בהגדרות. בקלוד זה כבוי כברירת מחדל.
בדקו מדיניות פרטיות: ודאו שהצ'אטבוט מפרט כיצד נתונים נשמרים ומשמשים.
האם יש צ'אטבוטים ששומרים על פרטיות?
אין צ'אטבוט שהוא 100% בטוח, אבל כמה מציעים הגנות טובות יותר: Duck.ai: מעביר שאלות בעילום שם למודלים כמו קלוד ו-ChatGPT, ללא שמירה או אימון. מתאים לשאלות פשוטות, פחות לניתוח קבצים.
קלוד (Anthropic) לא משתמש בשיחות לאימון ומוחק נתונים לאחר שנתיים כברירת מחדל. מדיניות מחמירה הופכת אותו לבחירה טובה.
Grok (xAI): לא משתמש בשיחות לאימון, אבל עדיין כפוף לפרצות אפשריות.
צ'אטבוטים ארגוניים - גרסאות כמו ChatGPT Enterprise או כלים פנימיים של חברות מציעות הצפנה והגנות משופרות, אידיאליות לעבודה.
עם זאת, אפילו הצ'אטבוטים ה"פרטיים" לא חסינים מפני האקרים או טעויות אנוש.