הנה עצה טובה ואוניברסלית: אל תשתף מידע סודי עם אAI צ'אטבוט.
אם אתה לא מאמין לי, אז קח את זה מגוגל, אחד התומכים הגדולים ביותר של AI והיוצר של צ'טבוט AI משלו, בארד.
על פי דיווח חדש מרויטרס, חברת האם של גוגל Alphabet הזהירה את העובדים מפני שימוש בצ'אטבוטים של AI, כולל בארד. לעובדי גוגל הומלץ במפורש שלא לשלוח כל מידע סודי לבארד או לכל צ'אט בוט אחר של AI.
מהירות אור ניתנת לריסוק
משתמשים שלChatGPT, בארד או צ'אטבוטים אחרים של AI לא יבינו שהשיחות שהם מנהלים עם חברם החדש ל-AI לא נשארות רק בצ'אט. חברות בינה מלאכותית מאחסנות את התוכן של הצ'אטים האלה. לחברות אלה יש עובדים אנושיים שיכולים לגשת ולסקור את ההודעות שנשלחות בין המשתמשים לצ'טבוט ה-AI שלה.
בנוסף, יש לחוקריםנמצאשמודלים של שפות בינה מלאכותית מתאמנים לעתים קרובות על הנתונים המוגשים להם. המטרה של זה היא שהצ'אטבוט של AI "ילמד" כיצד לשרת טוב יותר את המשתמש, אבל זה יכול גם לגרום לכך שצ'אטבוטים של AI ישתפו את המידע שנשלח על ידי משתמש אחד בשיחות שלו עם משתמשים אחרים. גם OpenAI, היוצר של ChatGPT הפופולריאומר למשתמשיםבאתר האינטרנט שלה שהיא "עשויה להשתמש בנתונים שאתה מספק לנו כדי לשפר את המודלים שלנו."
גוגל לא רק מייעצת לעובדים שלה לגבי בעיות פרטיות אפשריות בעת שימוש בצ'אטבוטים של AI, אלא היא מזהירה גם את המשתמשים שלה - אם כי ההודעה לא כל כך קלה למצוא.
החברהמְעוּדכָּןדף הודעת הפרטיות של Bard באתר התמיכה של Google מוקדם יותר החודש כדי לכלול את המידע הבא, המודגש כולו: "נא לא לכלול מידע שניתן להשתמש בו כדי לזהות אותך או אחרים בשיחות בארד שלך."
המבצעים הטובים ביותר לקורס AI המקוון