למרות שהחבר'ה האלה כנראה לא אלה שנאבקים. קרדיט: ג'סטין סאליבן/Getty Images
בינה מלאכותית היא דרך העתיד. עם זאת, בכל הנוגע לניהול התוכן של פייסבוק, אנחנו עדיין מאוד בהווה.
כמעטבעל 2 מיליארד משתמשיםענקית המדיה החברתית פועלת בקצב זועם כדי לשנות זאת.
כסדרה שלשקופיות פנימיות של פייסבוק דלפומראה כיצד החברה מחליטה איזה תוכן מפר את הסטנדרטים הקהילתיים שלה מראה, פייסבוק המבוססת על מנלו פארק עדיין תלויה במידה רבה בעור ובעצמות של צוות תפעול הקהילה שלה כדי להחליט אילו פוסטים יישארו ואילו פוסטים יעברו.
במילים אחרות, למרות המאמצים של מנכ"ל פייסבוק, מארק צוקרברגלדחוף AIבכל הדברים, בני אדם עדיין שולטים בקצב מתינות התוכן. אבל זה משתנה.
פייסבוקהוכרז במרץשהיא תפעיל מערכת AI שנועדה לזהות משתמשים השוקלים התאבדות או פגיעה עצמית. ה-AI שלו משתמש בזיהוי דפוסים כדי לקבוע אם פוסט - וההערות הסובבות אותו - דומים לפוסטים קודמים שזוהו כמצביעים על סיכון להתאבדות. אם כן, משתמשי פייסבוק שיראו את הפוסט המדובר יראו גם בצורה בולטת יותר אפשרויות לדיווח על פגיעה עצמית.
חשוב לציין, בסופו של דבר, ההכרעה אם באמת או לאלַעֲשׂוֹתהדוח נותר בידי אנשים. ה-AI פשוט לא יכול לחתוך את זה לבד, אבל זה עוזר.
הבינה המלאכותית של פייסבוק משתפרת גם בקביעת מה יש בתמונות שאנו מפרסמים - גם אם אין טקסט או תיוג נלווה אליהן. החברהצוין בפברוארשכלי זיהוי התמונות מבוססי הבינה המלאכותית שלה מאפשרים למשתמשים לחפש בתמונות דברים כמו האם מישהו לובש חולצה שחורה או לא.
מהירות אור ניתנת לריסוק
ההתקדמות הללו - זיהוי מה יש בתמונות והערכת ניחושים מושכלים לגבי הכוונה מאחורי סוגים מסוימים של פוסטים - הם נכסים עצומים בכל הנוגע לסיוע לבני אדם לצלוח את האלימות, ההתעללות והאיומים המתפרסמים בפייסבוק על בסיס יומי. כפי שאישר דובר פייסבוקניתן למעוך, סיוע למנחים אנושיים היא כיום המטרה העיקרית של המערכות האוטומטיות של החברה.
אבל אם המערכות הללו יכולות לקבוע מה יש בתמונות, כמו גם את הכוונה האפשרית שמניעה פוסטים מסוימים, האם ניתן להשתמש בהן גם כדי לסמן ולהסיר את התוכן המטריד שפורסם באתר? כי יש הרבה מזה.לְפִיהגרדיאן, תוך חודש אחד בלבד ראו פייסבוק פרסום של 54,000 מקרים פוטנציאליים של סחיטה מינית ופורנו נקמה.
נכון להיום, נראה שהתשובה שלילית. יש כמה סיבות שבגללן זה יכול להיות המקרה, אבל דובר פייסבוק אישר שהמערכת האוטומטית של החברה לא מספיקה בכל הנוגע לגביע הקדוש של מתן תוכן: הבנת ההקשר.
ועדיין משתבש. קרדיט: ג'סטין סאליבן/גטי
עבור פייסבוק, ההקשר של פוסט חיוני בקביעה אם יש להסיר אותו מהאתר או לא. אבל זה אולי בחלקו בגלל שההקשר הוא כל כך, ובכן,קונטקסטואלי, שה-AI שלו מתקשה לבצע את השיחה - במיוחד כשההנחיות עצמן כל כך עכורות.
קח את הכללים על עצמךתכנים מיניים ואלימים. על פי מסמכי פייסבוק שהודלפו שהגיעו לידיהגרדיאן, שני פוסטים מטרידים מאוד יטופלו בצורה שונה על ידי צוות התפעול הקהילתי. זה לא בסדר לפרסם "#דקור ולהיות הפחד מהציוני", אבל זה בסדר לכתוב "ילדה קטנה צריכה לשמור על עצמה לפני שאבא ישבור לה את הפנים".
אם התגובה מקוונתהיא כל אינדיקציה, קשה לבני אדם להבין מדוע אחד מאלה בסדר והשני לא. הבינה המלאכותית כנראה לא מצליחה הרבה יותר.
הרצון של פייסבוק לשנות זאת ברור, והחברה כבר עושה צעדים להביא AI לניטור התוכן החזותי באתר.
"אנחנו חוקרים מערכות שיכולות להסתכל על תמונות וסרטונים כדי לסמן תוכן שהצוות שלנו צריך לבדוק", הסביר צוקרברג במכתב פתוח בפברואר. "זה עדיין מוקדם מאוד בפיתוח, אבל התחלנו להסתכל על תוכן מסוים, וזה כבר מייצר כשליש מכל הדיווחים לצוות שבודק תוכן עבור הקהילה שלנו."
האם ניתן ליישם את אותה רמה של אוטומציה של בינה מלאכותית אי פעם לניטור המילים שאנו מפרסמים וההקשר בו אנו מפרסמים אותן נותר לראות. אנחנו כן יודעים דבר אחד בוודאות: פייסבוק עובדת קשה כדי שזה יהיה כך.
בינתיים, אפילו עבור אחת מחברות הטכנולוגיה המשפיעות בעולם, זה עדיין תלוי בבני האדם.
פרנואידית מקצועית. מכסה פרטיות, אבטחה וכל מה שקשור למטבעות קריפטוגרפיים ובלוקצ'יין מסן פרנסיסקו.
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.