אצלנואוהב את האפליקציהסדרה, Mashable מאיר אור לתוך העולם המעורפל של היכרויות מקוונות.
אצלנו אוהב את האפליקציה סדרה, Mashable מאיר אור לתוך העולם המעורפל של היכרויות מקוונות. אחרי הכל זו עונת האזיקים.
"בשלב מסוים, הבוט ניהל אולי 200 שיחות בכל פעם... אני חושב שטינדר ידעה את זה והם אסרו אותי, כמובן, מהפלטפורמה."
זהו רוברט וינטרס, מתכנת מחשבים בבלגיה, שהוא רק אחד מני רבים שהשתמשו בסקריפטים שנעשו על ידי מתכנתים אחרים כדי לשחק בטינדר - אפילו יותר ממה שהאפליקציה כבר שימשה היכרויות.
הסקריפט לומד את ההעדפות שלך ברגע שאתה מזין אותו בנתונים, למשל החלקה בטינדר 100 פעמים. ניתן להוסיף גם התאמות אישיות, כגון תכנות הבוט לקיים שיחות עבורך. ברגע שהוא יודע מה אתה רוצה, הוא יכול בעצם להשתמש באפליקציות בשבילך. וינטרס השתמש בתוכנית בשםטינדרבוקס, שנקרא מאוחר יותר ברני AI, אבל יש הרבה אחרים - כגוןקובץ Github זה.
בדיוק עזבנו את העשור שהוליד את ההיכרויות בטלפונים שלנו. סבלנו מה שנקראאפוקליפסת היכרויותויצרהמילות באזז לכל איטרציה של חוסר התחשבותלמחזרים הפוטנציאליים שפגשנו באפליקציות. זה לא סוד שהרוב הזוגות נפגשים באינטרנט עכשיו, ושאפליקציות היכרויות שינו את האופן שבו אנו מוצאים אהבה.
עובדות אלו לבדן הובילו כמה אנשים לעקם את ידיהם ולהתאבל על דרכי הישן, כמו להיפגש בכנסייה או דרך חברים בעבודה. אבל אחרים אימצו את הנתיב החדש הזה ובחרו לדחוף אותו לקיצוניות עוד יותר על ידי שימוש בבוטים ובינה מלאכותית כדי לעזור להם למצוא את ההתאמה המושלמת שלהם.
פענוח הקוד
כשוינטרס החליט לשחק במערכת טינדר, הוא הורידקופסת טינדר, שנוצר על ידי המפתח ג'סטין לונג, כקוד המקור שלו. ג'פרי לי, שהוא כיום מדען נתונים ב- DoorDash, השתמש גם בקוד המקור של לונג כדי ליצור משלוטינדר אוטומציה. הוא הפך אותו לזמין לציבור ב-Github. לי ציין שתי סיבות לפיתוח הקוד בראיון עם Mashable: הוא רצה לפתח את כישורי מדעי הנתונים שלו, והוא רצה להשתמש בהם כדי לשפר בעיה בחייו - במקרה הזה, היכרויות מקוונות. הוא אמר שהוא משועמם מאפליקציות היכרויות, והתחייבות הזמן אליהן הייתה, לדבריו, מעצבנת.
"דיברתי עם הרבה חברות שהיו באפליקציות היכרויות, זה נוטה להיות מהמם עבורן", אמר. "עם זאת, בצד השני של זה, אם לבחור אין פרופיל מצוין, אתה נוטה לקבל צרצרים." לי אמר שהוא היה במחנה הזה - השקיע זמן באפליקציה אבל לא מקבל החזר על ההשקעה הזו.
"המקור של זה בא מהאמרה 'היי, אני רוצה לשפר את חיי ההיכרויות שלי, אבל איך אני יכול לעשות את זה בצורה הכי עצלנית שאפשר?'", אמרה לי.
כדי לפתח פתרון, הוא היה צריך להבין את האלגוריתם של טינדר. האלגוריתם (או המודל) זקוק לנתוני אימון - הוא צריך לדעת את העדפות המשתמש. מכיוון שלי לא החליקה ימינה בפרופילי טינדר רבים, לא היו מספיק נתונים. אז כדי לאסוף עוד, הואמְגוּרָדנתוני גוגל והשתמשו בתמונות של נשים שמצא אטרקטיביות כדי לעזור לאלגוריתם ללמוד את העדפותיו. בשלב זה, הדוגמן היה בררן ממנו. "זה למעשה ידחה חלק מהפרופילים שלמעשה חשבתי שהם בסדר", אמר.
השלב הבא היה להגדיר הודעה אוטומטית שהוא יכול לשנות בכל פעם שהוא מקבל התאמה. לי תכנת את הבוט שלו להיות שירות מיון, במובן מסוים. זה יעשה את ההחלקה, והוא היה מדבר. הוא הגדיר את הבוט ל-100 החלקות ביום והעריך שהוא אוהב 20 מהם. לי סייג כי לא היה לו "פרופיל טוב" באותה תקופה, כך שלא הייתה תשואת התאמה גבוהה. הוא העריך שיש לו בערך חמישה משחקים בשבוע.
בסופו של דבר לי לא פגש מישהו רציני שמשתמש בבוט, והוא אמר שזו חלק מהסיבה שהוא הפסיק להשתמש בו.
וינטרס, לעומת זאת, המשיך מהנקודה שבה הרעיון של לי הפסיק ולקח אותו עוד יותר רחוק. הוא תכנת את הבוט שידבר בשבילו. הוא עשה זאת באמצעותעצי שיחה, צ'אטים ראשוניים שילכו לאחד משני כיוונים, תלוי איך האדם מהצד השני הגיב. זה מה שבסופו של דבר הוביל לכך שוינטרס יודח מטינדר. (לדובר האפליקציה לא הייתה הערה, ובמקום זאת הפנה אותי אליההנחיות הקהילה.) אפליקציות לא שמחו כשמשתמשים ניסו "לפרוץ" את ה-API שלהם כך, וסביר להניח שהם לאלשנות את השקפתם בעתיד.
יש כאן הרבה מה לפרוק
שימוש בבינה מלאכותית ובבוטים כדי "לפרוץ" לאפליקציות היכרויות נשמע כמו חלום רטוב של עמק הסיליקון, ואולי הוא כן. אבל כמה זה גרוע מנקודת מבט אתית? יש כאן כמה חששות. האחד הוא הטיה לא מודעת (או מודעת!); האחד הוא גילוי; והאחד הוא אבטחת מידע.
הטיה היא אבעיה שמטרידה את מרחב הטכנולוגיה וה-AIבאופן כללי, לא רק אפליקציות היכרויות. אנחנו רק מתחילים לרפרף על פני השטח על איךהטיה מתבטאת באלגוריתמים של אפליקציות היכרויות, והניסיון לגרום לאלגוריתם לדבוק בהעדפותיך במידה מסוימת של דיוק נראה...בעייתי, בלשון המעטה.
"באופן כללי, למידת מכונה כבר יש הרבה פגמים והטיות", אמרה קרוליין סינדרס, מעצבת למידת מכונה וחוקרת משתמשים. "אז הייתי מעוניין לראות את התוצאות של החבר'ה האלה, אבל אני מתאר לעצמי שהם כנראה הגיעו להרבה פרצופים לבנים או קווקזיים" - כי זה עד כמה AI מוטה בכבדות. היא הצביעה על העבודה שלג'וי בוולאמוויני, שעבודתו במעבדת המדיה של MIT בוחנת כיצד מערכות שונות של זיהוי פנים אינן יכולות לזהות תכונות שחורות.
חשיפה יכולה גם להוות בעיה. איך תרגישי לדעת שהאדם שאיתו פגעת בטינדר או בציר באמת גרם לבוט שלו לדבר בשבילם? שימוש באפליקציות היכרויות, בדיוק כמו היכרויות באופן כללי, דורש התחייבות מסוימת. זה מה שהניע את לי לכתוב את התסריט שלו מלכתחילה. אז איך מישהו ירגיש אם הוא היה לוקח את הזמן כדי לשפר את הפרופיל שלו, להחליק או "לייק" או מה יש לך, ליצור הודעה ראשונה שנונה - כל זאת בזמן שהאדם איתו הוא מדבר הוא בעצם בוט?
סינדרס גם ציין את בעיות האבטחה הפוטנציאליות באיסוף נתונים על מנת להשתמש בסקריפטים אלה. "כמשתמש, אני לא מצפה ממשתמשים אחרים לקחת את הנתונים שלי ולהשתמש בהם מהפלטפורמה בדרכים שונות בפרויקטים טכנולוגיים ניסיוניים בכלל, אפילו בפרויקטים אמנותיים", אמרה.
זה גם לא הולם במיוחד, אספה סינדר, מכיוון שהנתונים משמשים ליצירת למידת מכונה. "זוהי אבטחה ופרטיות, בעיה טכנולוגית בהסכמה", אמרה. "האם המשתמשים הסכימו להיות בזה?"
הבעיות הקשורות בשימוש בנתונים של אנשים בדרך זו יכולות, לפי סינדרס, לנוע בין שגרתי לזוועה. דוגמה לראשון תהיה לראות תמונה שלך באינטרנט שמעולם לא התכוונת להיות מקוון. דוגמה לאחרון תהיה שימוש לרעה על ידי עוקב או מנציח אלימות במשפחה.
Mashable After Dark
עוד כמה חששות
אפליקציות היכרויות עשויות להיראות כמו ברכה לאנשים עם חרדה חברתית, מכיוון שהן מסירות לחץ רב של IRL. לדברי Kathryn D. Coduto, מועמדת לדוקטורט באוניברסיטת אוהיו סטייט החוקרת את ההצטלבות בין טכנולוגיה לתקשורת בין אישית, עם זאת, ההשקפה הזו על אפליקציות עשויה להיות עמוסה. קודוטו הוא מחבר המשותף של המאמר"החלקה לצרות: שימוש בעייתי ביישומי היכרויות בקרב אנשים מבולבלים מבחינה פסיכו-חברתית והדרכים לתוצאות שליליות,"אשר צופה כיצד אפליקציות עלולות להזיק לבריאות הנפשית של חלק מהמשתמשים.
אפליקציות יכולות לאפשר למישהו עם חרדה להרגיש יותר שליטה על יכולת ההיכרויות שלו - הם בוחרים איך הם מציגים את עצמם, עם התמונה והביוגרפיה שלו וכדומה. אבל מה קורה כששימוש באפליקציות הוא חסר תועלת כמו הניסיון לפגוש אנשים בחיים האמיתיים? "אם אתה עדיין לא מקבל גפרורים, זה כנראה כואב יותר," אמר קודוטו.
קודוטו בחן את קובץ Github של לי ותהה אם ייתכן שהחרדה שיחקה ביצירתו. "הרעיון של 'לא באמת קיבלתי התאמות שאני רוצה אז אני הולכת ליצור מערכת שלמה שתחפש אותי ואז אם זה לא עובד, כאילו זה לא עליי'", אמרה.
"זה דבר מפחיד שיכול לקרות עם אלה עם אפליקציות היכרויות, הפחתת אנשים לנתונים", אמר קודוטו. "הדבר הגדול עם GitHub [של לי] הוא שהאנשים האלה הם נקודות נתונים שאולי אתה נמשך או לא נמשך אליהן. והעובדה שזה אפילו מוגדר להגיד, 'אה, הנה התאמה באחוזים, כמו כמה סביר שתאהבו אותם'".
צילום מסך של תיאור התסריט של Github של לי קרדיט: ג'פרי לי
"מרגיש קצת מבולבל," אמר קודוטו.
היא גם לא הייתה רגועה לגבי הרעיון ש"השותף המושלם" קיים - ושאתה יכול פשוט למצוא אותם עם AI. אם אתה רוצה שהשותף שלך ייראה בדיוק כמו סקרלט ג'והנסון, למה שלא תשתמש בתדמית שלה כדי ללמד את הבוט שלך את ההעדפה המדויקת הזו? "אם אתה בונה את זה ולא מוצא את זה ואתה מתחיל להרגיש רע עם עצמך," אמר קודוטו, "אז תגרום לבוט לעשות את זה ואולי זה ירגיש טוב יותר."
סוג אחר של בוט
שיין מאק, יזם ומייסד שותף של פלטפורמת שיחהלַעֲזוֹר, נאלץ להתמודד עם השאלה הזו בעת השימוש בבוט שהוא יצר. ניתן להשתמש בבוט עם אפליקציות היכרויות כמו הקוד של לי, אבל זה שונה לגמרי. מק תיאר את יצירתו עלהפודקאסט First Contact של כתבת הטכנולוגיה לורי סגל, ובהמשך בראיון עם Mashable.
Mac יישם גישה שונה לחלוטין, ללא העדפות למידה של בוט עם תמונות של סקרלט ג'והנסון. "מה אם זה יותר על המחשבות והמילים והשפה ולא על המבטים?" אמר מאק.
בעיניו, עיקר אפליקציות ההיכרויות לא היו תמונות, אלא שיחות. השגת התאמה היא דבר אחד, אבל מה שקורה לאחר ההחלקה הוא כולו שיחה: ההודעה הראשונה, אולי מבוססת על תמונה או ביוגרפיה, ולאחר מכן הודעות הלוך ושוב. הכל היה עניין של שפה.
מה שכן, אפליקציות היכרויות החלו להתרחק מהמודל של החלקה אינסופית אל הריק. Hinge, שסירבה להגיב על הסיפור הזה, נמצאת בחזית של זה - ומק השתמש במקלדת הזו עם Hinge - אבל יותר מתחילים להופיע ב-App Store ובשיחות. דוגמה אחת היאלִקְפּוֹץ, אפליקציה שמאפשרת החלקה רק למשך 15 דקות בכל פעם, ואתה חייב להיות זמין לדייט באותו לילה.
Mac לא פיתח קוד ליישם עם אפליקציית היכרויות כדי לבצע את ההחלקה עבורו. במקום זאת, הוא פיתח מקלדת שאפשר להתקין על האייפון שלהם. חשבו על מקלדת בשפה אחרת או על מקלדת Bitmoji; אתה פשוט עובר אליו בזמן ההקלדה. "אני מאמין שזה בלתי נמנע שלכולם יש עוזר שיעזור להם לכתוב", אמר. "זה כבר קורה. זה בפניםGmail. זה בפניםדקדוקית."
"אני רוצה שלושה אנשים שהם נהדרים שאוכל לדבר איתם."
מאק אמר שהבעיה עם אפליקציות היא לא שצריכים להיות יותר חיבורים, וזה מה שה-Github של Li עוקב אחר ואחרים כמוהו התכוונו לעשות. הפתרון הוא למעשה פחות חיבורים - מכוונים יותר. "אני לא רוצה להיות בתיבת דואר נכנס של 50 אנשים שמדברים ושולחים עוד הודעות", אמר. "אני רוצה שלושה אנשים שהם נהדרים שאוכל לדבר איתם."
אבל האם שלושת האנשים האלה רוצים בוט שידבר איתם? מאק אמר שהוא מוביל עם זה, כי זה מתחיל לשיחה, אבל הוא תיאר מקרה אחד שבו הדייט שלו נעלב מהקונספט. זה היה דייט שני עם אישה שעבדה באפליקציית היכרויות גדולה - אבל הם הכירו דרך חברים - וכשהוא הראה לה את המקלדת, היא נרתעה כל כך שהיא יצאה.
"היא כל כך נעלבה, וכל כך כועסת עליי", אמר. לדברי מאק, היא אמרה שהבוט ישמש כדי לתמרן אנשים. הם לא דיברו שוב.
במקרה של וינטרס, אישה אחת שפגש דרך הבוט שלו חשבה שזה רעיון מעניין, וזה ממש ריגש אותה. "היא הייתה מאוד מגניבה לגבי זה, אבל אני יכול לדמיין שכמה אנשים ייעלבו", אמר.
העתיד של היכרויות עם AI
עבור Mac, אלה בוטים כמו המקלדת שלו ולא קודים כמו של לי שהם העתיד של היכרויות. "אל תחשוב על זה אפילו כעל בוט," הוא אמר. "תחשוב על זה בתור חבר שלך שהוא השוער שלך שימצא לך דייט. יָמִינָה? זה העתיד."
במבט קדימה, בוטים של קונסיירז' יעזרו לנו למצוא אהבה - ובאופן רחב יותר, לפתור את הבעיות שלנו באופן כללי. לפחות לפי מאק. "זה הולך להיות דבר יותר דמוי קונסיירז' שעוזר לך כנראה להיות גרסה טובה יותר של עצמך אבל אז זה עוזר לך להתאים טוב יותר עם מישהו אחר", אמר.
זה מוביל לשאלות נוספות במונחים של חשיפה ואתיקה. אם לכולם יש בוט, מתי מתגלה שהם אלה שמדברים אחד עם השני? מה האתיקה של שיחות בוט לבוט? ברור שאין לנו עדיין את התשובות לשאלות האלה, אבל אלה יהיו בראש אם - או מתי - הטכנולוגיה הזו תיושם עוד יותר.
מה האתיקה של שיחות בוט לבוט?
סינדרס אמרה שלדעתה, יש לחשוף את כל הבוטים, אבל אחד כמו זה של מק יכול להיות מאוד מועיל במיוחד לאנשים ביישנים או עם חרדה. "זה יכול להיות קשה להתחיל שיחה", אמרה. "אז שיש לי מקלדת שנותנת למישהו הנחיות אין לי באמת בעיה איתה."
יש גם את החשש שהטכנולוגיה הזו עלולה להיגמר כמוהטיי, הבוט של מיקרוסופטשטוויטר לימד לפלוט שפה גזענית תוך פחות מיממה. אבל, הסביר מאק, זה לא בדיוק העתיד של למידת מכונה. במקום זאת, הבוט ילמד את האדם להיות יותר אמפתי, יותר סקרן - פשוט אדם טוב יותר באופן כללי. הוא רואה בעיני רוחו שלבוט יש מסנן, שאומר למשתמשים שלו מה מועיל לעומת מזיק.
זמן קצר לפני הראיון של מאשבל עם מאק, הוא צייץ שכןמחפש מישהו שישתלט על המקלדת. הוא הרחיב על כך באומרו שאין לו זמן לתחזק את זה בעצמו, ורוצה שמישהו נלהב לדייט ישתלט על זה. "יש לי את המומחיות הטכנולוגית לעזור להם", אמר.
לפי הדיווחים הוא כבר זכה להתעניינות, אז אולי נשתמש במקלדת עד היום מוקדם ממה שחשבנו.
אז האם עלינו להמר על בוטים להחליק לעת עתה?
קודוטו לא רצתה לעשות "דמוניזציה" של בוטים לחלוטין, אבל היא מצאה היסוס למצוא אהבה באפליקציות בקרב האנשים שהיא ראיינה - למרותהסטיגמה על היכרויות מקוונות פוחתת- זה עשוי להיות מונצח על ידי הטכנולוגיה הזו. היא המשיכה, "יש עדיין כמיהה לחיבורים טבעיים באמת, להיפגש דרך חברים, להיפגש דרך הסביבה שלך."
קודוטו אמרה שביציאה מהמחקר שלה, רוב האנשים לא מוכנים לנוף של אפליקציות היכרויות כמו של לי או ווינטר. "אנחנו בתקופה שבה אנשים מאוד רומנטיים, בין אם הם רוצים להודות בזה ובין אם לאו", אמרה. היא אמנם אמרה שהבוט של מאק נראה קרוב יותר למה שאנשים יהיו נוחים להשתמש בו, אבל עדיין יש התנגדות למסור את הגורל הרומנטי שלך למכונה.
עדיין יש התנגדות למסור את גורלך הרומנטי למכונה.
לי עצמו היה אמנם דובי לגבי הטכנולוגיה הזו; זו הסיבה שהוא לא תכנת את הבוט לדבר בשבילו. "בעצם רציתי לראות אם יש קשר בעצמי", אמר. "וקצת קשה לבינה מלאכותית לאמוד באמת כמה טוב החיבור הזה."
עם זאת, הוא הגיב שזה עשוי להשתנות בעתיד עם פיתוחים נוספים של AI. אבל לעת עתה לי לא פגש מישהו רציני שמשתמש בבוט, והוא אמר שזו חלק מהסיבה שהוא הפסיק להשתמש בו.
וינטרס וחברתו. קרדיט: באדיבות רוברט וינטרס
לסיפור של וינטרס יש סוף יותר מוכן ל-rom-com. הבוט שלו למעשה התאים ודיבר עם חברתו הנוכחית בטינדר - לפני שהוא נאסר. אבל לא כך הם בעצם התחילו לצאת. הם נפגשו באופן אישי, במסיבה, כמה חודשים לאחר מכן.
עדכון: 5 בפברואר 2020, 13:34 בצהרייםגרסה קודמת של מאמר זה קבעה כי Winters השתמש בקוד מקור שנוצר על ידי ג'פרי לי. הוא למעשה השתמש בקוד שנוצר על ידי ג'סטין לונג, וכך גם לי. המאמר נערך כדי לשקף את התיקון.
אנה איובין היא עורכת שותפה של תכונות ב-Mashable. בעבר, ככתבת מין ומערכות יחסים, היא סיקרה נושאים החל מאפליקציות היכרויות ועד כאבי אגן. לפני Mashable, אנה הייתה עורכת חברתית ב-VICE והייתה עצמאית עבור פרסומים כמו Slate ו-Columbia Journalism Review. עקבו אחריה ב-X@annaroseiovine.