אתה יכול להילחם נגד האלגוריתמים. קרדיט: בוב אל-גרין / mashable
הסדרה של Mashable אלגוריתמים חוקר את שורות הקוד המסתוריות ששולטות יותר ויותר בחיינו - ובעתידנו.
אלגוריתמים לעצב את חיינו, חלקם בעדינות יותר מאחרים.
מִןאפליקציות היכרויות, לעדכוני חדשות, לנְהִירָהולִרְכּוֹשׁהמלצות, התרגלנו לדחיפה עדינה על ידי ערכות הוראות בלתי נראות, שנוצרו בעצמן על ידי בני אדם ללא שם או מכונות אטומות. אבל יש צד אחר, לא כל כך עדין לאופן שבו אלגוריתמים משפיעים עלינו. צד שבו הדחיפה חזקה יותר, וההשלכות מתמשכות יותר משיר לא לרוחכם, מוצר שכנראה לא הייתם צריכים לקנות, או אפילו דייט שנפל.
זיהוי פנים מוביל למעצרים לא חוקיים. קוראי לוחיות רישוי אוטומטיים וכתוצאה מכך ילדים מוחזקים באיומי אקדח. תוכנה אטומה שמכפילה את אורך עונשי המאסר על פשעים קלים.
לאלגוריתמים יש את הכוח להניע כאב ודיכוי, בקנה מידה, ואם לא יהיה מאמץ שיטתי מכוון לדחות לאחור, ההסתמכות ההולכת וגוברת שלנו על קבלת החלטות אלגוריתמית רק תוביל אותנו בהמשך הדרך האפלה.
למרבה המזל, יש אנשים שעושים בדיוק את זה, והם מוכנים שתצטרף למאבק.
סרטון קשור: איך אלגוריתמים עובדים
הבא: פשע
איך מתווכחים עם אלגוריתם?
עבור רבים השזורים במערכת המשפט הפלילי בארה"ב, זו לא שאלה תיאורטית. ככל שהחברה נעשית יותר ויותר נוחה להעביר את קבלת ההחלטות שלה במיקור חוץ בנושאים קטנים יחסית כמו המלצות לארוחת ערב או הוראות נהיגה, בתי המשפט ומחלקות המשטרה ברחבי הארץ כבר נכנסו לתמונה.
תחומי השיטור החזוי והערכת סיכונים פליליים מסתמכים שניהם על מערכי נתונים מסיביים כדי לבצע הערכות מושכלות בתקווה לגבי האם אנשים יבצעו פשע בעתיד. הערכות אלו מביאות בחשבון את גזר הדין הפלילי על ידי שופטים, ויכולות להאריך את משך עונשי המאסר אפילו על פשע בעל סיכון נמוך יחסית. מקרה אחד כזה,דווח על ידי ProPublica בשנת 2016, הראה כיצד אדם מוויסקונסין שהורשע בגניבת מכסחת דשא הוכפל אורך עונש המאסר שלו - משנה לשנתיים - לאחר שתוכנת הערכת סיכונים העניקה לאיש ציון רצידיביזם גבוה.
בתחקיר שפורסם השבוע, הטמפה ביי טיימסנחשףשהמשטרה במחוז פאסקו, פלורידה, מסתמכת על אלגוריתם כדי לנסות לחזות מי צפוי לבצע פשעים. לפי הדיווחים, רשויות אכיפת החוק מטרידות אותם אנשים ללא הפוגה.
"עבריינים פוטנציאליים מזוהים לראשונה באמצעות אלגוריתם שהמחלקה המציאה שנותן לאנשים ציונים על סמך הרישום הפלילי שלהם", מדווחפִּי. "אנשים מקבלים נקודות בכל פעם שהם נעצרים, גם כשהאישומים בוטלים. הם מקבלים נקודות רק על היותם חשודים".
למרבה הצער, מומחי משפט פלילי ובינה מלאכותית מתעקשים שהנתונים המוזנים למודלים האלגוריתמיים המניעים את כלי הערכת הסיכונים הללו מלאים בהטיה - בעצמם מייצרים תוצאות מוטות שיש להן פוטנציאל להרוס חיים אמיתיים בתהליך. ללא קשר לשאלה אם אלגוריתם מוטה מוכח, ניתן להשתמש בו באופן לא הולם. במקרה של משטרת פאסקו, מטרתם כביכול הייתה להטריד אנשים עד כדי כך שהם זזו.
"אין פתרון טכני שיכול ליצור כלי הערכת סיכונים חסר פניות".
AI עכשיוהוא ארגון מחקר ומדיניות, שנוסד ב-2017 ומבוסס באוניברסיטת ניו יורק, הבוחן את "ההשלכות החברתיות של בינה מלאכותית". ב אנייר 2019בהתמקדות בהשפעת הפרות זכויות האזרח על שיטור חזוי, AI Now הדגישה 13 תחומי שיפוט בארה"ב שפיתחו מודלים של שיטור חזוי "בזמן שבמסגרת חקירות ועדות ממשלתיות או בית משפט פדרלי עקבו אחר התנחלויות, גזירות הסכמה או תזכירי הסכם הנובעים ממושחתים, מוטים גזעיים, או שיטות שיטור בלתי חוקיות בדרך אחרת".
במילים אחרות, הנתונים שהוזנו למערכות היו בעצמם תוצר של הטיה גזעית.
"בהתחשב בכך שהאלגוריתמים הללו מאומנים על נתוני שיטור מוטים מטבעם, ונפרסים בתוך הקשרים שהם במובנים רבים גזעניים ברמה מערכתית - אין פתרון טכני שיכול ליצור כלי הערכת סיכונים חסר פניות", הסביר.AI עכשיועמית טכנולוגיהורון מאתורדרך המייל. "בעצם, עצם התכנון והתפיסה של כלי ההערכה הללו מבקשים לחזק עוד יותר מערכות כאלה, מה שמוביל אותן להיות מוטות באופן בלתי הפיך כלפי אוכלוסיות שכבר שוללות".
ההטיה הגלומה בכלים להערכת סיכונים הפכה חמורה במיוחד במהלך התקופהנגיף קורונהמגפה. כמו פקידים להחליט איזהאסירים לשחרר מוקדםבמאמץ למנוע התפרצויות בכלא, לאלגוריתמים המנבאים את שיעורי החזרה של אסירים יש את הפוטנציאל להחליט מי חי ומי ימות.
במרץ השנה, התובע הכללי, וויליאם בר, הורה ללשכת בתי הסוהר להביא בחשבון אסיריםתַבְנִית(כלי להערכת אסירים מכוון לסיכון וצרכים משוערים) - כלי להערכת סיכונים מופעל על ידי אלגוריתם - בהחלטה אם להעביר או לא להעביר אסירים לכליאה בבית בזמן שנגיף הקורונה מתגבר על המדינה.
ציון PATTERN גבוה מדי, ותבשיל בכלא זה בשבילך.
מנהל הלשכה הפדרלית לבתי הכלא, מייקל קרבחאל, משמאל, מושבע בפני דיון בוועדת המשפט של הסנאט ביוני על כליאה במהלך COVID-19. קרדיט: ERIN SCOTT / getty
השותפות בנושא AI, ארגון מבוסס סן פרנסיסקו שנוסד בסוף 2016, פועל (בין היתר) "לקדם את ההבנה הציבורית של AI".אליס שיאנג, ראש מחקר ההוגנות, השקיפות והאחריות של השותפות בנושא בינה מלאכותית, הסביר במייל שיש סיבה לדאגה מהטיה בכלים להערכת סיכונים - במיוחד עכשיו.
"כפי שמודגש בדו"ח משפט פלילישחררנו בשנה שעברה ו- anתקציר הנושאלגבי השימוש בכלי הערכת סיכונים PATTERN בתגובת COVID הפדרלית, רבים מהצוות והשותפים שלנו מודאגים מההטיה והדיוק הקשורים לשימוש בכלים להערכת סיכונים במערכת המשפט הפלילי", כתב שיאנג.
בהמשך לכך, שיאנג הסביר ש"השקפת הקונצנזוס בדו"ח שלנו הייתה שאין להשתמש בכלים הללו בהקשר של קדם משפט כדי להפוך החלטות שחרור לאוטומטיות".
גם Mathur של AI Now וגם השותפות על Xiang של AI רואים באוכלוסייה מושכלת וקולנית מרכיב מרכזי במאבק לעתיד אלגוריתמי צודק ושוויוני יותר.
"כצרכנים של מערכות בינה מלאכותית, עלינו לשאול את המפתחים שמאחורי מוצרי בינה מלאכותית כיצד הם אוספים את הנתונים שלהם, וכיצד האלגוריתמים שלהם מפותחים", הסביר שיאנג. "קל לחשוב על מערכות בינה מלאכותיות כאובייקטיביות בלבד, אבל המציאות היא שהן שילוב של החלטות אנושיות רבות."
מאתור לקח את זה צעד אחד קדימה, וציין שה"הוגנות" כביכול של אלגוריתם היא באמת מעבר לעניין.
"אנחנו דוחפים נגד כלי הערכת סיכונים מוטים, לא רק על ידי שואלים אם התפוקה החישובית שלו 'הוגנת', אלא על ידי שואלים כיצד כלים כאלה מחזקים או הופכים את דינמיקת ההספק הספציפית במקום", כתב. "הפעולה הזו מספקת אמצעי לקהילות ולאנשים אמיתיים לנהל את השיחות הדרושות והקריטיות שיכולות להוביל לפעולות מוחשיות להתקדם".
מפתח ברגים במכונה
עוד בשנת 2018, אם החלטתם ללכת לכמה קניונים פופולריים במחוז אורנג', קליפורניה, עצם השימוש במגרשי החניה שלהם יכול היה להכניס אתכם לרדאר של המשטרה המקומית. הבעלים של הקניון, חברת אירווין, ללא ידיעתכם, באותה עתעבד עם Vigilant Solutions- חברת מעקב פרטית שמוכרת נתונים לרשויות אכיפת החוק.
בזמן שנסעת למגרש החניה, קורא לוחיות רישוי אוטומטי (ALPR) ירשום את הגעת המכונית שלך. הוא אחסן את זמני ההגעה והעזיבה שלך, והוסיף את המידע הזה למסד נתונים הולך וגדל, שבתורו שותף עם Vigilant Solutions, והועמד לרשות המשטרה. חברת Irvine אספה נתוני ALPR עד יולי 2018, אז ה-Electronic Frontier Foundation (EFF), קבוצת זכויות דיגיטליות ללא מטרות רווח,קרא את זה על התרגול.
ALPR רכוב על ניידת משטרה. קרדיט: סוזן קרייטר/גטי
אפילו כשחברת אירווין הפסיקה לאסוף נתוני לוחיות רישוי כדי לתת למשטרה, ה-ALPR עדיין פזורים בערים שונות בקליפורניה. אם אתה נוסע ברחבי הנטינגטון ביץ', למשל, אתה חולף על פני יותר ALPRs - שחלקם גם בבעלות Vigilant Solutions לפיאטלס המעקב של EFF- מה שיכול להיותשיתוף נתוני המיקום שלךעִם קֶרַח. רוב סוכנויות אכיפת החוק בקליפורניה משתמשות ב-ALPR - לעתים קרובות מקובעות לעמודי תאורה או על כלי רכב - וכמה עושות זאת מבלי לפעול לפי חוקי המדינה שנועדו להגן על פרטיותם של אנשים, על פידו"ח פברוארעל ידי מבקר המדינה.
Mashable Top Stories
טיול תמים ברחבי העיר עשוי לתרום לסוג של מעקב המוני הנתמך באלגוריתם שמשתלט על ארצות הברית, תוך שהוא גובה קורבנות מהחיים האמיתיים בתהליך.
זה לא תיאורטי. בתחילת אוגוסט, משפחה שחורה - כולל ארבעה ילדים כולם מתחת לגיל 17 - הייתההוחזק באיומי אקדחעל ידי המשטרה באורורה, קולורדו. הפנים למטה במגרש חניה לוהט, חלקם אזוקים, הילדים זעקו לעזרה.
אף אחד, מלבד המשטרה, לא עשה שום דבר רע.
ייתכן שהציוץ נמחק
הנושא,משטרת אורורה טענה מאוחר יותר, הייתה שגיאה במערכת ה-ALPR שלהם. זה בלבל את רכב השטח של המשפחה עם אופנוע גנוב מחוץ למדינה. המשטרה התעלמה מחוסר העקביות הברור ושלפה את הרובים בכל מקרה. המפגש המשטרתי המתסכל של משפחת בלאק הגיע בתקופה של התמקדות מוגברת בגזענות מערכתית במשטרה האמריקאית.
מערכות ALPR, שנועדו לקרוא במהירות כל לוחית רישוי אחת שעוברת בשדה הראייה שלהן,תלויאלגוריתמים ולמידת מכונה כדי לתרגם את התמונות שנלכדו לתווים הניתנים לקריאה במכונה. וכן, לפיקייט רוז, חוקר אבטחה ומייסד קו האופנה פרו-פרטיותאופנה יריבות, הם עושים טונות של טעויות.
"הספציפיות של מערכות אלו נמוכה מכיוון שהן נועדו לבלוע אלפי צלחות בדקה במהירויות גבוהות, כך שהן יכולות לקרוא דברים כמו שלטי חוצות או אפילו גדרות כלונסאות בטעות", כתבה בדוא"ל.
האיומים שמציבים ALPR, לדברי רוז, הם רב-גוני.
"בנוסף לשימוש בנתונים האלה כדי לעקוב ולהטיל אימה על חברי הקהילה שלנו", היא כתבה, "הנתונים האלה מפורטים ורגישים עבור כל אדם שמכוניתו רשומה, ויוצרים מפה מפורטת ביותר של כל מקום שמכוניתך נראתה, עם מיקומים. וחותמות תאריך וזמן."
אז רוז החליטה לעשות משהו בנידון. היא עיצבה והוציאה ליין בגדים שבאמצעות הדוגמאות המודפסות עליו, מרמה את ה-ALPR לקרוא חולצות ושמלות כלוחיות רישוי. זה, למעשה, מחדיר נתוני "זבל" למערכת.
במילים אחרות, פשוט ללבוש את אחד מהעיצובים שלה הוא חלק מחאה נגד מעקב, וחלקו אקטיביזם פרטיות.
זיהום זרם המעקב. קרדיט: אופנה יריבה
"אני מקווה שאם תראה באיזו קלות אפשר לרמות את ה-ALPR רק עם חולצת טריקו, שאנשים יוכלו לקבל הבנה טובה יותר של איך המערכות האלה עובדות ומדוע יש צורך בפיקוח ורגולציה כדי להגן על הציבור", הסבירה רוז. "ALPRs הן אחת המערכות שאנו מחשיבים למערכות 'תלויות בטיחות' כמו לאכיפת חוקי בטיחות בתעבורה מסוימים וגביית אגרה. לכן מחובתנו לציין היכן הן יכולות וככל הנראה כבר נתונות לטעויות וניצול".
"אנשים פשוט יסתדרו עם תרבות המעקב עד שאחרים ידחקו".
ככל שיותר ויותר חברות מתחילות למכורתוכנה לא יקרהשיכול להפוך את המצלמה של כל אחד ל-ALPR עבור5 דולר לחודש, הצורך ברגולציה ופיקוח ALPR רק גדל.
למרבה המזל, ישנן דרכים רבות להילחם בחזרה - ואתה לא צריך להשיק קו אופנה משלך כדי לעשות זאת. רוז המליצה לברר באיזו טכנולוגיית מעקב נעשה שימושהקהילה שלך. ניתן גם ליצור קשרפרק ACLU המקומי שלךכדי לברר באילו מאמצי פרטיות הם מעורבים כרגע, ואל תחששו ליצור קשרהמחוקק שלך.
באופן כללי, רוז אמרה שאם מצב מעקב המופעל באמצעות אלגוריתם הוא לא הקטע שלך, אתה לא צריך לפחד לדבר ולהמשיך לדבר.
"תנו עמדה אם השכונה שלכם או HOA מנסים ליישם קוראי לוחיות רישוי כדי לעקוב אחר התושבים והאורחים שלהם, ולהגדיר אחרים כבלתי רצויים או זרים", התעקשה רוז. "אנשים פשוט ילכו יחד עם תרבות המעקב עד שאחרים ידחפו ויזכירו להם שלא רק שזה לא נורמלי ומאוד פולשני, זה לא יעיל כמו בניית תרבות של אמון ותמיכה בין שכנים".
מה יש בפנים
הפנים שלך מנוצלות נגדך.
זיהוי פניםהוא אמְשׁוּחָדטכנולוגיה שמזינה את הדיכוי שלאֶתנִימיעוטים, ותורם ישירות למעצר שלתָמִים אֲנָשִׁיםבארה"ב וללא ידיעתם, מיליוני אנשים מילאו תפקיד בלתי מודע בכך שזה יקרה.
על הפרק הם מערכי הנתונים שהם דם החיים של אלגוריתמים לזיהוי פנים. להכשיר את המערכות שלהם, חוקרים ותאגידיםצריך מיליוני תמונות של פרצופים של אנשים שמהם התוכניות שלהם יכולות ללמוד. אז אותם חוקרים ותאגידים מסתכלים לאן שכולנו נראים כיום: האינטרנט. הרבה כמוClearview AIידוע לשמצהגרד את פייסבוקכדי שתמונות משתמשים יוכלו להפעיל את תוכנת זיהוי הפנים הקניינית שלה, חוקרים ברחבי העולם גירדו אתרי שיתוף תמונות וזרמי וידאו חיים כדי לספק את חומר הגלם הדרוש לפיתוח האלגוריתמים שלהם.
אדם הארווי, חוקר ואמן פרטיות וראיית מחשב מברלין, ניסח זאת בתמציתיות.
"[אם] אתה מגביל את שרשראות אספקת המידע של בינה מלאכותית", הוא הסביר במייל, "אתה מגביל את הצמיחה של טכנולוגיות מעקב."
הארווי, יחד עם משתף הפעולה שלו ג'ולס לפלס, יצר ותחזקמגה פיקסל- "פרויקט אמנות ומחקר שחוקר את המקורות ונקודות הקצה של מערכי נתונים ביומטריים שנוצרו 'בטבע'".
מערכי הנתונים המוצגים ב-MegaPixels מדגימים את האופן האטום המובהק שבו הפנים שלך עלולות להוות מרכיב מפתח באלגוריתמים מעיקים לזיהוי פנים.
בסוף 2014, המכבסה של סן פרנסיסקו שנסגרה כעת ומקום המיקרופון הפתוח Brainwash Cafe (הסופר הזה נהג לכבס את בגדיו שם) הזרימה וידיאו של לקוחותיה לרשת. חוקרי זיהוי פנים של סטנפורד ראו בכך הזדמנות, והשתמש בסרטון השידור החיגם "לאמן ולאמת את יעילות האלגוריתם שלהם."
מערך הנתונים שהתקבל, המכונהמערך נתונים של שטיפת מוח, מכיל 11,917 תמונות עם "91146 אנשים מתויגים." כפי שהארווי ולפליס מצייניםמגה פיקסל, מערך הנתונים הזה שימש את החוקרים בסיןהאוניברסיטה הלאומית לטכנולוגיה של הגנה, ו"מופיע גם ב-aעבודת מחקר משנת 2018מזוהה עם Megvii (Face++)... שסיפקטכנולוגיית מעקבלפקח על מוסלמים אויגורים בשינג'יאנג." מגווי היהברשימה השחורהב-אַרצוֹת הַבְּרִיתבאוקטובר 2019 עקב הפרות זכויות אדם.
"ייתכן שאתה כבר תורם לטכנולוגיית המעקב כרגע."
אמנם לא ביקרת במכבסה המסוימת ב-2014, אבל ייתכן שבשלב מסוים השתמשת באתר שיתוף התמונותפליקר. בשנת 2016, חוקרים מאוניברסיטת וושינגטון פרסמו מערך נתונים של 4,753,320 פרצופים שנלקחו מ-3,311,471 תמונות שהועלו לפליקר עם רישיון Creative Commons. מדובבמגה פייס, נעשה שימוש במערך הנתוניםבמאותשל חברות וארגונים ברחבי העולם להכשיר אלגוריתמים לזיהוי פנים.
יֵשׁעשרות מערכי נתוניםכמו השניים האלה, המורכבים מתמונות שהושגו ללא הסכמה של אנשים בלי דעת העוברים על חיי היומיום שלהם, שמזינות את התחום ההולך וגדל של טכנולוגיית זיהוי פנים.
"[מכיוון] שיש מעט מדי כללים המסדירים איסוף נתונים, ייתכן שאתה כבר תורם לטכנולוגיית מעקב כרגע עבור ארגונים מסחריים וממשלתיים מקומיים וזרים כאחד", הסביר הארווי. "כולם צריכים להבין שאם לא יוכנסו הגבלות טובות יותר, הנתונים הביומטריים שלהם ימשיכו להיות מנוצלים למטרות מסחריות וצבאיות".
ייתכן שהציוץ נמחק
אבל אנשים נלחמים בחזרה, ובמקרים מסוימים כמו הארווי ו-LaPlace, אפילו מנצחים - אם כי בהדרגה.
להילחם על העתידהאם קבוצה אחת עושה בדיוק את זה. אוסף המתואר בעצמו של אמנים, פעילים, טכנולוגים ומהנדסים, Fight for the Future פועל באופן פעיל כדילאסור על טכנולוגיית זיהוי פנים, ערבותניטרליות רשת, ולשבש את של אמזוןיחסי מעקבעם המשטרה.
"זיהוי פנים הוא צורת מעקב מסוכנת במיוחד", הסביר אוון גריר, סגן מנהל המאבק למען העתיד, במייל. "בעולם שבו יותר ויותר מהתנועות והפעילויות היומיומיות שלנו נתפסות בעדשת המצלמה, זיהוי פנים מאפשר לנצל את האוסף העצום של הצילומים למעקב - לא למען ביטחון הציבור אלא לשליטה ציבורית".
גריר ציטט שתי דוגמאות ספציפיות - קמפיין מוצלח לאסור על זיהוי פנים מאולמות קונצרטים ופסטיבלי מוזיקה חיה בארה"ב, ושכנע 60 מכללות ואוניברסיטאות להתחייב לא להשתמש בטכנולוגיה בקמפוסים שלהם - כדי להראות שהמאבק נגד טכנולוגיית זיהוי פנים היא אחד שניתן לזכייה.
"כמו נשק גרעיני או ביולוגי, זיהוי פנים מהווה איום כה עמוק על עתיד החברה האנושית, עד שכל התועלת הפוטנציאלית עולה בהרבה על הנזקים הבלתי נמנעים", הדגיש גריר.
Fight for the Future לא לבד במאבק נגד דיכוי המאפשר זיהוי פנים. ככל הנראה, בין היתר, בזכות עבודתם של הארווי ו-LaPlace בחשיפת מערך הנתונים של שטיפת המוח,כבר לא מופץ. מערך נתונים נוסף של צילומי מעקב, המכונהמערך הנתונים של Duke MTMCוהושג ללא הסכמה בקמפוס של אוניברסיטת דיוק, הוסר לאחר א2019פייננשל טיימססָעִיףהדגיש שאנשים ברחבי העולם משתמשים בו כדי לאמן את האלגוריתמים שלהם לעקוב ולזהות הולכי רגל מצילומי מעקב.
"לאחר פרסום הפייננשל טיימסהמאמר [המחבר של מערך הנתונים של Duke MTMC] לא רק הסיר את אתר האינטרנט של מערך הנתונים, אלא גם הקל על הסרה במאגרי GitHub שבהם קשה יותר לשלוט בו", הסביר הארווי. "אחר כך הודיעה אוניברסיטת דיוק בפומבי בפני גוף הסטודנטים וה- המחבר התנצל רשמית. אני חושב שהוא באמת לא היה מודע לבעיה ופעל במהירות כשהבין מה קרה למערך הנתונים שלו".
"אלגוריתם ללא נתונים הוא חסר תועלת."
למרבה המזל, אינך צריך להיות פעיל פרטיות במשרה מלאה כדי לעזור לדחוף את הצמיחה של הטכנולוגיה המסוכנת הזו. כפי שגריר הסביר, הפיכת עמדתך בעניין בקול רם וברור - ישירות לנבחרי הציבור שלך - היא בסיסית למאבק בטכנולוגיית זיהוי פנים.
"המציאות היא שתמיד יהיו חברות מפוקפקות שמוכנות לעשות כל מה שהדבר הגרוע ביותר שאתה יכול לעשות עם טכנולוגיה ולמכור אותה למי שיקנה אותה - אלא אם כן יש חוק שאומר שאתה לא יכול", כתבה . "יש חקיקה שהוכנסה בבית ובסנאט לאסור על שימוש באכיפת החוק בזיהוי פנים. כל אחד צריך להגיד לנבחרי הציבור שלו לתמוך בזה".
ברמה הבסיסית יותר, המאבק בטכנולוגיה של זיהוי פנים מחייב אותנו להכיר בחלקנו ביצירתו.
הארווי הדגיש הערה שהשמיע הנשיא והמנכ"ל שלאין-Q-טל, חברת השקעות פרטית הפועלת לספק תובנות טכנולוגיות ל-CIA, בפרק של ה-מודיעין משנהפודקאסט: "אלגוריתם ללא נתונים הוא חסר תועלת."
הנתונים שאנו יוצרים, כמו התמונות שאנו מפרסמים באינטרנט, משמשים נגדנו. זה הולך לנקוט פעולה קולקטיבית שלנו כדי לשנות את זה.
קרא עוד מאלגוריתמים:
תיקון: 4 בספטמבר 2020, 17:13 PDTפוסט זה עודכן כדי לשקף שחברת Irvine הפסיקה לאסוף נתוני ALPR ביולי 2018, לאחר שספגה ביקורת על הנוהג על ידי קרן Electronic Frontier.
פרנואידית מקצועית. מכסה פרטיות, אבטחה וכל מה שקשור למטבעות קריפטוגרפיים ובלוקצ'יין מסן פרנסיסקו.