ביום חמישי, המרכז לבינה מלאכותית ומדיניות דיגיטלית (CAIDP), ארגון ללא מטרות רווח,הגיש תלונה לוועדת הסחר הפדרלית(FTC) מיקוד ל-OpenAI. התלונה טוענת כי מודל השפה הגדול האחרון של החברה, GPT-4, שניתן להשתמש בו כדי להפעיל את ChatGPT, מפר את כללי ה-FTC נגד הונאה וחוסר הוגנות. זה בא בעקבות אמכתב פתוח חתום על ידי דמויות מרכזיות בבינה מלאכותית, כולל אילון מאסק, שקרא להפסקה של שישה חודשים באימון מערכות חזקות יותר מ-GPT-4.
התלונה מבקשת מהנציבות "לפתוח חקירה על OpenAI ולגלות שהפרסום המסחרי של GPT-4 מפר את סעיף 5 של חוק ה-FTC". חלק זה, מסבירה התלונה, מספק הנחיות לגבי בינה מלאכותית ומתאר את "הנורמות המתעוררות לממשל בינה מלאכותית שממשלת ארצות הברית אישרה רשמית".
מהירות אור ניתנת לריסוק
מה כל כך מפחיד ב-GPT-4, לפי התלונה הזו? זה לכאורה "משוחד, מטעה ומסכן את הפרטיות ובטיחות הציבור", התלונה גם אומרת ש-GPT-4 טוען טענות לא מוכחות ואינו נבדק מספיק.
ה-CAIDP גם מציין - תוך שימוש בציטוטים מדוחות עבר שנכתבו על ידי OpenAI עצמה - ש-OpenAI יודעת על הפוטנציאל להביא או להחמיר "פעולות דיסאינפורמציה והשפעה", וכי החברה הביעה דאגה לגבי "התפשטות של קונבנציונליות ולא קונבנציונליות. כלי נשק" בין השאר הודות לבינה מלאכותית. OpenAI גם הזהירה את הציבור שמערכות בינה מלאכותית יכולות "לחזק אידיאולוגיות שלמות, תפיסות עולם, אמיתות ואי-אמיתות, ולחזק אותן או לנעול אותן, למנוע מחלוקת עתידית, השתקפות ושיפור".
התלונה קורעת גם ל-OpenAI על כך שככל הנראה לא ביצעה בדיקות בטיחות שמטרתן להגן על ילדים במהלך תקופת הבדיקות של GPT-4. וזה מצטט את אורסולה פאכל, סגנית מנהלת ארגון הצרכנות האירופי (BEUC) שאמרה, "הרשויות הציבוריות חייבות לשלוט מחדש על [אלגוריתמי AI] אם חברה לא נוקטת בפעולות מתקנות".
על ידי ציטוט של פאכל, ה-CAIDP קורא בבירור - אם לא קורא ישירות - למהלכים ממשלתיים מרכזיים שמטרתם להסדיר AI. הרגולטורים באירופה כבר שוקלים הרבה יותרגישה כבדה ומבוססת כללים לטכנולוגיה זו. וזה בא כאשר חברות מחפשות להרוויח כסף בתחום הבינה המלאכותית הגנרטיבית. הצ'אטבוט המופעל על ידי GPT-4 של Microsoft Bing, למשל, נמצא כעתיצירת הכנסות ממודעות. חברות כאלה ללא ספק מחכות בקוצר רוח לתגובת ה-FTC.