יש הבדל מהותי בין הדרך שבה מחשבים לומדים לדרך שבה בני אדם לומדים. בני אדם יכולים לראות דוגמה אחת ואינטואיציה למה האובייקט או הסמל הזה עשוי לשמש ולזהות במהירות דברים דומים. מחשב יכול להגיע לאותן מסקנות רק לאחר שהאכילו אותו באלפי ואלפי דוגמאות. זה מכונה בדרך כלל "למידת מכונה".
עם זאת, ייתכן שזה עומד להשתנות.
מדענים מאוניברסיטת ניו יורק מצאו דרך לא רק לחקות את האופן שבו בני אדם מבצעים את הקפיצות המנטליות הללו, אלא לגרום למחשבים ליצור מחדש סמלים וציורים פשוטים באופן שכמעט לא ניתן להבחין ביניהם מאלה שנוצרו על ידי בני אדם.
במאמר שפורסם השבוע ב-Science, חוקרים מתארים כיצד הם בנו אלגוריתם "למידת תוכנית בייסיאנית (BPL)", שהופך מושגים לתוכניות מחשב פשוטות ומאפשר למחשבים ללמוד מחלקה גדולה של מושגים ויזואליים מדוגמה אחת.
באלפבית דיגיטלי, האות "A" מיוצגת על ידי קוד. עם זאת, במקום שמתכנת כותב את הקוד, המחשב מייצר את הקוד כדי לייצג את האות ואז הוא גם מייצר וריאציות על סמך האות הראשונה.
חוקרים אמרו שהמודל משתמש בידע ממושגים קודמים כדי ללמוד. לדוגמה, אם המחשב יודע את האלפבית הלטיני, זה יכול לעזור לו ללמוד את האלפבית היווני הדומה.
ברנדן לייק הוא עמית מור-סלואן למדעי הנתונים באוניברסיטת ניו יורק והמחבר הראשי של המאמר. לדבריו, פריצת הדרך הגיעה כאשר החוקרים שמו לב ש"אם אתה מבקש מקומץ אנשים לצייר דמות רומן, יש עקביות יוצאת דופן באופן שבו אנשים מציירים... הם לא רואים בדמויות רק אובייקטים חזותיים סטטיים. במקום זאת אנשים רואים מבנה עשיר יותר... המתאר כיצד לייצר ביעילות דוגמאות חדשות של המושג.
"שאפנו לפתח אלגוריתם עם אותה יכולת ואז להשוות אותו עם אנשים."
האם אתה יכול לדעת אילו סמלים צוירו על ידי בני אדם ואילו מהם נוצרו על ידי מחשב? המפתח נמצא בכיתוב. קרדיט: אוניברסיטת ניו יורק
במהלך מצגת על עבודתם, המדענים אמרו שהם לא רק בנו תוכנית למידת מכונה, "אלא מה שהתוכנית לומדת - המושגים שלה - הם גם תוכניות. אנחנו חושבים שזה נכון גם לבני אדם: המושגים שלך הם תוכניות, או חלקים של תוכניות", אמר ג'ושוע טננבאום, מהמחלקה למדעי המוח והקוגניציה, ומהמרכז למוח, מוחות ומכונות, ב-MIT.
למרבה הפלא, כשהמחשב התבקש ליצור דוגמאות טריות המבוססות על הרעיון המקורי, והתמונות הללו הושוו לדוגמאות שנוצרו על ידי בני אדם, בני אדם לרוב לא יכלו להבחין אם אדם או מחשב יצרו את הדוגמה.
במילים אחרות, המודל החישובי עבר צורה גסה של המבחן טיורינג. המתמטיקאי האגדי מהמאה ה-20 אלן טרנינג (הוא שבר את קוד האניגמה) טען שבמאה ה-21 למחשב יהיה סיכוי של 70% להטעות אדם לחשוב שהוא מתקשר עם אדם אחר.
לפי המחקר, "גישה זו יכולה לבצע למידה חד-פעמית במשימות סיווג ברמת דיוק ברמת האדם ולהטעות את רוב השופטים במבחני טיורינג חזותיים ביכולות היצירתיות יותר שלו. עבור כל מבחן טיורינג ויזואלי, פחות מ-25% מהשופטים [המאמר מציין שהיו 35] ביצעו ביצועים טובים משמעותית מהסיכוי".
"התוצאות שלנו מראות שעל ידי הנדסה לאחור איך אנשים חושבים על בעיה, נוכל לפתח אלגוריתמים טובים יותר", אמר לייק במהדורה.
לקיצור דרך זה ללימוד מכונה עשויות להיות השלכות נרחבות. זה יכול לקצר את הזמן שלוקח למחשבים ללמוד שפות חדשות, לזהות תמונות ולעזור למערכות ליצור עיצובים חדשים ושמישים המבוססים על עיצובים קיימים, ללא קלט אנושי.
למחקר עשויה להיות השפעה משמעותית על חדשנות עתידית בבינה מלאכותית, כולל רובוטיקה. רובוט שיכול לבצע קפיצות הגיוניות לגבי דברים עשוי יום אחד להיות מיומן יותר בקבלת החלטות כמו אנושית. שזו מחשבה מרגשת או מפחידה.
לא כולם מסכימים שזו פריצת דרך או אפילו שהמערכת ניצחה את מבחן טיורינג.
מנכ"ל מכון אלן לבינה מלאכותית, אורן עציוני, אמר ל-Mashable כי "הם לא ניצחו את מבחן טיורינג יותר ממה שעושה מחשבון על ידי הכפלה של אדם", והעבודה עדיף לסווג כ"תרומה מדעית".
"בעוד שהכותבים מציגים שאלת מחקר מרתקת, חוקרים רבים השתמשו בשיטות קשורות כדי להשיג תוצאות חזקות. ובכל זאת, המאמר הוא תזכורת שלא יסולא בפז לכך שאנו זקוקים לשיטות שיכולות להכליל ממספר קטן של דוגמאות הן למודל של יכולות אנושיות והן להעברת AI קדימה", אמר עציוני.
גם אם כן קונים את הרעיון שמדובר בהתקדמות משמעותית בתחום ה-AI, האפליקציות לעבודה נמצאות במרחק של שנים, אם לא עשרות שנים; אפילו לפי המדד של החוקרים עצמם, התוכנית עדיין לא רואה את אותה רמה של פירוט מבניים כמו בני אדם. "אין בו ידע מפורש של קווים מקבילים, סימטריה, אלמנטים אופציונליים כמו פסים צולבים ב-7, וקשרים בין קצוות של משיכות ותנועות אחרות", כתבו המדענים.
בונוס: האפליקציות החברתיות הטובות ביותר לאייפון
[nggallery id=25354]
ניוזלטרים אלה עשויים להכיל פרסומות, עסקאות או קישורי שותפים. בלחיצה על הירשם, אתה מאשר שאתה בן 16+ ומסכים לנותנאי שימושומדיניות פרטיות.