להלן מונחי AI שאתה צריך לדעת. קרדיט: תמונה: Mashable composite; שוטרסטוק, ג'ק צ'דוויק
אי פעם להסתבך בבלבולAIתנאים?
בשנה האחרונה, אינספור מוצרים ושירותים המושרים בינה מלאכותית הפכו לזמינים, המציעים מגוון מסחרר של תכונות עטופים לעתים קרובות בז'רגון קשה להבחנה.
עם מילון מונחים שימושי זה, כעת תדע את ההבדל בין AI ל-AGI, מה באמת קורה כאשרChatGPT"הזיות", ודע מה זה אומר כשאתה שומע את GPT-4 מתואר כLLM עם מודל שנאי שנבנה באמצעות רשתות עצביות עמוקות. בואו נצלול פנימה.
סוֹכֵן
סוכן, בהקשר של AI, הוא אדֶגֶםאו תוכנה שיכולה לבצע משימה באופן אוטונומי. דוגמאות לסוכנים נעות ביןבית חכםמכשירים השולטים בטמפרטורה ובתאורה, לחיישניםשואבי אבק רובוטייםומכוניות ללא נהג, לצ'אטבוטים כמו ChatGPT שלומדים ומגיבים להנחיות המשתמש. סוכנים אוטונומיים שמבצעים משימות מורכבות מצוטטות לעתים קרובות כדוגמאות כיצד עשויה להיראות הקפיצה הבאה קדימה ב-AI.
AGI (בינה כללית מלאכותית)
AGI הוא סוג של תוכנית אודֶגֶםשיש לו את מלוא היכולות האינטלקטואליות של אדם, כלומר אינטליגנציה כללית. ל-AGI יש יכולות כמו חשיבה, שכל ישר, ידע מופשט ויצירתיות. בעיקרו של דבר הוא מסוגל לבצע משימות באופן אוטונומי ללא הוראה אנושית. AGI אמיתי עדיין לא קיים, אבל מומחים מאמינים שאפשר להשיג אותו בעתיד הקרוב (אם כי הדעות משתנות לגבי מתי בדיוק). חברות אוהבותOpenAI, DeepMind ו-Anthropic מחויבים לנסות ליצור AGI.
ראה גם:AI חזק
אַלגוֹרִיתְם
אאַלגוֹרִיתְםהוא אוסף של כללים או הוראות לתוכנת מחשב. בהקשר של AI, אלגוריתמים הם הבסיס לבניית האינטליגנציה שלו. חשבו על פעולה בתוך המוח האנושי שמתפרקת לסדרה של שלבים. אלגוריתמים מחקים תהליך זה על ידי בניית סדרה של הצהרות אם-אז.
מַעֲרָך
יישור מתייחס למידת ההצלחה של AI מסוגלת להשיג יעדים שאינם כלולים במפורש ב-aלְעוֹרֵראו בקשה. אלה יכולים לכלול דיוק, אבטחה ומניעת נזקים. אם AI לא מיושר, הוא סוטה מהשימושים והיישומים המיועדים לו, כלומר הוא נותן תגובות שגויות או לא הולמות. התאמה היא חלק גדול משיחת האתיקה, מכיוון שלמודל שאין לו התאמה נכונה יש פוטנציאל להפיץ מידע מוטעה, ליצור איומי אבטחת סייבר ולשתף מידע מסוכן או מזיק.
AI (בינה מלאכותית)
AI הוא המונח המקיף לטכנולוגיה שיכולה לבצע אוטומציה או לבצע משימות מסוימות שתוכננו על ידי בני אדם. לאחרונה, כשאנשים מדברים על AI ("AI הולך להרוס את האנושות" או "AI הולך להחליף את העבודה שלנו") הם מדברים על AGI ובינה מלאכותית. אבל בינה מלאכותית היא מושג ענק שמקיף טכנולוגיות רבות בהן אנו משתמשים במשך שנים, כמו אלגוריתמים הממליצים על תוכן או מוצרים, מכוניות בנהיגה עצמית או עוזרים קוליים.
קופסה שחורה
מודלים מסוימים של בינה מלאכותית מכונים לפעמים קופסאות שחורות, מה שאומר שהמשתמשים אינם מסוגלים לראות או להבין את פעולתה הפנימית של הטכנולוגיה. בעיית הקופסה השחורה הפכה לרלוונטית במיוחד בשיחת ה-AI הגנרטיבית, מאז חברות כמו OpenAI וגוגלידועים לשמצה בסודיות לגבי אופן הפעולה שלהם. אבל גם, מכיוון שה-AI הגנרטיבי הוא אוטונומי במידה מסוימת, אפילו המפתחים לא מבינים עד הסוף כיצד האלגוריתם מייצר פלטים. כאשר אתיקאים וקובעי מדיניות קוראים ליותר אחריות ושקיפות של חברות בינה מלאכותית, זה העלה את החשיבות של פתיחת הקופסאות השחורות.
צ'אטבוט
צ'טבוט הוא סוג של תוכנית או מודל שיכולים לנהל שיחה עם אדם, כמו ChatGPT, אבל המונח יכול להתייחס גם לצ'אטבוטים של שירות לקוחות המספקים אלטרנטיבות לשיחה עם נציג שירות לקוחות בטלפון או בטקסט. צ'אטבוטים אוהביםChatGPT, בארד, בינג, ו-Character.AI כולם זכו לתשומת לב בזכות היכולת שלהם לנהל שיחות מתוחכמות דמויות אנושיות עם משתמשים, אבל צ'אטבוטים קיימים כבר זמן מה. ELIZA נחשב לצ'אטבוט הראשון,פותח בשנת 1966מאת מדען MIT ג'וזף וייזנבאום.
למידה עמוקה
למידה עמוקה היא תת-קבוצה שללמידת מכונהשמחקה את הדרך שבה בני אדם לומדים. מופעל על ידי רשתות עצביות, למידה עמוקה משתמשת בשכבות מרובות של אלגוריתמים כדי להבין מושגים מורכבים ומופשטים, כמו שיחות ותמונות. יישומים של למידה עמוקה כולליםטכנולוגיית זיהוי פנים, צ'אטבוטים כמו ChatGPT, ומכוניות ללא נהג.
מודל דיפוזיה
מודל דיפוזיה הוא מודל למידת מכונה שיכול ליצור תגובה דומה לזו שעליה הוא התאמן. במונחים טכניים, זה אשרשרת מרקוב התאמנה באמצעות הסקת מסקנות וריאציות. שרשרת מרקוב והסקת וריאציות הם מונחים מתמטיים המשמשים לניבוי רצפים ולקירוב מידע בתוך כמויות גדולות של נתונים. אבל מה שאתה צריך להבין הוא שדגמי דיפוזיה הם מה שמאפשר יצירת תמונות בינה מלאכותית.דיפוזיה יציבה, של OpenAIDALL-E, ואמצע מסעכולם דוגמאות למוצרים המשתמשים במודלים של דיפוזיה.
AI גנרטיבי
הודות להשקת ChatGPT של OpenAI, בינה מלאכותית גנרטיבית נכנסה למיינסטרים. AI גנרטיבי הוא סוג של AI שיכול ליצור טקסט, תמונות, וידאו, אודיו וקוד על סמך הנחיות של משתמש. AI גנרטיבי הוא מה שמניע צ'אטבוטים של AI כמו ChatGPT.
זה עובד על ידי למידה תחילה של דפוסים מנתונים (ראההַדְרָכָהלהלן), וממשיך ללמוד תוך שהוא מתבסס על נתונים חדשים מהנחיות. AI גנרטיבי קיים בדרך כלל בצורה של ממשק צ'אט, כמוChatGPT, Bing ובארד, כך שהוא יכול לנהל שיחה הלוך ושוב עם המשתמש. השקת ChatGPTיצר כזה טירוףמכיוון שזו הייתה דרך קלה ונגישה עבור אנשים להבין ולרתום את היכולות של AI גנרטיבי. עם כל היתרונות שלו, לשימוש הנרחב של AI גנרטיבי יש סכנות שכן הוא נוטה לכךלהזות, או להמציא דברים בביטחון.
בניגוד לצורות פשוטות יותר של בינה מלאכותית, בינה מלאכותית גנרטיבית מסוגלת ליצור תוכן חדש לגמרי מנתוני אימון, בניגוד לחיישן עם יעדים סופיים או עוזר קולי שתוכי מידע קיים.
אתיקאים וקובעי מדיניות קראו לכךויסות של AI גנרטיביבגלל הפוטנציאל שלו להפיץ מידע שגוי, לבסס הטיות או לאפשר פשעי סייבר. מודלים גנרטיביים של בינה מלאכותית משתמשים גם במערכי נתונים שנגרדו מהאינטרנט, מה שהעלה חששות לגבי פרטיות והפרות של זכויות יוצרים. היכולת שלה לייצר תוכן במהירות ולהפוך משימות לאוטומטיות עוררה גם חששות לגבי החלפת משרות, במיוחד במדיה ובבידור תעשיות.
GPU (יחידת עיבוד גרפי)
GPU הוא שבב חזק או כרטיס גרפי המסוגל לעבד מספר חישובים מסובכים. GPUs פותחו בתחילה לעיבוד תמונות וגרפיקה, כפי שהשם מרמז, אך הם הותאמו ל-AI בשל יכולתם להתמודד עם הכמות העצומה של כוח המחשוב הנדרש על ידי למידת מכונה. שֶׁלָהמְשׁוֹעָרש-ChatGPT משתמש ב-20,000 GPUs ובסופו של דבר יזדקק ל-30,000 כרטיסים גרפיים כדי להפעיל את הדגם שלו.
הֲזָיָה
AI גנרטיבי, במיוחד לצ'אטבוטים מבוססי טקסט, יש נטייה להמציא דברים. זה מתואר כ"הזיה", מכיוון שבינה מלאכותית גנרטיבית יכולה לפעמים לצאת בשיקוף מוחלט, ולדבר בביטחון על משהו שאינו נכון.
מהירות אור ניתנת לריסוק
לדוגמה, צ'אט בוט של בינה מלאכותית עשוי להזות באומרו שסטיב ג'ובס היה קוסם תקריב, פופולרי בלאס וגאס בתקופת ה-Rat Pack. אבל באופן נפוץ יותר (ובאופן מדאיג), צ'אטבוטים של בינה מלאכותית מעוררים הזיות בעדינות, על ידי ערבוב למעשה עם בדיה. לדוגמה, אפשר לומר שסטיב ג'ובס היה המייסד של אפל (נכון), שפיקח על השקת האייפון (נכון), שבגינה הוא הוכרזזְמַןשל איש השנה (לא נכון).
זה קורה מכיוון שמודלים של AI גנרטיביים פועלים על ידי חיזוי מילים על סמך קשר הסתברותי למילה הקודמת. זה לא מסוגל להבין מה זה מייצר. תן לזה להיות תזכורת לכך ש-ChatGPT עשוי להתנהג ברגישות, אבלזה לא.
פריצת כלא
פריצת כלאצ'אט בוט גורם לו לעשות משהו מחוץ לשימושים המיועדים לו. שימוש בסוג מסוים שללְעוֹרֵר, פריצת כלא מאפשרת למשתמש לעקוף כללים או מעקות בטיחות, ובעצם להערים עליו לעשות משהו שהוא לא אמור לעשות בהתאםמַעֲרָך. פריצת ג'יל יכולה לנוע בין לגרום לצ'אט בוט לומר דברים פוגעניים או לא הולמים רק בשביל הכיף, ועד לגרום לו לשתף מידע מסוכן וניתן לפעולה, כמו איך להכין napalm.
מודל שפה גדול (LLM)
מודל שפה גדול הוא תוכנת בינה מלאכותית שאומנת על כמויות עצומות של נתונים כדי להבין ולהפיק טקסט. LLMs מחברים משפטים על ידי חיזוי המילה הבאה על סמך הסתברות. מאז לימודי LLM הוכשרו עם כל כך הרבה נתונים - בעצםמכלול האינטרנט- הם מצליחים מאוד ביצירת טקסט דמוי אדם בשיטה זו. דגמי ה-GPT של OpenAI, דגמי ה-PALM של גוגל ו-Metaלָאמָהמודלים הם כולם דוגמאות של LLMs. GPT-3.5 ו-GPT-4 הם הכוח ChatGPT ו-PaLM 2 ול-Bard.
נתונים ברישיון
נתונים ברישיון הם מידע מהאינטרנט שנרכש או ניגש אליו על ידי עסק או ארגון לצורךהַדְרָכָהAI. אולי תשמעו מקרים של חברות שאמרו שהן אימנו את הדגמים שלהן באמצעות נתונים מורשים. זאת אומרת שהנתונים הושגו באופן חוקי.
סוגיית הנתונים המורשים עלתה לאחרונה בשל כמויות הנתונים המוניות הדרושים לאימון דגמי AI כמו ChatGPT. זה מקבלעכור במונחים משפטיים, בגלל הוויכוח לגבי מהו רשות הציבור, כוונת היוצר המקורי וכיצד יש לאפשר לחברות להשתמש בנתונים אלה.
למידת מכונה
למידת מכונה היא שיטה בתוך בינה מלאכותית שבה מודל מאומן על נתונים כדי ללמוד ולהשתפר לאורך זמן. מודלים של למידת מכונה משתמשים בנתונים כדי לזהות דפוסים, לסווג מידע ולבצע תחזיות. דוגמאות כוללות סינון הודעות דואר זבל (למידת סיווג), שימוש בנתוני דיור כדי לחזות את מחירו של בית (למידת רגרסיה), או זיהוי תמונות של כלבים (למידה עמוקה).
AIולמידת מכונה הם מונחים המשמשים לעתים קרובות לסירוגין, אבל למידת מכונה היא תת-קבוצה של AI, המוגדרת על ידי הכשרה עם נתונים כדי לבנות את האינטליגנציה שלה.
דֶגֶם
סביר להניח ששמעת את המונח הזה מושלך הרבה ביחס ל-AI. מודל הוא תוכנית או אלגוריתם המיועדים למטרה מסוימת. מודל AI הוא כינוי כללי לתוכנית שנועדה לשכפל ו/או להפוך משימות מסוימות לאוטומטיות.
עיבוד שפה טבעית (NLP)
הסיבה לכך שהתגובות של ChatGPT נקראות כל כך אנושיות היא בגלל עיבוד שפה טבעית. המונח מתייחס לדיסציפלינה של הכשרת מודל על טקסט ודיבור כך שיבין ותבטא את עצמו ככוח אדם. עיבוד שפה טבעית כרוך גם במחקר בלשני כדי שמודלים יוכלו להבין את המורכבות והניואנסים של השפה.
רשת עצבית
בהשראת הדרך שבה המוח האנושי פועל, רשתות עצביות הן אלגוריתמים המורכבים מ"נוירונים" או צמתים מלאכותיים המתקשרים זה עם זה. כל חיבור בין שני נוירונים נושא ערך מסוים או "משקל". משקלים אלו מבצעים באופן אוטומטי הערכות מסוימות לגבי תשומות , והנוירון "יורה" אם יגיע לסף מסוים, שיעביר מידע לנוירונים אחרים ברשתלמידה עמוקה.
קוד פתוח
קוד פתוח פירושו שקוד המקור של תוכנה פתוח וחינמי לציבור (ואילו אקופסה שחורהסגור). זה אומר שמפתחים יכולים להשתמש, לשנות ולבנות איתה מוצרים משלהם. מודל בינה מלאכותית בקוד פתוח נתפס כדרך לדמוקרטיזציה של הפיתוח של בינה מלאכותית, שלעתים קרובות עטופה בסודיות. בניגוד למודלים של גוגל ו-OpenAI שהם בקוד סגור, Meta הוציאה לאחרונה LLM בקוד פתוח (לאמה 2). מודלים אחרים של קוד פתוח כולליםבַּז,MPT, ופיג'מה אדומה.
פָּרָמֶטֶר
פרמטר הוא משתנה ב-LLM שניתן לשקלל או לכוונן במהלךהַדְרָכָהכדי לקבוע תוצאה ספציפית. אולי שמעתם על פרמטרים ביחס למידת העוצמה של LLM - לדוגמה, ל-GPT-4 יש 1.7 טריליון פרמטרים. ככל שיש ל-LLM יותר פרמטרים, כך הוא מורכב יותר ויש לו יותר יכולת ללמוד.
חשבו על פרמטרים כעל הגדרות במצלמה באיכות גבוהה. במצלמה ניתן לכוון אור, מהירות סרט, זום, צמצם, להחליף עדשות וכו' וכל תצורה מניבה תוצאה קצת שונה. עכשיו תכפיל את זה במיליארדים או טריליונים, וזה מה שהפרמטרים עושים.
לְעוֹרֵר
הנחיה היא בקשה או שאלה שמשתמש שולח לצ'אטבוט. יש תת-תרבות שלמה המוקדשת להבטיח את התגובה הטובה ביותר ממודלים של שפות גדולות. בין אם זה ליצירת קוד,פריצת כלא, או פשוט לקבל את התשובה הטובה ביותר שאתה מחפש, ההנחיות תלויות בבהירות, תמציתית, הקשר וכוונה.
ראה גם:מהנדס מהיר.
מהנדס מהיר
עם עלייתם של צ'אטבוטים של AI, פתאום יש ביקוש למומחיות ביצירת ההנחיות הנכונות. זה המקום שבוהנדסה מהירהנכנס. מהנדס מהיר הוא מישהו עם ידע מעמיק ב-LLMs שיכול לייעל את ההנחיות הטובות ביותר למטרות שונות. זה יכול להיות להבטיח שהצ'אטבוט יבין בהצלחה את הבקשה, או חיטוט במודל כדי למצוא איומים ופגיעויות.
התקפת הזרקה מהירה
עלייתם של LLMs הובילה לסוג חדש של מתקפת סייבר בשםהתקפות הזרקה מיידיות. הזרקה מהירה, בדומה לפריצת כלא, הוא הפעולה של שימוש בהנחיה מעוצבת בקפידה כדי לתמרן מודלים כמו ChatGPT למטרות מרושעות. באמצעות הזרקה מהירה, האקרים מנצלים פגיעות בתוך צ'אטבוט כדי לשתף מידע סודי, או לעקוף את מעקות הבטיחות של הדגם. תוקפים משתמשים בזה ישירות, על ידי אינטראקציה עם הצ'אטבוט, או בעקיפין על ידי הסתרת הנחיה בתוך תוסף או דף אינטרנט, כדי לגשת בסתר למידע אישי או תשלום.
אלגוריתם/מערכת המלצות
לפני עלייתו של ChatGPT, AI כבר היה חלק גדול מחיינו. אחת הדוגמאות היותר נפוצות לכך היא אלגוריתם ההמלצות (או המערכת). זה מונח לאלמידת מכונהאלגוריתם שמציע המלצות על סמך נתוני משתמש והתנהגות. ההצגות המומלצות שלך עלנטפליקס, מוצרים באמזון, סרטונים ביוטיוב וב-TikTok ופוסטים ב-אינסטגרםהן כמה דוגמאות לאלגוריתמי המלצות הפועלים.
AI חזק
AI חזק הוא מונח נוסף ל-AGI אובינה כללית מלאכותית. זוהי צורה תיאורטית (בינתיים) של בינה מלאכותית שיכולה "לחשוב" ולפעול באופן אוטונומי כמו בן אדם.
אֲסִימוֹן
אסימון הוא יחידת מידע בתוך aמודל שפה גדול. זה יכול להיות מילה, חלק ממילה, סימן פיסוק או קטע קוד - בעצם הצורה הבסיסית ביותר של משהו עם משמעות. כשאתה שומע ש-LLM מאומן על מספר מסוים של אסימונים או שמודל תמחור עולה מספר מסוים של סנטים לכל 1,000 אסימונים, לזה הוא מתייחס.
הַדְרָכָה
אימון הוא תהליך של הזנת נתונים לאלמידת מכונהדֶגֶם. ישנם שני סוגי הכשרה: למידה בפיקוח ולמידה ללא פיקוח. למידה מפוקחת היא אימון מודל עם נתונים שכבר סומנו או סווגו בדרך כלשהי, בעוד למידה לא מפוקחת משתמשת בנתונים לא מסומנים אשר מאלצים אותו ללמוד דפוסים ואסוציאציות בעצמו. לכל סוג אימון יש את החוזקות והחולשות שלו. לימודי תואר שני כמו GPT-4 משתמשים בשילוב של למידה ללא פיקוח וגם של למידה מפוקחת.
נתוני אימון
נתוני אימון הם נתונים המשמשים לאימון מודל למידת מכונה. נתוני הדרכה עבור LLMs מורכבים מכמויות אדירות של נתונים הנקראים מערכי נתונים, שנגרדים ברובם מהאינטרנט.
ישנם מערכי נתונים ציבוריים כמו Common Crawl ומסד הנתונים של ויקיפדיה, ומערכי נתונים פרטיים או קנייניים שנאספו על ידי חברות כמו גוגל שיש להן את המשאבים לעשות זאת. מערך הנתונים שלו, MassiveWeb, למשל, נוצר על ידי DeepMind בבעלות גוגל וכולל מדיה חברתית ואתרי בלוגים כמו Reddit, Facebook, YouTube ו-Medium. אז אם אי פעם פרסמת באחד מהאתרים האלה, הנתונים שלך היוכנראה בשימושלאמן את בארד.
שַׁנַאי
האם ידעת ש-GPT (כמו ב-ChatGPT) מייצג שנאי מיומן מראש? זה לא רק ראשי תיבות של קשירת לשון. שנאי הוא סוג שלרשת עצביתשמניע את מודל הלמידה העמוקה המשמש עבור AI גנרטיבי. זה עובד על ידי הטבעת מילים (אסימונים) עם הקשר, תוך שימוש במנגנון "תשומת לב עצמית", המאפשר לו לחזות מה עשויה להיות המילה הבאה. אחרת, המודל פשוט יתפוס מילים כפיסות נתונים ללא כל קשר זה לזה.
מודל השנאים, שהחל את הפיתוח של מוצרים כמו ChatGPT, מקורו של אנְיָרעל ידי חוקרים של גוגל ואוניברסיטת טורונטו ב-2017.
ססילי היא כתבת טכנולוגיה ב-Mashable שמסקרת בינה מלאכותית, אפל ומגמות טכנולוגיות מתפתחות. לפני שקיבלה את התואר השני שלה בבית הספר לעיתונאות קולומביה, היא בילתה מספר שנים בעבודה עם סטארטאפים ועסקים בעלי השפעה חברתית עבור Unreasonable Group ו-B Lab. לפני כן, היא הקימה עסק לייעוץ סטארט-אפים למרכזי יזמות מתפתחים בדרום אמריקה, אירופה ואסיה. אתה יכול למצוא אותה בטוויטר בכתובת@cecily_mauran.