מילון מונחים מקיף
הקטע הוא שמילון זה נועד לעזור לנו להבין את המונחים החשובים ביותר בעולם הבינה המלאכותית. כל מונח מוסבר בעברית ובאנגלית, עם דוגמאות מעשיות.
24 מונחים במילון
מושגי יסוד
בינה מלאכותית היא תחום במדעי המחשב העוסק ביצירת מערכות מחשב שמסוגלות לבצע משימות הדורשות בדרך כלל אינטליגנציה אנושית, כגון למידה, הסקת מסקנות, פתרון בעיות וקבלת החלטות.
דוגמה: ChatGPT, Siri, ומערכות המלצות של Netflix הן דוגמאות לבינה מלאכותית.
למידת מכונה היא תת-תחום של בינה מלאכותית המאפשר למערכות ללמוד ולהשתפר מניסיון בלי לתכנת אותן במפורש. המערכת מזהה דפוסים בנתונים ומשפרת את הביצועים שלה לאורך זמן.
דוגמה: סינון ספאם באימייל הוא דוגמה קלאסית ללמידת מכונה.
למידה עמוקה היא שיטת למידת מכונה המבוססת על רשתות נוירונים עם שכבות רבות. היא מאפשרת למערכות ללמוד ייצוגים מורכבים של נתונים ומצטיינת במשימות כמו זיהוי תמונות, עיבוד שפה טבעית וזיהוי דיבור.
דוגמה: זיהוי פנים בטלפון הנייד שלנו משתמש בלמידה עמוקה.
רשת נוירונים היא מודל חישובי בהשראת המוח האנושי, המורכב מצמתים (נוירונים) מחוברים בשכבות. כל נוירון מעבד מידע ומעביר אותו הלאה, מה שמאפשר למודל ללמוד דפוסים מורכבים.
נתוני אימון הם אוסף הנתונים המשמשים ללמד מודל למידת מכונה. איכות וכמות נתוני האימון משפיעות ישירות על ביצועי המודל. נתונים מוטים או לא מייצגים יובילו למודל בעייתי.
מודלים וארכיטקטורות
מודל שפה גדול הוא מודל בינה מלאכותית שאומן על כמויות עצומות של טקסט ומסוגל להבין ולייצר שפה טבעית. מודלים אלה יכולים לענות על שאלות, לכתוב קוד, לתרגם ועוד.
דוגמה: Claude, GPT-4, Gemini ו-Llama הם דוגמאות למודלי שפה גדולים.
GPT (Generative Pre-trained Transformer) הוא סוג של מודל שפה גדול שפותח על ידי OpenAI. המודל מאומן מראש על טקסטים רבים ומסוגל לייצר טקסט חדש המשך לקלט שניתן לו.
טרנספורמר הוא ארכיטקטורת רשת נוירונים מהפכנית שהוצגה ב-2017. היא משתמשת במנגנון "תשומת לב" שמאפשר למודל להתמקד בחלקים רלוונטיים של הקלט ומהווה את הבסיס לכל מודלי השפה הגדולים המודרניים.
מנגנון תשומת לב הוא טכניקה ברשתות נוירונים המאפשרת למודל לשקלל את החשיבות של חלקים שונים בקלט בעת עיבוד מידע. זה מאפשר למודל "להתמקד" במידע הרלוונטי ביותר למשימה.
טכניקות ושיטות
פרומפט הוא ההוראה או השאלה שנותנים למודל שפה כדי לקבל תשובה. איכות הפרומפט משפיעה ישירות על איכות התשובה - פרומפט מפורט וברור יניב תוצאות טובות יותר.
דוגמה: "כתוב לי סיכום של הטקסט הזה בשלוש נקודות" הוא דוגמה לפרומפט.
הנדסת פרומפטים היא האמנות והמדע של ניסוח הוראות אפקטיביות למודלי שפה. זה כולל טכניקות כמו הוספת דוגמאות, פירוט הקשר, והגדרת פורמט הפלט הרצוי.
כיוונון עדין הוא תהליך התאמת מודל מאומן מראש למשימה ספציפית על ידי אימון נוסף עם נתונים ממוקדים. זה מאפשר להתאים מודל כללי לצרכים מסוימים בלי לאמן אותו מאפס.
RAG (Retrieval-Augmented Generation) היא טכניקה המשלבת מודל שפה עם מאגר מידע חיצוני. המערכת מחפשת מידע רלוונטי ממקורות חיצוניים ומזינה אותו למודל, מה שמאפשר תשובות מעודכנות ומדויקות יותר.
דוגמה: צ'אטבוט שמחפש במסמכי החברה לפני שעונה משתמש ב-RAG.
אמבדינג הוא ייצוג של טקסט, תמונה או נתון אחר כוקטור מספרי. ייצוג זה מאפשר למחשב "להבין" את המשמעות ולמצוא קשרים בין פריטים דומים.
למידה מדוגמאות מועטות היא טכניקה בה מספקים למודל מספר דוגמאות של המשימה הרצויה בתוך הפרומפט. זה עוזר למודל להבין בדיוק מה מצופה ממנו.
שרשרת מחשבה היא טכניקת פרומפטים שמבקשת מהמודל להסביר את תהליך החשיבה שלו צעד אחר צעד. זה משפר משמעותית את הדיוק במשימות הדורשות הסקה לוגית.
דוגמה: במקום "מה התשובה?", אומרים "חשוב צעד אחר צעד ואז תן את התשובה".
יישומים
צ'אטבוט הוא תוכנה המנהלת שיחה עם משתמשים בשפה טבעית. צ'אטבוטים מודרניים מבוססי AI יכולים להבין הקשר, לזכור מידע משיחות קודמות ולספק מענה מותאם אישית.
דוגמה: ChatGPT, Claude ו-Gemini הם צ'אטבוטים מבוססי AI.
בינה מלאכותית יוצרת היא סוג של AI שיכול ליצור תוכן חדש - טקסט, תמונות, מוזיקה, קוד ועוד. בניגוד ל-AI מסורתי שמנתח מידע קיים, Gen AI מייצר תוכן מקורי.
דוגמה: DALL-E, Midjourney ו-Stable Diffusion הם כלי Gen AI ליצירת תמונות.
טקסט לתמונה היא טכנולוגיה המאפשרת ליצור תמונות מתיאור טקסטואלי. המשתמש מתאר את התמונה הרצויה במילים, והמודל מייצר תמונה מתאימה.
עיבוד שפה טבעית הוא תחום ב-AI העוסק בהבנה ועיבוד של שפה אנושית על ידי מחשבים. זה כולל משימות כמו תרגום, סיכום, ניתוח רגשות וזיהוי ישויות.
אתיקה ובטיחות
הזיה היא תופעה בה מודל שפה מייצר מידע שנשמע משכנע אך אינו נכון או לא קיים במציאות. זה אחד האתגרים המרכזיים בשימוש ב-LLMs ומחייב בדיקת עובדות.
דוגמה: מודל שממציא ציטוטים או מקורות שלא קיימים מבצע הזיה.
הטיה ב-AI היא נטייה של מודל להפיק תוצאות לא הוגנות או מפלות כלפי קבוצות מסוימות. ההטיה נובעת בדרך כלל מנתוני אימון לא מאוזנים או מהנחות סמויות בתכנון.
יישור ערכים הוא תחום העוסק בהבטחה שמערכות AI פועלות בהתאם לכוונות ולערכים האנושיים. המטרה היא ליצור AI שלא רק חזק טכנולוגית אלא גם בטוח ומועיל.
RLHF היא טכניקת אימון בה משתמשים במשוב אנושי כדי לשפר את התנהגות המודל. אנשים מדרגים תשובות, והמודל לומד להעדיף תשובות שאנשים מעריכים יותר.
המילון מתעדכן באופן שוטף. יש לנו הצעות לשיפור?
