בינה מלאכותית

Disambig RTL.svg המונח "אינטליגנציה מלאכותית" מפנה לכאן. לערך העוסק בסרט קולנוע בשם זה, ראו אינטליגנציה מלאכותית (סרט).
ArtificialFictionBrain.png

בינה מלאכותית (נקראת גם אינטליגנציה מלאכותית) היא ענף של מדעי המחשב העוסק ביכולתם של מחשבים לפעול באופן המציג יכולות שאפיינו עד כה את הבינה האנושית בלבד. הגדרה רחבה יותר לתחום זה ניתנה על ידי מרווין מינסקי: "לגרום למכונה להתנהג בדרך שהייתה נחשבת לאינטליגנטית לו אדם התנהג כך". העוסקים בבינה מלאכותית מבכרים לעתים הגדרה מצמצמת של מושג זה, כאילו בינה מלאכותית היא "כל מה שאדם יודע לעשות אך המחשב אינו מסוגל לו". בהתאם להגדרה זו, היכולת לשחק שחמט נחשבה ליכולת שבמסגרת הבינה המלאכותית, עד לשלב שבו המחשב התחיל לנצח.

ההגדרה המקובלת ביותר לבינה מלאכותית הוטבעה בשנת 1950 על ידי אלן טיורינג, וידועה בשם מבחן טיורינג: מכונה תחשב לתבונית, אם יינתן לאדם, היושב בחדר סגור, לנהל שיחה באמצעות ממשק מחשב (Console) עם ישות שנמצאת בחדר השני, כאשר אותה ישות תהיה או אדם או מכונה, והמשוחח לא יוכל לזהות האם מולו ניצב אדם או מכונה, או-אז המכונה תחשב לתבונית. תחרויות לא רשמיות, המכונות "תחרות טיורינג", נערכות מדי שנה כאשר המשתתפים מנסים להעמיד תוכנות, אשר יצליחו ב"מבחן טיורינג" ואולם, המשוחחים, בדרך כלל פרופסורים מנוסים, מצליחים לזהות בקלות מי משוחח עמם. נכון לשנת 2014, הצליחה תוכנה ב-33% מהמקרים לדמות שיחה ברמה אינטלקטואלית של נער בן 13 שנים. (מעבר מוצלח של מבחן טיורינג הוא הצלחה של לפחות 30% מהמקרים).

בינה מלאכותית נחקרת בשתי רמות:

  • בינה מלאכותית חזקה:
    • בינה מלאכותית דמוית אנוש, שבה המחשב חושב ומסיק מסקנות באופן דומה לזה של המוח האנושי.
    • בינה מלאכותית שאינה דמוית אנוש, שבה המחשב יגיע ליכולות עצמאיות לחשיבה, ללא קשר לדרך שבה המוח האנושי עושה זאת.
  • בינה מלאכותית חלשה, שבה למחשב אין יכולת חשיבה, אך הוא פועל כאילו הייתה לו יכולת כזו.

עיקר ההתפתחות בחקר הבינה המלאכותית עד כה הוא בתחום הבינה המלאכותית החלשה. מדען המחשב א.וו.דייקסטרה לא התלהב מייחוס יכולת חשיבה למחשב, וטען כי "השאלה האם מחשב יודע לחשוב דומה לשאלה האם צוללת יודעת לשחות".

שפות תכנות אחדות, ובפרט LISP ו־פרולוג נוצרו ככלים לשימושם של חוקרי הבינה המלאכותית.

היסטוריה

פרה-היסטוריה של הבינה המלאכותית

בני אדם תמיד תהו על מהותם של השכל, המחשבה והשפה, ותרו אחר ייצוגים מתאימים לידע שלהם. אריסטו ניסה למסד את השאלות האלה באמצעות ה לוגיקה הסילוגיסטית, שנותרת כאחת מאסטרטגיות המפתח של הבינה המלאכותית. מדקדקים קלאסיים וימי-ביניימים חקרו מאפיינים עדינים יותר של השפה שאריסטו לא התייחס אליהם, והמתמטיקאי ברנרד בולצאנו עשה את הניסיון המודרני הראשון למסד את הסמנטיקה ב-1837.

תכנון המחשבים המוקדם הונע בעיקר על ידי המתמטיקה המורכבת שנדרשה לכיוונון נשק באופן מדויק, עם מערכות אנלוגיות למשוב שהיוו השראה לאידאל של הקיברנטיקה. הביטוי "בינה מלאכותית" ציין את התחליף בסביבה הדיגיטלית לקיברנטיקה ששימשה בסביבה האנלוגית.

התפתחות של תאוריית הבינה המלאכותית

הרבה מההתמקדות המקורית של מחקר הבינה המלאכותית נובע מגישה ניסויית לפסיכולוגיה, ומדגישה את מה שאפשר לכנות תבונה לשונית (אותה אפשר לראות באופן מובהק במבחן טיורינג).

גישות לבינה מלאכותית שאינן מתמקדות בבינה לשונית כוללות רובוטיקה וגישות של בינה קולקטיבית, המדגישות שינוי פעיל של הסביבה, או קבלת החלטות בקונצנזוס, ומקבלות את השראתן מהביולוגיה או הפוליטיקה כשהן מחפשות מודלים לצורת הארגון של התנהגות "תבונית".

בינה מלאכותית גם שואבת את השראתה ממחקרים על בעלי חיים, בעיקר חרקים, אותם קל יותר לרובוטים לחקות, וכן מבעלי חיים עם קוגניציה מורכבת יותר, כמו קופים, שדומים לבני אדם במובנים רבים אך יש להם יכולות מופחתות לתכנון וקוגניציה. יש מחקרים שטוענים כי קל יותר לחקות בעלי חיים, מכיוון שהם לכאורה פשוטים יותר מבני אדם, אך מודל חישובי מוצלח לבינת בעלי חיים אינו קיים עדיין.

אבני דרך בפיתוח הבינה המלאכותית הן המחקרים "תחשיב לוגי של הרעיונות שמאחורי הפעילות העצבית" (1943), מאת וורן מק'קולוך ווולטר פיטס (A Logical Calculus of the Ideas Immanent in Nervous Activity (1943), by Warren McCulloch and Walter Pitts), ו"מכונות חישוב ותבונה" (1950), מאת אלן טיורינג (Computing Machinery and Intelligence (1950), by Alan Turing), וכן "סימביוזת אדם-מחשב" מאת ג'. סי. ר. ליקלידר (Man-Computer Symbiosis by J.C.R. Licklider). ראו קיברנטיקה ומבחן טיורינג לדיון נוסף.

היו גם מחקרים מוקדמים שדחו את האפשרות של בינת מכונה מסיבות פילוסופיות או לוגיות, כגון "השכל, המכונה וגדל" (1961) מאת ג'ון לוקאס.

עם ההתפתחות של טכניקות פרקטיות המבוססות על מחקר הבינה המלאכותית, עלו טענות כי המתנגדים לבינה מלאכותית שינו כל הזמן את עמדתם ביחס למשימות כמו שחמט ממוחשב או הבנת שפה שקודם נחשבו כ"תבוניות", על מנת להכחיש את ההצלחות של הבינה המלאכותית. דאגלס הופשטטר (Douglas Hofstadter) בספרו "גדל, אשר, באך" (Gödel, Escher, Bach) אומר, כי הזזת היעדים הזו היא למעשה אמירה ש"תבונה" היא "כל מה שאדם יכול לעשות ומחשבים לא יכולים".

מחקר ניסויי בבינה מלאכותית

הבינה המלאכותית החלה כתחום ניסויי בשנות ה־50, עם חלוצים כמו אלאן ניואל והרברט סימון, שייסדו את מעבדת הבינה המלאכותית הראשונה באוניברסיטת קרנגי מלון, וג'ון מקארתי ומרווין מינסקי, שייסדו את המעבדה ב־MIT ב־1959.

ציון דרך בהתפתחות המחקר בבינה מלאכותית הוא כנס שנערך בשנת 1956 בדרטמות קולג'. בכנס זה השתתפו חלוצי התחום, ובהם מינסקי, מקארתי וסימון (כל אחד מהשלושה זכה מאוחר יותר בפרס טיורינג). במסגרת הכנס טבע מקארתי את המושג "בינה מלאכותית" (Artificial Intelligence - AI).

בעבר היו שני סוגים כלליים של מחקר בינה מלאכותית – ה"מסודרים" וה"בלגניסטים". הגישה ה"מסודרת", ה"קלאסית" או ה"סימבולית", באופן כללי, עוסקת במניפולציה סימבולית של מושגים מופשטים, וזוהי המתודלוגיה שבה משתמשים בדרך כלל במערכות המתקדמות. הגישה המקבילה היא ה"בלגניסטית", או ה"קישורית", שרשתות נוירונים מלאכותיות הן הדוגמה הטובה ביותר שלה, המנסות "לפתח" תבונה על ידי בניית מערכות ושיפור שלהן בעזרת תהליך אוטומטי כלשהו, במקום לתכנן מראש מערכת שתשלים את המשימה. שתי הגישות הופיעו כבר בתחילת ההיסטוריה של התחום. בשנות ה־60 ובה־70 הגישות הבלגניסטיות לא היו מקובלות, אך העניין בהן עלה שוב בשנות ה־80 כאשר המגבלות של הגישות ה"מסודרות" של אותו הזמן נעשו ברורות. במשך הזמן התברר שלשתי הגישות יש מגבלות חמורות.

המחקר בבינה מלאכותית מומן בחלקו הגדול על ידי הסוכנות לפרויקטים מתקדמים במחקר ביטחוני בארצות הברית (DARPA), ועל ידי מיזם הדור החמישי ביפן. חוסר ההצלחה של המחקר שמומן באותו הזמן להביא לתוצאות מיידיות, למרות ההבטחות הגדולות, הביא לקיצוצים גדולים במימון של הסוכנויות הממשלתיות בסוף שנות ה-80, מה שהביא לירידה בהתעסקות בתחום. בעשור שלאחר מכן, חוקרי בינה מלאכותית רבים עברו לתחומים שכנים עם מטרות צנועות יותר, כמו מערכות לומדות, רובוטיקה, ואופטיקת מחשבים, אם כי מחקר של בינה מלאכותית טהורה עדיין המשיך.

צעדים ראשונים בבינה מלאכותית כללו הענקת יכולת מילולית למחשב, כלומר מתן יכולת למחשב להבין שפה מדוברת ולהגיב בשפה מדוברת. מבחן טיורינג, שמקורו במאמר שפרסם אלן טיורינג בשנת 1950, מוביל לכיוון זה, ואחד הצעדים הראשונים למימושו נעשה בתוכנית "אלייזה", שפיתח ג'וזף וייצנבאום מ-MIT. תוכנית זו (הקרויה על שם גיבורת מחזהו של ג'ורג' ברנרד שו, "פיגמליון"), יוצרת סימולציה של פסיכיאטר. האדם, המקיים דיאלוג עם התוכנית באמצעות מקלדת, זוכה ממנה לתגובות אינטליגנטיות לכאורה, כפי שפסיכיאטר אנושי היה מגיב. ספרו של המשורר דוד אבידן "הפסיכיאטור האלקטרוני שלי" (1974) כולל שמונה שיחות של אבידן עם "אלייזה" (לדעת צבי ינאי, שהיה מעורב ביצירת הקשר בין אבידן ל"אלייזה", המשורר נטל לעצמו חירות רבה בעריכת השיחות, שאינן משקפות את יכולתה האמיתית של "אלייזה"). אלא שכיום ברור שהיכולת לבנות תוכנה השולטת בשפה טבעית היא משימה מורכבת ביותר, הדורשת גם שילוב של ידע נרחב בבלשנות ובמדעים קוגניטיביים אחרים.

הישג נוסף לתחום הבינה המלאכותית הוא תוכנות היודעות לשחק משחקים "אינטליגנטיים" המצריכים "חשיבה". דוגמה בתחום זה היא תוכנות השחמט המנצחות בימינו את השחקן הממוצע בנקל. על היתרון האנושי (יכולת לשלול מהר מצבים לא מעניינים, אינטואיציה) מפצות התוכנות במאגרי מידע עצומים של ידע תאורטי (ספרי פתיחות וסיומים בשחמט לדוגמה) ובאלגוריתמים הפורסים את כל אפשרויות המשחק מספר רב של מהלכים קדימה - הרבה יותר מהיכולת האנושית. בבסיסן, אותן תוכנות נעזרות במבנה נתונים הנקרא עץ מינימקס לשם כך.