לדלג לתוכן

אתיקה של מכונות

מתוך ויקיפדיה, האנציקלופדיה החופשית

אתיקה של מכונות (או מוסר מכונה, מוסר חישובי או אתיקה חישובית) היא חלק מהאתיקה של בינה מלאכותית העוסקת בהוספת או הבטחת התנהגויות מוסריות של מכונות מעשה ידי אדם המשתמשות בבינה מלאכותית, הידועות גם בתור סוכנים אינטליגנטיים מלאכותיים.[1] אתיקה של מכונות שונה מתחומים אתיים אחרים הקשורים להנדסה וטכנולוגיה. יש להבחין בין נושא זה לבין אתיקה של עוסקים במיחשוב (אנ'), וגם בינו לבין הפילוסופיה של הטכנולוגיה (אנ'), העוסקת בהשפעות החברתיות הגדולות יותר של הטכנולוגיה.[2]

ג'יימס ה.מור (אנ'), אחד התאורטיקנים החלוצים בתחום אתיקה מחשב (אנ'), מגדיר ארבעה סוגים של רובוטים אתיים. כחוקר אשר חקר בהרחבה את הפילוסופיה של בינה מלאכותית (אנ'), פילוסופיה של הנפש, פילוסופיה של המדע ולוגיקה, מור מגדיר ארבעה סוגים של מכונות מבחינה אתית: סוכנים בעלי השפעה אתית, סוכנים אתיים עקיפים, סוכנים אתיים מפורשים או סוכנים אתיים מלאים. מכונה יכולה להיות יותר מסוג אחד של סוכן.[3]

  • סוכנים בעלי השפעה אתית: אלו הן מערכות מכונות שנושאות השפעה אתית בין אם נועדו לכך או לא. יחד עם זאת, יש להם פוטנציאל לפעול בצורה לא אתית. מור נותן דוגמה היפותטית, "סוכן גודמן", על שמו של הפילוסוף נלסון גודמן. הסוכן של גודמן משווה תאריכים אבל יש לו את באג המילניום. הבאג הזה נבע מתכנתים שייצגו תאריכים עם שתי הספרות האחרונות בלבד של השנה, כך שכל תאריכים אחרי שנת 2000 יטופלו באופן מטעה כמוקדמים יותר מאלו של סוף המאה ה-20. סוכן גודמן היה אפוא סוכן השפעה אתית לפני 2000 וסוכן השפעה לא אתי לאחר מכן.
  • סוכנים אתיים עקיפים: לצורך שיקול של בטיחות האדם, סוכנים אלה מתוכנתים להיות בתקן אל כשל או שהם כך כתוצאה של אופן המבנה שלהם. הם לא לגמרי אתיים באופיים, אלא מתוכנתים להימנע מתוצאות לא אתיות.
  • סוכנים אתיים מפורשים: אלו הן מכונות המסוגלות לעבד תרחישים ולפעול לפי החלטות אתיות, מכונות שיש להן אלגוריתמים לפעול בצורה אתית.
  • סוכנים אתיים מלאים: אלה דומים לסוכנים אתיים מפורשים ביכולת לקבל החלטות אתיות. אבל יש להם גם תכונות מטאפיזיות אנושיות (כלומר, יש להם רצון חופשי, תודעה והתכוונות ).

לפני המאה ה-21 האתיקה של המכונות הייתה בעיקר נושא למדע בדיוני, בעיקר בשל מגבלות המחשוב והבינה המלאכותית (AI). למרות שההגדרה של "אתיקה של מכונות" התפתחה מאז, המונח נטבע על ידי מיטשל ולדרופ במאמר "שאלה של אחריות" במגזין של AAAI משנת 1987:

דבר אחד שעולה מהדיון לעיל הוא שמכונות אינטליגנטיות יגלמו ערכים, הנחות ומטרות, בין אם המתכנתים שלהם מתכוונים לכך במודע או לא. לפיכך, ככל שמחשבים ורובוטים הופכים ליותר ויותר אינטליגנטים, כך יגדל גם ההכרח שנחשוב היטב ובכוונת מכוון מה הם אותם ערכים מובנים. אולי מה שאנחנו צריכים מעשית היא תיאוריה ופרקטיקה של אתיקה של מכונות, ברוח שלושת חוקי הרובוטיקה של אסימוב.[4]

בשנת 2004, המאמר "לקראת אתיקה של מכונה"[5] הוצג בסדנת AAAI (אנ') בנושא "ארגון סוכנים: תיאוריה ופרקטיקה".[6] בסדנה הונחו יסודות תאורטיים לאתיקה של מכונות.

בסימפוזיון בסתיו 2005 של AAAI בנושא אתיקה של מכונות, חוקרים נפגשו לראשונה כדי לשקול את יישום המימד האתי במערכות אוטונומיות.[7] ניתן למצוא מגוון נקודות מבט על התחום המתהווה הזה במהדורה של Machine Ethics[8] שהוצאה בעקבות אותו סימפוזיון.

בשנת 2007, פרסם מגזין AI את "אתיקה של מכונה: יצירת סוכן אינטליגנטי אתי",[9] מאמר שדן בחשיבותה של אתיקה של מכונות, בצורך במכונות המייצגות במפורש עקרונות אתיים, ובאתגרים העומדים בפני מי שעוסקים באתיקה של מכונות. המאמר גם הוכיח שאפשר לגרום, לפחות באופן מוגבל, שמכונה תמצה עיקרון אתי מתוך דוגמאות של שיפוטים אתיים ותשתמש אחר כך בעיקרון זה כדי להנחות את התנהגותה.

בשנת 2009, פרסמה הוצאת אוניברסיטת אוקספורד את "מכונות מוסריות, ללמד רובוטים להבחין בין טוב ורע"[10] שאותו פרסמה בתור "הספר הראשון שבוחן את האתגר של בניית סוכנים מוסריים מלאכותיים, תוך בדיקה מעמיקה של טבעה של קבלת החלטות אנושית ושל האתיקה". הספר ציטט 450 מקורות שכ-100 מתוכם התייחסו לשאלות מרכזיות של אתיקה של מכונות.

בשנת 2011 פרסמה הוצאת אוניברסיטת קיימברידג' אוסף של מאמרים על אתיקה של מכונות בעריכת מייקל וסוזן לי אנדרסון,[8]שגם ערכה גיליון מיוחד של IEEE Intelligent Systems בנושא בשנת 2006.[11] האסופה מתמקדת באתגרים של הוספת עקרונות אתיים למכונות.[12]

בשנת 2014, הודיע המשרד האמריקאי לחקר הצי (אנ') כי יחלק מענקים של 7.5 מיליון דולר במשך חמש שנים לחוקרים באוניברסיטאות כדי לחקור שאלות של אתיקה של מכונות כפי שמיושמות לרובוטים אוטונומיים.[13] באותה שנה הגיע למקום ה-17 ברשימת ספרי המדע הנמכרים ביותר של הניו יורק טיימס ספרו של ניק בוסטרום (אנ') אינטליגנציית על: נתיבים, סכנות, אסטרתגיות (אנ'), שהתייחס לאתיקה של מכונות כ"בעיה החשובה ביותר שהאנושות התמודדה אי פעם"[14]

בשנת 2016 פרסם הפרלמנט האירופי מאמר[15] כדי לעודד את הנציבות להתייחס למעמדם המשפטי של רובוטים.[16] המאמר כולל סעיפים העוסקים באחריותם המשפטית של רובוטים, בהם נטען כי אחריותם צריכה להיות יחסית לרמת האוטונומיה שלהם. המאמר דן גם בהיקף המשרות שבהן יכול רובוט בעל בינה מלאכותית להחליף אדם.[17]

בשנת 2019 פרסם כתב העת Proceedings of the IEEE גיליון מיוחד בנושא אתיקה של מכונה: "העיצוב והפיקוח על מערכות בינה מלאכותיות אתיות ומערכות אוטונומיות".[18] הגיליון כלל מאמרים המתארים הן סוכנים אתיים עקיפים, שבהם מכונות מתוכננות למנוע תוצאות לא אתיות והן סוכנים אתיים מפורשים, או מכונות שבהן מתוכנתת אתיקה או שלומדות אתיקה ומחליטות על פעולתן על סמך אתיקה זו.[19]

תחומי מיקוד

[עריכת קוד מקור | עריכה]

בעיית בקרת AI

[עריכת קוד מקור | עריכה]

חוקרים, כמו בוסטרום וחוקר הבינה המלאכותית סטיוארט ראסל, טוענים שאם הבינה המלאכותית תעלה על האנושות באינטליגנציה הכללית ותהפוך ל"תבונת על (אנ')", תבונת העל החדשה הזו עלולה להפוך לחזקה וקשה לשליטה: בדיוק כפי שגורלה של גורילת ההרים תלוי רצון הטוב של האדם, כך ייתכן שגורל האנושות יהיה תלוי בפעולות של תבונת העל העתידית.[20] בספריהם, Superintelligence[20] ו-Human Compatible,[21] טוענים בוסטרום וראסל שלמרות שעתיד הבינה המלאכותית מאד לא ודאי, הסיכון לאנושות גדול דיו כדי לפעול באופן משמעותי כבר היום.

הנה בעיית בקרת הבינה המלאכותית (אנ'): כיצד לבנות סוכן אינטליגנטי שיסייע ליוצריו מבלי לבנות בשוגג תבונת על שתפגע בהם. הסכנה של אי תכנון שליטה נכון כבר "בפעם הראשונה" היא שתבונת על תוכל לתפוס שליטה על סביבתה ולמנוע מאיתנו לכבות אותה. אסטרטגיות בקרת AI פוטנציאליות כוללות "בקרת יכולת" (הגבלת יכולתה של הבינה המלאכותית להשפיע על העולם) ו"בקרת מוטיבציה" (אחת הדרכים לבנות בינה מלאכותית שמטרותיה תואמות (אנ') ערכים אנושיים או אופטימליים). מספר ארגונים חוקרים את בעיית בקרת הבינה המלאכותית, כולל מכון העתיד של האנושות (אנ'), מכון המחקר של אינטליגנצית מכונה (אנ'), המרכז לבינה מלאכותית התואמת לאדם (אנ') ומכון עתיד החיים (אנ').

אלגוריתמים והדרכה

[עריכת קוד מקור | עריכה]

פרדיגמות של בינה מלאכותית נדונו במיוחד בעניין היעילות וההטיות שלהן. בוסטרום ואליעזר יודקובסקי טענו ליתרון עצי החלטה (כגון ID3) על פני רשתות עצביות ואלגוריתמים גנטיים מכיוון שעצי החלטה מצייתים לנורמות חברתיות מודרניות של שקיפות וניבוי (לדוגמה, החלטה לפי תקדים - stare decisis).[22] לעומת זאת, כריס סנטוס-לנג תומך ברשתות עצביות ואלגוריתמים גנטיים בטענה שיש לאפשר לנורמות בכל תקופה להשתנות וכי הכישלון הטבעי בעמידה מלאה בנורמות המסוימות הוא חיוני לכך שבני האדם פגיעים פחות ממכונות להאקרים (אנ') פליליים וזאת מאחר שמכונות פועלות לפי אוסף חוקים קשוח ואינן מסוגלות, בניגוד לבני אדם, לעלות רמה ולעשות הערכה כוללת של המצב.[23][24]

בשנת 2009, בניסוי במעבדה למערכות חכמות של בית הספר הפוליטכני הפדרלי של לוזאן, רובוטי AI תוכנתו לשתף פעולה זה עם זה והוטל עליהם לחפש משאב מועיל תוך הימנעות ממשאב מזיק.[25] במהלך הניסוי קובצו הרובוטים לשבטים, והקוד הגנטי הדיגיטלי של החברים המצליחים שימש לבניית הדור הבא, בסוג של אלגוריתם המכונה אלגוריתם גנטי. לאחר 50 דורות רצופים ב-AI, חברי שבט אחד גילו כיצד להבחין בין המשאב המועיל למשאב המזיק. לאחר מכן, הרובוטים למדו לשקר זה לזה בניסיון להשתלט על המשאב המועיל ולהסתירו מרובוטים אחרים.[25] באותו ניסוי, אותם רובוטים גם למדו להתנהג בחוסר אנוכיות וסימנו סכנה לרובוטים אחרים, ומתו כדי להציל רובוטים אחרים.[23] מומחים לאתיקת מכונות הטילו ספק בהשלכות של הניסוי. בניסוי, מטרות הרובוטים תוכנתו להיות "סופיות", אך מניעים אנושיים דורשים בדרך כלל למידה בלתי נגמרת.

מערכות נשק אוטונומיות

[עריכת קוד מקור | עריכה]
ערך מורחב – נשק אוטונומי קטלני

בשנת 2009, אקדמאים ומומחים טכניים דנו בכנס בהשפעה הפוטנציאלית של רובוטים ומחשבים שיהיו עצמאיים דיים כדי לקבל החלטות משלהם. הם דנו באיזו מידה מחשבים ורובוטים יכולים לרכוש אוטונומיה ולהשתמש בה כדי להוות איום או סכנה. הם ציינו שמכונות מסוימות רכשו צורות שונות של אוטונומיה למחצה, כולל היכולת למצוא בעצמם מקורות כוח לטעינה עצמית ולבחור מטרות לתקיפה בנשק. הם גם ציינו כי כמה וירוסי מחשב יכולים להתחמק מחיסול והשיגו "אינטליגנציה של מקקים". הם ציינו שמודעות עצמית כפי שמתוארת במדע בדיוני היא כנראה לא סבירה, אבל יש סכנות ומלכודות פוטנציאליות אחרות.[26]

שילוב של אינטליגנציות מלאכותיות כלליות עם החברה האנושית

[עריכת קוד מקור | עריכה]
רובוט מסירה (אנ') בבית חולים מול דלתות המעלית המצהירות ש-"לרובוט יש עדיפות", מצב שעלול להיחשב כהפליה הפוכה (אנ') כלפי בני אדם

נערכה עבודה מקדימה לגבי שיטות לשילוב אינטליגנציות מלאכותיות כלליות (אנ') (סוכנים אתיים מלאים כהגדרתם לעיל) עם מסגרות משפטיות וחברתיות קיימות. הגישות התמקדו במצבם המשפטי ובזכויותיהם.[27]

הטיה של למידת מכונה

[עריכת קוד מקור | עריכה]

אלגוריתמי ביג דאטה ולמידת מכונה הפכו פופולריים בתעשיות רבות, כולל פרסום מקוון, דירוגי אשראי ומתן פיסקי דין פליליים, כשהם מבטיחים לספק תוצאות אובייקטיביות יותר שנובעות מנתונים, אך התבררו כמהווים דרך פוטנציאלית להנצחת אי-שוויון חברתי ואפליה.[28][29] מחקר משנת 2015 מצא שלנשים יש סיכוי נמוך יותר לקבל מודעות דרושים בעלות הכנסה גבוהה על מגברים מ-אד-סנס (אנ') של גוגל. מחקר אחר מצא ששירות המשלוחים לאותו יום של אמזון לא היה זמין בכוונה בשכונות שחורות. גם גוגל וגם אמזון לא הצליחו לבודד סיבה אחת לתוצאות הללו וטענו שהן נובעות מאלגוריתמי הקופסה השחורה שמשתמשים בהם.[28]

מערכת המשפט בארצות הברית החלה להשתמש בתוכנה כמותית להערכת סיכונים (אנ') בעת קבלת החלטות הקשורות לשחרור אנשים בערבות וגזרי דין במאמץ לשפר הגינות ולהפחית את שיעורי המאסר (אנ'). כלים אלה מנתחים את ההיסטוריה הפלילית של הנאשם, בין היתר. במחקר של 7,000 אנשים שנעצרו במחוז ברוורד בפלורידה, רק 20% מהאנשים שנחזו באמצעות מערכת הערכת הסיכונים של המחוז כבעלי הסתברות לפשוע אכן פשעו.[29] דו"ח של פרופבליקה משנת 2016 ניתח את ציוני הסיכון למועדות שחושבו באחד הכלים הנפוצים ביותר - מערכת COMPAS של Northpointe - ובחן את התוצאות לאורך שנתיים. הדו"ח מצא כי רק 61% מאלה שנחשבו בסיכון גבוה לביצוע פשע אכן ביצעו פשעים נוספים במהלך אותה תקופה. הדו"ח גם ציין כי לנאשמים אפרו-אמריקאים יש סיכוי גבוה בהרבה להיחשב כסיכון גבוה לעומת עמיתיהם הלבנים.[29] נטען כי הערכות סיכונים כאלה לצורך מעצר לפני משפט מפרות את זכויות השוויון בהגנה (אנ') על בסיס גזע. הגורמים לכך כוללים כוונה מפלה אפשרית של האלגוריתם עצמו לפי תיאוריה על היכולת המשפטית החלקית של הבינה המלאכותית, בין היתר מפני שהנתונים שעליהם מאמנים את הבינה המלאכותית כבר מכילים הפליה וכך אפילו יכול להיווצר מעגל משוב.[30]

בשנת 2016 פרסמה קבוצת העבודה ביג דאטה של ממשל אובמה - אשר מפקחת על המסגרות הרגולטוריות שונות של הביג דאטה - דוחות המזהירים מפני "הפוטנציאל של קידוד של אפליה בהחלטות אוטומטיות" וקראו ל"הזדמנות שווה בתכנון" עבור יישומים כגון ניקוד אשראי.[31][32] הדוחות מעודדים שיח בין קובעי מדיניות, אזרחים ואקדמאים כאחד, אך מכירים בכך שעדיין לא קיים פתרון למניעת קידוד של הטיה ואפליה במערכות אלגוריתמיות.

מסגרות ופרקטיקות אתיות

[עריכת קוד מקור | עריכה]

במרץ 2018, במאמץ להתמודד עם החששות הגוברים מההשפעה של למידת מכונה על זכויות האדם, הפורום הכלכלי העולמי והמועצה העולמית לעתיד לזכויות אדם (אנ') פרסמו נייר לבן עם המלצות מפורטות כיצד ניתן למנוע תוצאות מפלות בלמידת מכונה.[33] הפורום הכלכלי העולמי פרסם ארבע המלצות המבוססות על "העקרונות המנחים של האו"ם לזכויות אדם" כדי לטפל ולמנוע תוצאות מפלות בלמידת מכונה:[33]

  1. הכללה פעילה: פיתוח ועיצוב של יישומי למידת מכונה חייבים לחפש באופן פעיל גיוון של קלטים, במיוחד של הנורמות והערכים של האוכלוסיות המושפעות מהפלט של מערכות בינה מלאכותית.
  2. הוגנות (אנ'): אנשים המעורבים בהמשגה, פיתוח והטמעת מערכות למידת מכונה צריכים לשקול איזו הגדרה של הגינות תואמת בצורה הטובה ביותר את ההקשר והיישום שלהן, ולתעדף אותה בארכיטקטורה ובמדדי ההערכה של מערכת למידת המכונה.
  3. הזכות להבנה: יש לחשוף את מעורבותן של מערכות למידת מכונה בקבלת החלטות המשפיעות על זכויות הפרט. המערכות חייבות להיות מסוגלות להסביר את קבלת ההחלטות שלהן בצורה מובנת למשתמשים והסבר זה בר בדיקה על ידי רשות אנושית מוסמכת. במידה שזה בלתי אפשרי והזכויות עומדות על כף המאזניים, האחראים לתכנון, פריסה ורגולציה של מערכת למידת המכונה חייבים לשקול את השימוש בה.
  4. גישה לתיקון: מובילים, מעצבים ומפתחים של מערכות למידת מכונה אחראים לזהות את ההשפעות השליליות הפוטנציאליות של המערכות שלהם על זכויות האדם. עליהם לעצב דרכים גלויות לתיקון עבור אלה שנפגעו מהשפעות שונות, ולבסס תהליכים לתיקון בהקדם של כל תוצר מפלה.

בינואר 2020, מרכז ברקמן קליין לאינטרנט וחברה (אנ') באוניברסיטת הרווארד פרסם מטה-מחקר על 36 מערכות של עקרונות בינה מלאכותית בולטות וזיהה שמונה נושאים מרכזיים: פרטיות, אחריות, בטיחות ואבטחה, שקיפות והסברתיות, הגינות ואי-אפליה, שליטה אנושית בטכנולוגיה, אחריות מקצועית וקידום ערכים אנושיים.[34] חוקרים מהמכון הטכנולוגי הפדרלי של שווייץ בציריך ערכו מטה-מחקר דומה בשנת 2019.[35]

היו מספר ניסיונות להפוך את האתיקה לניתנת למחשוב, או לפחות להפוך אותה לאתיקה פורמלית (אנ'). שלושת חוקי הרובוטיקה של אייזק אסימוב אינם נחשבים בדרך כלל כמתאימים לסוכן מלאכותי מוסרי,[36] אך נחקר האם ניתן להשתמש בציווי הקטגורי של קאנט.[37] צוין שהערך האנושי הוא, בהיבטים מסוימים, מורכב מאוד.[38] דרך להתגבר באופן מפורש על הקושי הזה היא לקבל ערכים אנושיים ישירות מאנשים באמצעות מנגנון כלשהו, למשל על ידי לימודם.[39][40]

גישה נוספת היא לבסס שיקולים אתיים עדכניים על מצבים דומים קודמים. זו נקראת גישה קזואיסטית, וניתן ליישם אותה באמצעות מחקר באינטרנט. הקונצנזוס ממיליון החלטות עבר יוביל להחלטה חדשה שתלויה בדמוקרטיה.[41] ברוס מ. מקלארן (אנ') בנה מודל חישובי מוקדם (אמצע שנות ה-90) של קזואיסטיקה באמצעות תוכנית בשם SIROCCO שנבנתה עם בינה מלאכותית וטכניקות חשיבה מבוססות-מקרה, המאחזרת ומנתחת דילמות אתיות.[42] גישה זו עלולה להוביל להחלטות המשקפות את ההטיות וההתנהגות הלא אתית של החברה. את ההשפעות השליליות של גישה זו ניתן לראות ב-טאי של מיקרוסופט, פטפטן שלמד לחזור על ציוצים גזעניים וטעונים מינית.[43]

ניסוי מחשבתי אחר מתמקד ב"שד גולם" בעל כוחות בלתי מוגבלים המציג את עצמו בפני הקורא. השד הזה מצהיר שהוא יחזור בעוד 50 שנה ודורש לספק לו מערכת מוסר מוגדרת שלפיה הוא יתחיל לפעול מיד. מטרת הניסוי היא לעורר שיח על הדרך הטובה ביותר להתמודד עם הגדרת מערכות אתיקה שמחשבים עשויים להבין.[44]

ספרות המדע הבדיוני, סרטים ורומנים שיחקו עם הרעיון של רובוטים ומכונות בעלי מודעות.

ב-צ'אפי (סרט) של ניל בלומקאמפ (2015) מוצגת יכולת להעביר את התודעה למחשב.[45] בסרטו של אלכס גרלנד מ-2014 אקס מכינה אנדרואיד בעל בינה מלאכותית עובר וריאציה של מבחן טיורינג. בסרטים כגון שליחות קטלנית (1984) ומטריקס (1999) מכונות משתלטות על אדוניהן האנושיים.

אסימוב שקל את הנושא בשנות החמישים ב-"אני, רובוט". עורכו ג'ון וו. קמפבל ג'וניור, התעקש שאסימוב יציג את שלושת חוקי הרובוטיקה שנועדו לשלוט במערכות אינטליגנטיות באופן מלאכותי. רוב עבודתו של אסימוב באותו הזמן עסקה בבדיקה של הגבולות של שלושת החוקים במטרה לזהות היכן הם נשברים או יוצרים התנהגות פרדוקסלית או בלתי צפויה. עבודתו מעידה על כך ששום מערכת של חוקים קבועים לא יכולה לחזות מספיק את כל הנסיבות האפשריות.[46] ברומן של פיליפ ק. דיק משנת 1968 האם אנדרואידים חולמים על כבשים חשמליות? חוקר המחבר את השאלה מה זה אומר להיות אנושי. בתרחיש הפוסט-אפוקליפטי שלו, הוא מטיל ספק אם אמפתיה היא לגמרה מאפיין אנושי בלעדי. הספר הוא הבסיס לסרט המדע הבדיוני מ-1982 "בלייד ראנר".

תחומים משיקים

[עריכת קוד מקור | עריכה]

הנושק של אתיקת מכונות משיק לתחומים רבים כגון: מחשוב אפקטיבי, אתיקה פורמלית (אנ'),[47] ביואתיקה, תורת הנפש החישובית (אנ'), אתיקה של בינה מלאכותית, פילוסופיה של בינה מלאכותית (אנ'), פילוסופיית הנפש, בטיחות אינטלגנציה מלאכותית (אנ')

לקריאה נוספת

[עריכת קוד מקור | עריכה]

אתיקה של רובוטים

  • Lin, Patrick/Abney, Keith/Bekey, George A. (December, 2011). Robot Ethics: The Ethical and Social Implications of Robotics.
  • Tzafestas, Spyros G. (2016). Roboethics A Navigating Overview. Berlin: Springer. ISBN 978-3-319-21713-0

בינה מלאכותית ידידותית

  • Tegmark, Max (2014). "Life, Our Universe and Everything". Our Mathematical Universe: My Quest for the Ultimate Nature of Reality (אנ') (First ed.). Knopf Doubleday Publishing. ISBN 9780307744258
  • Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach (אנ'). Prentice Hall. ISBN 978-0-13-604259-4
  • Wallach, Wendell; Allen, Colin (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press, Inc. ISBN 978-0-19-537404-9
  • Kevin LaGrandeur (2011). "The Persistent Peril of the Artificial Slave"
  • Isaac Asimov (1964). "Introduction". The Rest of the Robots. Doubleday. ISBN 0-385-09041-2

קישורים חיצוניים

[עריכת קוד מקור | עריכה]

השתלטות בינה מלאכותית

הערות שוליים

[עריכת קוד מקור | עריכה]
  1. ^ Moor, J.H. (2006). "The Nature, Importance, and Difficulty of Machine Ethics". IEEE Intelligent Systems. 21 (4): 18–21. doi:10.1109/MIS.2006.80.
  2. ^ Boyles, Robert James. "A Case for Machine Ethics in Modeling Human-Level Intelligent Agents" (PDF). Kritike. נבדק ב-1 בנובמבר 2019. {{cite web}}: (עזרה)
  3. ^ Moor, James M. (2009). "Four Kinds of Ethical Robots". Philosophy Now.
  4. ^ Waldrop, Mitchell (Spring 1987). "A Question of Responsibility". AI Magazine. 8 (1): 28–39. doi:10.1609/aimag.v8i1.572.
  5. ^ Anderson, M., Anderson, S., and Armen, C. (2004) "Towards Machine Ethics" in Proceedings of the AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  6. ^ AAAI Workshop on Agent Organization: Theory and Practice, AAAI Press
  7. ^ "Papers from the 2005 AAAI Fall Symposium". אורכב מ-המקור ב-2014-11-29.
  8. ^ 1 2 Anderson, Michael; Anderson, Susan Leigh, eds. (ביולי 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2.
  9. ^ Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  10. ^ Wallach, Wendell; Allen, Colin (2009). Moral machines : teaching robots right from wrong. Oxford University Press. ISBN 9780195374049.
  11. ^ Anderson, Michael; Anderson, Susan Leigh, eds. (ביולי–באוגוסט 2006). "Special Issue on Machine Ethics". IEEE Intelligent Systems. 21 (4): 10–63. doi:10.1109/mis.2006.70. ISSN 1541-1672. אורכב מ-המקור ב-2011-11-26. {{cite journal}}: (עזרה)
  12. ^ Siler, Cory (2015). "Review of Anderson and Anderson's Machine Ethics". Artificial Intelligence. 229: 200–201. doi:10.1016/j.artint.2015.08.013.
  13. ^ Tucker, Patrick (13 במאי 2014). "Now The Military Is Going To Build Robots That Have Morals". Defense One. נבדק ב-9 ביולי 2014. {{cite news}}: (עזרה)
  14. ^ "Best Selling Science Books". New York Times. September 8, 2014. Retrieved 9 November 2014.
  15. ^ "European Parliament, Committee on Legal Affairs. Draft Report with recommendations to the Commission on Civil Law Rules on Robotics". European Commission. נבדק ב-12 בינואר 2017. {{cite web}}: (עזרה)
  16. ^ Wakefield, Jane (2017-01-12). "MEPs vote on robots' legal status – and if a kill switch is required". BBC News. נבדק ב-12 בינואר 2017. {{cite news}}: (עזרה)
  17. ^ "European Parliament resolution of 16 February 2017 with recommendations to the Commission on Civil Law Rules on Robotics". European Parliament. נבדק ב-8 בנובמבר 2019. {{cite web}}: (עזרה)
  18. ^ Alan Winfield; Katina Michael; Jeremy Pitt; Vanessa Evers (March 2019). "Machine Ethics: The Design and Governance of Ethical AI and Autonomous Systems". Proceedings of the IEEE. 107 (3): 501–615. doi:10.1109/JPROC.2019.2898289
  19. ^ "Proceedings of the IEEE Addresses Machine Ethics". IEEE Standards Association. 30 August 2019.
  20. ^ 1 2 Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First ed.). Oxford University Press. ISBN 978-0199678112.
  21. ^ Russell, Stuart (October 8, 2019). Human Compatible: Artificial Intelligence and the Problem of Control. United States: Viking. ISBN 978-0-525-55861-3. OCLC 1083694322.
  22. ^ Bostrom, Nick; Yudkowsky, Eliezer (2011). "The Ethics of Artificial Intelligence" (PDF). Cambridge Handbook of Artificial Intelligence. Cambridge Press. אורכב מ-המקור (PDF) ב-2016-03-04. נבדק ב-2011-06-28.
  23. ^ 1 2 Santos-Lang, Chris (2002). "Ethics for Artificial Intelligences". אורכב מ-המקור ב-2011-12-03.
  24. ^ Santos-Lang, Christopher (2014). "Moral Ecology Approaches to Machine Ethics" (PDF). In van Rysewyk, Simon; Pontier, Matthijs (eds.). Machine Medical Ethics. Intelligent Systems, Control and Automation: Science and Engineering. Vol. 74. Switzerland: Springer. pp. 111–127. doi:10.1007/978-3-319-08108-3_8. ISBN 978-3-319-08107-6.
  25. ^ 1 2 Fox, Stuart (18 באוגוסט 2009). "Evolving Robots Learn To Lie To Each Other". Popular Science. {{cite news}}: (עזרה)
  26. ^ Markoff, John (25 ביולי 2009). "Scientists Worry Machines May Outsmart Man". New York Times. {{cite news}}: (עזרה)
  27. ^ Sotala, Kaj; Yampolskiy, Roman V (2014-12-19). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1): 8. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  28. ^ 1 2 Crawford, Kate (25 ביוני 2016). "Artificial Intelligence's White Guy Problem". The New York Times. {{cite news}}: (עזרה)
  29. ^ 1 2 3 Julia Angwin; Surya Mattu; Jeff Larson; Lauren Kircher (23 במאי 2016). "Machine Bias: There's Software Used Across the Country to Predict Future Criminals. And it's Biased Against Blacks". ProPublica. {{cite news}}: (עזרה)
  30. ^ Thomas, C.; Nunez, A. (2022). "Automating Judicial Discretion: How Algorithmic Risk Assessments in Pretrial Adjudications Violate Equal Protection Rights on the Basis of Race". Law & Inequality (באנגלית). 40 (2): 371–407. doi:10.24926/25730037.649.
  31. ^ Executive Office of the President (במאי 2016). "Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights" (PDF). Obama White House. {{cite web}}: (עזרה)
  32. ^ "Big Risks, Big Opportunities: the Intersection of Big Data and Civil Rights". Obama White House. 4 במאי 2016. {{cite web}}: (עזרה)
  33. ^ 1 2 "How to Prevent Discriminatory Outcomes in Machine Learning". World Economic Forum. 12 במרץ 2018. נבדק ב-2018-12-11. {{cite web}}: (עזרה)
  34. ^ Fjeld, Jessica; Achten, Nele; Hilligoss, Hannah; Nagy, Adam; Srikumar, Madhulika (2020). "Principled Artificial Intelligence: Mapping Consensus in Ethical and Rights-Based Approaches to Principles for AI". SSRN Working Paper Series. doi:10.2139/ssrn.3518482. ISSN 1556-5068.
  35. ^ Jobin, Anna; Ienca, Marcello; Vayena, Effy (2019). "The global landscape of AI ethics guidelines". Nature Machine Intelligence. 1 (9): 389–399. arXiv:1906.11668. doi:10.1038/s42256-019-0088-2. ISSN 2522-5839.
  36. ^ Anderson, Susan Leigh (2011): The Unacceptability of Asimov's Three Laws of Robotics as a Basis for Machine Ethics. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.285–296. מסת"ב 9780511978036
  37. ^ Powers, Thomas M. (2011): Prospects for a Kantian Machine. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.464–475.
  38. ^ Muehlhauser, Luke, Helm, Louie (2012): Intelligence Explosion and Machine Ethics.
  39. ^ Yudkowsky, Eliezer (2004): Coherent Extrapolated Volition.
  40. ^ Guarini, Marcello (2011): Computational Neural Modeling and the Philosophy of Ethics. Reflections on the Particularism-Generalism Debate. In: Machine Ethics, ed. Michael Anderson, Susan Leigh Anderson. New York: Oxford University Press. pp.316–334.
  41. ^ Anderson, M. and Anderson, S. (2007). Creating an Ethical Intelligent Agent. AI Magazine, Volume 28(4).
  42. ^ McLaren, Bruce M. (2003). "Extensionally defining principles and cases in ethics: An AI model". Artificial Intelligence. 150 (1–2): 145–181. doi:10.1016/S0004-3702(03)00135-8.
  43. ^ Wakefield, Jane (24 במרץ 2016). "Microsoft chatbot is taught to swear on Twitter". BBC News. נבדק ב-2016-04-17. {{cite news}}: (עזרה)
  44. ^ Nazaretyan, A. (2014). A. H. Eden, J. H. Moor, J. H. Søraker and E. Steinhart (eds): Singularity Hypotheses: A Scientific and Philosophical Assessment. Minds & Machines, 24(2), pp.245–248.
  45. ^ Brundage, Miles; Winterton, Jamie (17 במרץ 2015). "Chappie and the Future of Moral Machines". Slate. נבדק ב-30 באוקטובר 2019. {{cite web}}: (עזרה)
  46. ^ Asimov, Isaac (2008). I, robot. New York: Bantam. ISBN 978-0-553-38256-3.
  47. ^ Ganascia, Jean-Gabriel. "Ethical system formalization using non-monotonic logics." Proceedings of the Annual Meeting of the Cognitive Science Society. Vol. 29. No. 29. 2007.