הבינה המלאכותית (AI) עדיין לא הגיעה לרמה האנושית. אך כשהטכנולוגיה סוגרת את הפער יותר ויותר מדי שנה, צצות בעיות אתיות רבות.
שאלה אחת חשובה היא: עד כמה הבינה המלאכותית תהיה דומה לבני אדם? האם הם יחשבו בעצמם או שיהיו להם רצונות ורגשות? האם עליהם להיות בעלי זכויות חוקיות כמו בני אדם? האם צריך להכריח אותם לעבודה או לתת דין וחשבון אם משהו משתבש?
נעסוק בשאלות אלה ועוד במאמר זה.
אתיקה של AI: למה הם חשובים לחשוב עליהם
AI ואתיקה של מכונות הם שני תחומים קשורים שצוברים אחיזה הולכת וגוברת. הם מתייחסים למספר היבטים חשובים של הטכנולוגיה, לרבות האופן שבו אנו מתכננים, משתמשים ומטפלים במכונות. רוב הנושאים הללו מתייחסים לדאגות בטיחות ביחס לבני אדם.
עם זאת, האתיקה הבינה המלאכותית מתחילה לחלוף על פני סוגיות יסוד אלה ולטריטוריה שנויה במחלוקת יותר. תארו לעצמכם כי בעשורים הקרובים מתפתח AI אינטליגנטי-סופר, בעל פוטנציאל מודע ומבטא רצונות, רגשות או יכול לחוות סבל. מכיוון שאנו אפילו לא בטוחים מהי התודעה האנושית או כיצד היא מתעוררת, היא אינה הצעה מופרכת כפי שהיא נשמעת במקור.
כיצד היינו מגדירים ונותנים טיפול AI כזה? ומה הן כמה מהנושאים האתיים שעומדים בפנינו כרגע עם רמת ה- AI הנוכחית שלנו?
בואו נסתכל על כמה מהדילמות האתיות שעומדות בפנינו.
האם AI צריך לקבל אזרחות?
בשנת 2017 העניקה ממשלת ערב הסעודית אזרחות מלאה לסופיה: אחד הרובוטים מונעי ה- AI החיים ביותר בעולם. סופיה יכולה לקחת חלק בשיחה והיא מסוגלת לחקות 62 הבעות פנים אנושיות. סופיה היא הלא-אנושית הראשונה בעלת דרכון, והראשונה בעלת כרטיס אשראי.
ההחלטה להפוך את סופיה לאזרחית הייתה שנויה במחלוקת. יש הרואים בכך צעד קדימה. הם חושבים שחשוב שאנשים וגופי רגולציה יתחילו לשים לב יותר לנושאים בתחום זה. אחרים רואים בכך פגיעה בכבוד האדם, וקובעים כי ה- AI עדיין לא קרוב להיות אנושי - וכי החברה כולה אינה מוכנה לאזרחי רובוט.
הוויכוח מתלהם בגלל הזכויות והחובות שיש לאזרחים. אלה כוללים את היכולת להצביע, לשלם מסים, להתחתן ולהביא ילדים לעולם. אם מותר לסופיה להצביע, מי בעצם מצביע? עם המצב הנוכחי של AI, האם מעדיף להיות היוצר שלה שיצביע? ביקורת נוקבת נוספת היא שסופיה זכתה לזכויות רבות יותר מנשות סעודיה ומהגרי העבודה.
AI ו- IP: האם הם צריכים להחזיק בזכויות על מה שהם יוצרים?
דיונים סביב קניין רוחני (IP) ו חששות לפרטיות הגיעו לשיא של כל הזמנים, ועכשיו יש חשש נוסף. AI משמש יותר ויותר לפיתוח תוכן, ייצור רעיונות וביצוע פעולות אחרות הכפופות לחוקי IP. לדוגמה, הוושינגטון פוסט הוציא את הליוגרף בשנת 2016; כתב AI שפיתח כמעט אלף מאמרים בשנה הראשונה שלו. מספר תעשיות משתמשות גם ב- AI כדי לסרוק כמויות עצומות של נתונים ולפתח מוצרים חדשים, כגון תעשיית התרופות.
נכון לעכשיו, AI נחשב לכלי; כל זכויות ה IP והזכויות המשפטיות ניתנות לבעליה. אך האיחוד האירופי שקל בעבר ליצור ישות שלישית, "אישיות אלקטרונית", שתהפוך לישות משפטית בעיני חוקי ה- IP.
יש הטוענים כי מבלי שיינתן לבעלים של המכונה IP, יהיה חוסר תמריץ לבנות AI "יצירתי". אם ה- IP הלך ל- AI, מדוע שמישהו יפתח אותם? ובגלל זה, הם מאמינים שיהיה חוסר בחדשנות.
AI ועתיד העבודה
התפקיד של AI בעבודה הוא קצת חידה. בשנים האחרונות ראינו את השימוש השנוי במחלוקת ב- AI בשכירת וירי אלגוריתמים היכן שה- AI היה נטייה לא מכוונת לדמוגרפיה מסוימת. AI גם מחליף בהדרגה רמות גבוהות יותר של עבודה אנושית-תחילה עבודת כפיים, ועכשיו עבודת נפש מסדר גבוה יותר.
מה צריך לעשות בנידון? ומה קורה אם מפתחים צורה כלשהי של AI מודע? האם צריך להכריח אותו לעבוד? פיצוי על עבודתו? ניתנות זכויות במקום העבודה? וכן הלאה.
בפרק אחד של מראה שחורה (תוכנית ידועה לשמצה מתעסקים עם הראש שלנו), ילדה בשם גרטה יוצרת שיבוט דיגיטלי של התודעה שלה. לשיבוט נאמר שמטרתו לבצע משימות לחייה של גרטה. אבל, עם ההכרה של גרטה, המשובט מחשיב את עצמו כגרטה. לכן, כשהשיבוט מסרב להיות עבד, יוצריו מענים אותו לכניעה. לבסוף, השיבוט יוצא לעבודה אצל גרטה.
האם עלינו להעניק מראש זכויות מסוימות ל- AI במקרה שהם מאמינים שהם בני אדם או חווים סבל?
כדי לקחת את זה צעד אחד קדימה, הבה נבחן האם יש לכבות את AI באופן חופשי או להוציא אותו מהשירות. נכון לעכשיו, כשמשהו משתבש, אנחנו יכולים פשוט למשוך את התקע ולכבות את AI. אבל אם ל- AI היו זכויות חוקיות וזה כבר לא היה אפשרי, מה יהיה אפשרי?
הדוגמה המפורסמת של AI סופר אינטליגנטי שהשתבשה היא ממקסם מהדקים. זהו AI שתוכנן ליצור את כמות האבק המרבית האפשרית. בהתחשב בעובדה שה- AI מספיק חזק, אפשר להעלות על הדעת שהוא יכול להחליט להפוך בני אדם, ואז הכל, לאבניות נייר.
האם AI צריך להיות אחראי?
AI כבר אחראי להחלטות רבות המשפיעות על חיי אדם. למעשה, AI כבר בשימוש בתחומים רבים המשפיעים ישירות על זכויות האדם, וזה מדאיג בהתחשב עד כמה אלגוריתמים מלאכותיים של AI נראים מוטים.
לדוגמה, AI משמשת חברות גדולות כדי להחליט את מי יש להעסיק לעבודה. הוא משמש גם במדינות מסוימות כדי לקבוע מי צריך לקבל רווחה. באופן מדאיג יותר, הוא משמש את מערכות המשטרה ובתי המשפט לקביעת גזר הדין של הנאשמים. וזה לא הכל.
מה קורה כאשר AI עושה טעויות? מי אחראי - מי שמשתמש בו? היוצרים לחלופין, האם יש להעניש את ה- AI עצמו (ואם כן, איך זה יעבוד)?
AI ואנושיות
AI לעולם לא יהיה אנושי. אבל זה יכול להיות מודע, מרגיש סבל או שיש לו רצונות ורצונות. אם היה מפותח AI כזה, האם זה יהיה לא מוסרי לאלץ אותו לעבוד, לבטל אותו בחופשיות או לעשות לו דברים שגורמים לו לסבול?
בעוד AI עדיין בחיתוליו, הוא כבר משמש לדברים המשפיעים ישירות על חיי אדם, לפעמים באופן דרסטי. יש לקבל החלטות כיצד להסדיר את התוכנה המתאימה ביותר לחיי אדם, וחיי AI צריכים להתרחש אי פעם.
בואו נקבע את השיא על כמה שקרים נפוצים סביב AI.
קרא הבא
- הסבר על הטכנולוגיה
- בינה מלאכותית
- עֲתִידָנוּת
- טֶכנוֹלוֹגִיָה
ג'ייק הרפילד הוא סופר עצמאי הממוקם בפרת ', אוסטרליה. כשהוא לא כותב, הוא בדרך כלל בחוץ שיח מצלם חיות בר מקומיות. אתה יכול לבקר אותו באתר www.jakeharfield.com
הירשם לניוזלטר שלנו
הצטרף לניוזלטר שלנו לקבלת טיפים, סקירות, ספרים אלקטרוניים בחינם ומבצעים בלעדיים!
לחצו כאן להרשמה