בינה מלאכותית (AI) שנויה במחלוקת כמו שהיא מרשימה. זה יכול להקל על חלקים רבים בעבודה ובחיי היומיום, אבל זה גם מעלה כמה שאלות אתיות. השימוש בבינה מלאכותית על ידי ממשלת ארה"ב, במיוחד, מותיר חלק מהאנשים תחושת אי נוחות.

ישנם פרויקטים ממשלתיים רבים של AI בשימוש או בפיתוח כיום, וחלקם עשו הרבה טוב. יחד עם זאת, הם מעלים שפע של חששות פרטיות בבינה מלאכותית. הנה מבט מקרוב על הפרויקטים הללו ומה משמעותם עבור פרטיות הציבור.

דוגמאות לפרויקטי בינה מלאכותית ואוטומציה ממשלתית

הדוגמאות הבסיסיות ביותר לבינה מלאכותית בה משתמשים ממשלת ארה"ב כוללות אוטומציה של עבודה משרדית שגרתית. בשנת 2019 השתמשה בסיאטל אוטומציה של תהליכים רובוטיים (RPA) לדאוג להזנת נתונים ועיבוד יישומים. מאז, העיר עברה יותר מ-6,000 יישומים עם צפיפות וחסכה מאות שעות עבודה.

פרויקטים ממשלתיים אחרים של AI מושכים יותר את העין. מחלקת הכיבוי של ניו יורק בוחנת כלבי רובוט מ בוסטון דינמיקס למדוד נזק מבני ואדים רעילים לפני כניסת הכבאים. לפני פרויקט רובוט הכיבוי, משטרת ניו יורק תכננה ליישם את אותם רובוטים.

מחלקות משטרה וסוכנויות ממשלתיות אחרות ברחבי הארץ שוקלים להשתמש בטכנולוגיות דומות. עם זאת, ככל שפרויקטי הבינה המלאכותית הממשלתית הללו ממריאים, חסרונות הפרטיות הפוטנציאליים שלהם התבררו יותר.

instagram viewer

האם בינה מלאכותית מהווה איום על הפרטיות והאבטחה?

עדיין לא ברור אם תראה רובוטים משטרתיים בעתיד, אבל נראה שהדברים הולכים בדרך זו. לפרויקטים האלה יש הרבה יתרונות, אבל חששות הפרטיות של בינה מלאכותית הופכים רציניים יותר כאשר מתמודדים עם הממשלה. להלן כמה מהבעיות הגדולות ביותר בטכנולוגיות אלו.

בינה מלאכותית מסתמכת על איסוף וניתוח נתונים. כתוצאה מכך, יותר פרויקטים ממשלתיים של AI פירושם שסוכנויות אלה יאספו ויאחסנו מידע נוסף על אזרחיהן. יש אנשים שמתחשק להם לאסוף את המידע הזה פוגע בפרטיות שלהם ומפר את זכויותיהם.

טכנולוגיות כמו פרויקט כלבי הכיבוי מדאיגות במיוחד מכיוון שהן עלולות להפוך את המעקב הממשלתי להטעיה. סוכנויות טוענות שהרובוט נמצא שם כדי לבדוק חששות בטיחותיים, אבל אין דרך לאנשים לדעת אילו נתונים הוא אוסף. זה יכול להיות מצלמות וחיישנים שסורקים את פניהם או עוקבים אחר הטלפונים הסלולריים שלהם מבלי שהם ידעו.

יש אנשים שחוששים ש"גורם המגניב" של רובוטים יסתיר את פוטנציאל המעקב שלהם. רובוטים משטרתיים בעתיד יוכלו לרגל אחר אזרחים מבלי לעורר חשד רב מכיוון שאנשים פשוט רואים טכנולוגיה חדשה במקום פגיעה בפרטיות שלהם.

אחריות לא ברורה

פרויקטים אלה של AI ואוטומציה מעלים גם את שאלת האחריות. אם רובוט עושה טעות שגורמת לנזק, מי אחראי לה? כשעובד ממשלתי חורג מגבולותיו ומפר זכויות של מישהו, בתי המשפט יכולים להטיל עליו דין וחשבון, אבל מה לגבי רובוט?

אתה יכול לראות בעיה זו במכוניות לנהיגה עצמית. אנשים האשימו את היצרן בתביעת אחריות למוצר במקרים מסוימים של התרסקות טייס אוטומטי, בעוד שאחרים מאשימים את הנהג. במקרה אחד, ה המועצה הלאומית לבטיחות בתחבורה הטיל אחריות הן על היצרן והן על הנהג, אך בסופו של דבר יש להחליט על כל מקרה לגופו. רובוטים משטרה בוציים את המים באותו אופן. אם הם מפרים את פרטיותך, לא ברור אם להאשים את היצרן, את מחלקת המשטרה או את המפקחים האנושיים.

בלבול זה עלול להאט ולסבך את ההליכים המשפטיים. יכול לקחת זמן עד שקורבנות של הפרות פרטיות או הפרות של זכויותיהם יקבלו את הצדק המגיע להם. חוקים חדשים ותקדים משפטיים יכולים להבהיר דברים ולפתור את הנושא הזה, אבל כרגע, זה לא בטוח.

סיכוני פריצת מידע

בינה מלאכותית המשמשת את ממשלת ארה"ב יכולה גם להרחיב את חששות הפרטיות של AI שאתה רואה במגזר הפרטי. איסוף נתונים מסוימים עשוי להיות חוקי לחלוטין, אך ככל שארגונים אוספים יותר, כך יש יותר סיכון. ייתכן שהחברה או הממשלה לא ישתמשו במידע לשום דבר לא חוקי, אך היא עלולה להפוך אנשים לפגיעים לפשעי סייבר.

היו יותר מ-28,000 התקפות סייבר נגד ממשלת ארה"ב ב-2019 בלבד. אם סוכנויות יחזיקו יותר מידע פרטי של אזרחים, התקפות אלו עלולות להשפיע על יותר מאשר רק על הממשלה. פריצת מידע מוצלחת עלולה לסכן אנשים רבים מבלי שהם ידעו. הפרות לרוב אינן מורגשות, אז אתה צריך בדוק שהנתונים שלך אינם כבר למכירה.

לדוגמה, אם רובוט משטרתי ישתמש בעתיד בזיהוי פנים כדי לחפש פושעים מבוקשים, הוא עשוי לאחסן נתונים ביומטריים של אזרחים רבים. האקרים שנכנסים למערכת עלולים לגנוב את המידע הזה ולהשתמש בו כדי לפרוץ לחשבונות בנק של אנשים. פרויקטים ממשלתיים של AI חייבים להיות בעלי אמצעי אבטחת סייבר חזקים אם הם לא רוצים לסכן את הנתונים של אנשים.

לבינה מלאכותית ממשלתית יש יתרונות אבל מעוררת דאגות

עדיין לא ברור כיצד הממשלה האמריקאית תשתמש בבינה מלאכותית בעתיד. הגנות וחוקים חדשים יכולים לפתור את הבעיות הללו ולהביא את כל היתרונות של AI ללא הסיכונים שלה. עם זאת, לעת עתה, חששות אלה מעוררים כמה אזעקות.

חששות פרטיות רבים בכל מקום שבו AI עובד. שאלות אלה הופכות רציניות יותר ככל שהן ממלאות תפקיד גדול יותר בממשלה. פרויקטי AI ממלכתיים יכולים לעשות הרבה טוב, אבל יש להם גם פוטנציאל משמעותי לנזק.

מיקרוסופט מזהירה כי "1984" עשוי להתגשם בעוד שלוש שנים

קרא הבא

לַחֲלוֹקצִיוּץלַחֲלוֹקאימייל

נושאים קשורים

  • בִּטָחוֹן
  • בינה מלאכותית
  • פרטיות מקוונת

על הסופר

שאנון פלין (79 מאמרים שפורסמו)

שאנון היא יוצרת תוכן הממוקמת בפילי, פנסילבניה. היא כותבת בתחום הטכנולוגי כ-5 שנים לאחר שסיימה תואר ב-IT. שאנון היא העורכת המנהלת של מגזין ReHack ומסקרת נושאים כמו אבטחת סייבר, משחקים וטכנולוגיה עסקית.

עוד מאת שאנון פלין

הירשם לניוזלטר שלנו

הצטרף לניוזלטר שלנו לקבלת טיפים טכניים, ביקורות, ספרים אלקטרוניים בחינם ומבצעים בלעדיים!

לחץ כאן כדי להירשם