Loading AI tools
מוויקיפדיה, האנציקלופדיה החופשית
כלי נשק אוטונומיים קטלניים (באנגלית: Lethal autonomous weapons; הכינוי המקוצר LAWs או AWS) הם סוגי מערכות צבאית אוטונומיות שיכולות לחפש ולתקוף מטרות באופן עצמאי על סמך מערכת חוקים, אילוצים ותיאורים מתוכנתים (אלגוריתמים). מערכות הנשק האוטונומיות מוכרות בצבאות העולם בשמות מערכות נשק אוטונומיות קטלניות (Lethal Autonomous Weapon Systems-LAWS), או בשם מערכות נשק אוטונומיות (Autonomous Weapon Systems - AWS), שהם למעשה מערכות נשק רובוטי או רובוטים רוצחים. מערכות הנשק האוטונומיות עשויות לפעול באוויר, ביבשה, בים (מעל ומתחת למים) או בחלל. קיימת בעולם התנגדות למתן אוטונומיה מלאה למערכות נשק קטלניות שבכוחן להרוג בני אדם. נכון לשנת 2018 נעשה ניסיון לחבר אמנה להגבלת השימוש בנשק האוטונומי, במובן, שאת הפקודה האחרונה לתקוף ולפתוח באש ייתן אדם, מפעיל המערכת. אם כי ישנם מקרים יוצאים מן הכלל המיוחסים למערכות נשק "הגנתיות" הפותחות באש כנגד גורמים העוינים את סביבתן כגון כיפת ברזל, מעיל רוח, חץ דורבן ואחרים. זאת כדי לקצר את לוח הזמנים הקריטי של התגובה האנושית.
למילה "אוטונומי" יש משמעויות שונות בתחומים שונים. בהנדסת מכונות במלה אוטונומי מתייחסים ליכולת של המכונה לפעול ללא מעורבות אנושית. בפילוסופיה המשמעות להיות אוטונומי עשויה להתייחס לאדם שהוא עצמאי או חופשי מבחינה מוסרית. במדע המדינה המילה אוטונומי עשויה להתייחס ליכולת של אזור או מחוז להיות עצמאי מחוקי המדינה שלו ולהכתיב לעצמו חוקים משלו. מבחינת פיתוח מערכת נשק, ההתייחסות למערכת נשק כאוטונומית אינו ברור בהשוואה למקובל בתחומים האחרים.[1] מאחר שאין תקן מוגדר ומוסכם למושג נשק אוטונומי. הוא יכול להשתנות מאוד בין המדינות והארגונים השונים.
ישנן הגדרות רבות למושג נשק אוטונומי קטלני. נכון לשנת 2018 המדיניות הרשמית של משרד ההגנה של ארצות הברית בנושא אוטונומיה במערכות נשק, מגדירה מערכת נשק אוטונומית כ"מערכת נשק שלאחר הפעלתה או דריכתה, היא יכולה לבחור ולתקוף מטרות ללא התערבות נוספת של מפעיל אנושי".[2] הת'ר מ. רוף (Heather M. Roff), מבית הספר למשפטים של אוניברסיטת קייס וסטרן ריזרב (אנ'), מגדירה מערכות נשק אוטונומיות כ"מערכות נשק חמושות, המסוגלות ללמוד ולהתאים את 'תפקודן בתגובה לנסיבות המשתנות בסביבה שבה הן פרוסות', כמו כן הן מסוגלות לקבל החלטות ירי בעצמם".[3] הגדרה זו של מערכות נשק אוטונומיות היא ברף הגבוה בהשוואה להגדרות של חוקרים אחרים כמו פיטר אסארו ומארק גוברוד. לטענתם הגדרת נשק אוטונומי צריכה להיות: מערכת נשק הפועלת באופן חלקי או מלא ללא התערבות אנושית והיא לא חייבת להיות מסוגלת לקבל החלטות לגמרי לבד כדי להיקרא אוטונומית. בהגדרתם מספיק שמערכת הנשק תהיה מעורבת באופן פעיל בשלב אחד או מספר שלבים בתהליך השמדת המטרות. החל ברכישת המטרות (אנ') ועד לירי בסוף.[4][5]
ארגונים אחרים, לעומת זאת, מציבים את הסטנדרט של מערכת הנשק האוטונומית ברף גבוה יותר. משרד ההגנה הבריטי מגדיר מערכות נשק אוטונומיות כ"מערכות נשק שמסוגלות להבין ולתפוס ברמה גבוהה את סביבתן ולהיות מסוגלות לנקוט בפעולה מתאימה כדי להביא לתוצאה הרצויה. הן צריכות להיות מסוגלות להחליט על דרך פעולה, מתוך מספר חלופות, ללא תלות בפיקוח ובקרה אנושיים.[6]
כתוצאה מריבוי ההגדרות ובמטרה לכתוב אמנה בין המדינות יש צורך תחילה לקבוע מושגים מקובלים המגדירים מה הוא בדיוק נשק אוטונומי.[7]
הנשק האוטונומי הקטלני הישן ביותר הוא מוקש היבשה, שהיה בשימוש כבר במאה ה-16 והמוקשים הימיים, שהוכנסו לשימוש במאה ה-17. מוקשים נגד אדם נאסרים לשימוש במדינות רבות על פי אמנת אוטווה משנת 1997, לא כולל את ארצות הברית, רוסיה וחלק גדול ממדינות אסיה והמזרח התיכון.
דוגמאות (נכון לשנת 2018) של מערכות נשק אוטונומיות קטלניות הן מערכות הגנה אקטיביות אוטומטיות מסוג "hardkill", כגון מערכות CIWS (אנ') מונחות מכ"ם המשמשות להגנה על ספינות היו בשימוש מאז שנות ה-70 של המאה העשרים (למשל, ה-Phalanx CIWS האמריקאי). מערכות כאלה יכולות לזהות ולתקוף באופן אוטונומי טילים מתקרבים, רקטות, ירי ארטילרי, מטוסים וכלי שיט השטים על פני הים וזאת, על פי קריטריונים שנקבעו על ידי המפעיל האנושי. מערכות דומות קיימות עבור טנקים, כמו הארנה הרוסית, המעיל רוח הישראלי וה-AMAP-ADS (אנ') הגרמנית. בדרום קוריאה ובישראל נעשה שימוש במספר סוגים של רובי זקיף (אנ') נייחים כגון רואה-יורה, שיכולים לירות לעבר בני אדם וכלי רכב. למערכות רבות של הגנה מפני טילים, כמו כיפת ברזל, יש גם יכולות הכוונה אוטונומיות.
הסיבה העיקרית לכך שאין "אדם בלולאה" במערכות הגנה האקטיביות היא הצורך בתגובה המהירה.
מערכות בעלות דרגת אוטונומיה גבוהה יותר נכללות במל"טים או כלי טיס קרביים בלתי מאוישים, כגון המל"ט הסילוני מסוג טאראניס BAE Systems Taranis (אנ') העשוי לשאת מערכת תקיפה אווירית מסוג Future Combat Air System (אנ'). למל"טים יש את היכולה לחפש, לזהות ולאתר גופים עוינים באופן אוטונומי, אך תקיפת המטרה תעשה על פי פקודה המפורטת בפקודת המשימה. המל"ט יכול להגן על עצמו מפני מטוסי אויב (ראו קריאה נוספת - Heyns 2013, §45). מזל"ט מדגם Northrop Grumman X-47B יכול להמריא ולנחות על נושאות מטוסים (הודגם ב-2014).
לפי האקונומיסט, ככל שהטכנולוגיה מתקדמת, יישומים עתידיים של כלי שיט תת-ימיים בלתי מאוישים עשויים לכלול פינוי מוקשים, הנחת מוקשים, הנחת רשת חיישנים נגד צוללות במים שבמחלוקת, סיורים עם סונאר פעיל, אספקה מחדש של צוללות מאוישות.[8] בשנת 2018, נטען כי רוסיה מפתחת "טורפדו חדש בין-יבשתי, בעל חמוש גרעיני, מונע בכוח גרעיני, אוטונומי תת-ימי" בשם "פוסידון".[9]
רוסיה מפתחת באופן פעיל טילים בעלי בינה מלאכותית,[10] מל"טים,[11] כלי רכב בלתי מאוישים, רובוטים צבאיים ורובוטים להגשת עזרה רפואית.[12][13][14] [15]
השר הישראלי איוב קרא הצהיר ב-2017 כי ישראל מפתחת רובוטים צבאיים, כולל רובוטים זעירים, בגודל זבוב.[16]
באוקטובר 2018, בנאום של בכיר בחברת האבטחה הסינית Norinco, נאמר כי "בשטחי הקרבות העתידיים, לא יהיו אנשים שילחמו", וכי השימוש בנשק אוטונומי קטלני בלחימה, הוא "בִּלתִי נִמנַע".[17] בשנת 2019, שר ההגנה האמריקאי מארק אספר יצא כנגד סין על מכירת רחפנים המסוגלים לפגוע בבני אדם ללא פיקוח אנושי.[18] בשנת 2019 הצבא הבריטי פרס כלי רכב בלתי מאוישים ורובוטים צבאיים.[19] הצי האמריקאי פתח את ציי "רוח רפאים" של ספינות בלתי מאוישות.[20]
בשנת 2020 מזל"ט מסוג Kargu 2 (אנ') איתר ותקף מטרה אנושית בלוב, על פי דו"ח של פאנל המומחים של מועצת הביטחון של האו"ם בנושא לוב, שפורסם במרץ 2021. ייתכן שזו הייתה הפעם הראשונה שרובוט אוטונומי חמוש תקף בני אדם.[21][22]
המדיניות הנוכחית של ארצות הברית קובעת: "שמערכות נשק אוטונומיות... יעוצבו כדי לאפשר למפקדים ולמפעילים להפעיל רמות מתאימות של שיפוט אנושי בשימוש בכוח."[23] עם זאת, המדיניות מחייבת שמערכות נשק אוטונומיות שהורגות בני אדם או המשתמשות בכוח קינטי, הבוחרות מטרות ללא התערבות אנושית נוספת, יהיו מאושרות ועומדות בתקנים ב"רמות המתאימות", במידה ולא מערכות נשק כאלה אסורות.[24] רובוטים, ציידים-רוצחים "חצי אוטונומיים" המזהים ותוקפים מטרות באופן אוטונומי אינם נדרשים להסמכה.[24] סגן שר ההגנה רוברט וורק אמר ב-2016 שמשרד ההגנה "לא יאציל סמכות קטלנית למכונה כדי לקבל החלטה", אך ייתכן שיהיה צורך לשקול זאת מחדש מכיוון ש"משטרים אוטוריטריים" עשויים לעשות שימוש בכלי נשק אוטונומיים.[25] באוקטובר 2016 הנשיא ברק אובמה הצהיר בתחילת הקריירה שלו, שהוא חושש מעתיד שבו נשיא ארצות הברית יעשה שימוש בכלי נשק אוטונומיים כגון מזל"טים יוכל "לקיים מלחמות תמידיות בכל רחבי העולם, כשהרבה מהן סמויות, ללא כל דין וחשבון או דיון דמוקרטי".[26][27] החל משנת 2018 בארצות הברית, הבינה המלאכותית הקשורה לביטחון הוכנסה לסמכותה של הוועדה לביטחון לאומי לבינה מלאכותית.[28][29] ב-31 באוקטובר 2019, מועצת החדשנות הביטחונית של משרד ההגנה של ארצות הברית פרסמה את טיוטת הדו"ח המתאר חמישה עקרונות לשימוש בבינה מלאכותית בנשק ומציעה 12 המלצות לשימוש אתי בבינה מלאכותית על ידי משרד ההגנה שיבטיחו שמפעיל אנושי יוכל תמיד לבדוק את 'הקופסה השחורה' ולהבין את תהליך שרשרת ההריגה kill-chain.[30]
סטיוארט ראסל, פרופסור למדעי המחשב מאוניברסיטת קליפורניה בברקלי, הצהיר שהדאגה שיש לו מהשימוש במערכות נשק קטלניות אוטונומיות היא שהשימוש בהן הוא לא אתי ולא אנושי. הבעיה העיקרית שלו בשימוש במערכות הנשק האוטונומיות היא שקשה להן להבחין בין לוחמים לבלתי מעורבים.[31]
כלכלנים[32] וחוקרי משפט חוששים שמערכות הנשק האוטונומי יפרו את המשפט ההומניטארי הבינלאומי, במיוחד את עקרון ההבחנה, המחייב את היכולת להבחין בין לוחמים לבלתי מעורבים, ואת עקרון המידתיות, המחייב פגיעה פרופורציונלית באזרחים בשונה מפגיעה במטרות הצבאיות.[33] חשש זה מוזכר לעיתים קרובות כסיבה לאסור כליל על השימוש ב"רובוטים רוצחים". יש המטילים ספק, אם חשש שכזה יכול להוות טיעון כנגד מערכות הנשק האוטונומיות שאינם מפרות את המשפט ההומניטארי הבינלאומי.[34][35][36]
דו"ח משנת 2021 של שירות המחקר של הקונגרס האמריקני קובע כי "אין איסור משפטי מקומי או בינלאומי על פיתוח ושימוש במערכות נשק אוטונומיות", למרות ההתעסקות המתמשכת באמנת האו"ם, האמנה בדבר כלי נשק קונבנציונליים מסוימים (CCW).
יש אומרים שמערכות הנשק האוטונומיות מטשטשות את הגבולות שבו ניתן לקבוע מי אחראי להרג מסוים.[37][32] הפילוסוף רוברט ספארו טוען שנשק אוטונומי הוא אחראי סיבתי אך לא מוסרי, בדומה לילדים המשחקים בחיילים או בשוטרים וגנבים. טענתו, שבכל אחד מהמקרים, שיש סיכון לזוועות שיתרחשו ללא גוף מתאים הנושא באחריות, יש הפרה של דיני מלחמה.[38] תומאס סימפסון ווינסנט מולר טוענים שהם עשויים לותר על התיעוד של מי נתן איזו פקודה.[39] במקרים בהם השימוש בנשק האוטונומי נעשה בשדה הקרב שבו ברור שלא נמצאים בו בלתי מעורבים כגון בחלל או בים הפתוח הרחק מכל חוף בו לא עשויים להיות אזרחים בלתי מעורבים.
האפשרות של שימוש במערכות נשק קטלניות אוטונומיות, עוררה ויכוח משמעותי, במיוחד לגבי הסיכון ב"רובוטים רוצחים" שיסתובבו על פני כדור הארץ, בעתיד הקרוב או הרחוק. הקבוצה Campaign to Stop Killer Robots (אנ') הוקמה ב-2013. ביולי 2015, למעלה מ-1,000 מומחים לבינה מלאכותית חתמו על מכתב המזהיר מפני האיום במרוץ חימוש של בינה מלאכותית (אנ') הקורא לאסור על השימוש בנשק אוטונומי. המכתב הוצג בבואנוס איירס בוועידה המשותפת הבינלאומית ה-24 בנושא בינה מלאכותית (IJCAI-15) ונחתם על ידי סטיבן הוקינג, אילון מאסק, סטיב ווזניאק, נועם חומסקי, מייסד שותף של סקייפ ג'אן טאלין ו-Google DeepMind.[40][41]
לטענת ארגון PAX For Peace (אחד הארגונים המייסדים את הקמפיין לעצירת הרובוטים הרוצחים), כלי נשק אוטומטיים (FAWs) יגרמו לירידת סף היציאה למלחמה, ככל שהחיילים יורחקו משדה הקרב והציבור יורחק מלחוות מלחמה, דבר שייתן לפוליטיקאים ולמקבלי החלטות אחרים יותר מקום להחליט מתי וכיצד לצאת למלחמה.[42] הארגון מזהיר שלאחר התפשטות, מערכות הנשק האוטונומיות נאבד את השליטה הדמוקרטית במלחמות.[42]
קיימים אתרי מחאה אינטרנטיים כנגד התפתחות מערכות הנשק האוטונומיות המציגים את ההשלכות הבלתי רצויות שיגרמו אם יימשך המחקר על השימוש בבינה מלאכותית המיועדת לשימוש בכלי נשק. באתרים אלה, מתעדכנות חדשות על נושאים אתיים ומשפטיים על מנת שהמבקרים בהם יוכלו לקבל את העדכונים האחרונים אודות פגישות בינלאומיות ומאמרי מחקר הנוגעים למערכות הנשק האוטונומיות.[43]
הכס הקדוש קרא לקהילה הבינלאומית לאסור שימוש במערכות נשק אוטונומיות במספר הזדמנויות. בנובמבר 2018, הארכיבישוף איבן יורקוביץ' (אנ'), המשקיף הקבוע של הכס הקדוש לאומות המאוחדות, הצהיר ש"כדי למנוע את מרוץ החימוש והגברת אי השוויון וחוסר היציבות, לדבריו יש חובה הכרחית לפעול בהקדם: כי כעת הגיע הזמן לפעול כדי לעצור את מערכות הנשק האוטונומיות על מנת שלא יהפכו למציאות של המלחמות של מחר". הכנסייה חוששת שלמערכות הנשק הללו יש את היכולת לשנות באופן בלתי הפיך את אופי הלחימה, שתיצור מסוכנות אנושית שתעמיד בסימן שאלה את אנושיות החברות.[44]
נכון ל-29 במרץ 2019, רוב הממשלות המיוצגות באו"ם, שהשתתפו בדיון בנושא מערכות נשק אוטונומיות, העדיפו לאסור את השימוש במערכות אלה. רק מעט ממשלות, הכוללות את אוסטרליה, ישראל, רוסיה, בריטניה וארצות הברית, התנגדו לאיסור. ארצות הברית אף הצהירה שהנשק האוטונומי סייע במניעת הרג אזרחים.[45]
גישה אחרת העוסקת במערכות הנשק האוטונומי, מתמקדת בהסדרת השימוש במערכות הנשק האוטונומיות במקום איסור השימוש בו.[46] בקרת הנשק האוטונומי הכולל בינה מלאכותית, תדרוש ככל הנראה מיסוד של נורמות בינלאומיות חדשות המגולמות במפרטים טכניים יעילים תוך שילוב של יכולת ניטור אקטיבי ודיפלומטיה לא פורמלית על ידי קהילות מומחים, יחד עם תהליך אימות משפטי ופוליטי.[47][48][49][50] בשנת 2021, משרד ההגנה של ארצות הברית ביקש לקיים דיאלוג עם הצבא הסיני אודות הנשק האוטונומי הנתמך בבינה מלאכותית אך נענה בסירוב.[51]
Seamless Wikipedia browsing. On steroids.
Every time you click a link to Wikipedia, Wiktionary or Wikiquote in your browser's search results, it will show the modern Wikiwand interface.
Wikiwand extension is a five stars, simple, with minimum permission required to keep your browsing private, safe and transparent.