השלכות נורמטיביות של הפעלת מערכות נשק אוטונומיות חמושות: אתגר בשדה הקרב העתידי

12/12/2022

ד"ר ראובן גל, מוסד שמואל נאמן למחקר מדיניות לאומית, הטכניון

ההתפתחויות הטכנולוגיות המהירות והמלחמות הא־סימטריות שמאפיינות את מרבית העימותים הצבאיים בעשורים האחרונים, שינו משמעותית את אופן הלחימה וכֵּליה. את מקומן של העוצבות הלוחמות והלחימה הקונוונציונלית תפסו אמצעים טכנולוגיים מתוחכמים, בהם מערכות נשק אוטונומיות חמושות הנקראות בשם הגנרי "רובוטים קטלניים אוטונומיים" (Lethal Autonomous Robotics – LARs), והם נחלקים לשני תתי סוגים: מערכות נשק קטלניות שהן אוטונומיות לחלוטיןLethal Autonomous Weapons Systems) –LAWS ), ומערכות נשק קטלני חצי אוטונומיות Partially Autonomous Lethal Weapon Systems) – (PALWS.
התפתחויות אלה מעלות סוגיות קשות בתחומים אחדים, ובעיקר בתחום האתי והערכי: עד כמה ניתן להשאיר בידי כטמ"מים (כלי טייס מופעלים מרחוק), או מערכות נשק אוטונומיות למיניהן, את ההחלטה הסופית להשמיד מטרה? האם פיתוח מערכות אוטונומיות לחלוטין ושימוש בהן אינם סותרים נורמות מוסריות ואתיות מקובלות, לפחות במדינות דמוקרטיות? ובמיקוד מקומי – האם יישום מערכות אלה אינו עומד בניגוד לערכי מסמך "רוח צה"ל", למשל הכרה בחשיבותם העליונה של חיי אדם וטוהר הנשק? האם שיקולי רגישות לנפגעים (מכוחותינו) תביא לשימוש מופרז בכלים בלתי מאוישים, ועוד.
על בסיס השוואה לנעשה בתחום זה בכמה מדינות מערביות דמוקרטיות ובגופים בין־לאומיים רלוונטיים, המאמר הנוכחי מתריע על העובדה כי בשדה הקרב העתידי (או כבר הנוכחי) יהוו הדילמות הללו את האתגר העיקרי בפני מקבלי ההחלטות הן בדרג הצבאי והן בדרג המדיני, כמו גם בפני דעת הקהל הרחבה בישראל. המאמר מציג את מצב ההתפתחויות בתחום זה בישראל ובחו"ל, ודן בדילמות העיקריות הנובעות מהתפתחויות אלה.

סקירה רחבה על מרבית העימותים הצבאיים בעשורים האחרונים, בהם מלחמות א־סימטריות ופעולות טרור ואנטי־טרור, מצביעה על שינויים משמעותיים באופן הלחימה ובאמל"ח. את מקומן של העוצבות הלוחמות ושל הלחימה הקונוונציונלית תופסים אמצעים טכנולוגיים מתוחכמים, ולחימה "ממוקדת מרחוק" כלפי מטרות אנושיות מסומנות.  אמצעים אלה כוללים מערכות נשק אוטונומיות קטלניות מסוגים שונים (Lethal Autonomous Robotics – LARs), שמרגע שהופעלו מסוגלות לעקוב ולחסל מטרות ללא התערבות אנושית.

התפתחויות אלה זוכות לתשומת לב רבה במישור הטכנולוגי. תקציבי ענק ומאמצי מו"פ אדירים מושקעים בפיתוח הרובוטיקה ויישומי ב"מ (בינה מלאכותית) בשירות המשימות הצבאיות. לעומת זאת, אין התמודדות מספקת עם ההשלכות החברתיות, הפוליטיות והכלכליות שיגרמו השינויים הללו (Vercellone 2020). יתרה מכך, העובדה שמבצעים צבאיים בימינו נעשים באמצעות כלי נשק אוטונומיים ואינם כרוכים, בדרך כלל, באבדות לכוחותינו – מחלישה את הפיקוח על תהליכי קבלת ההחלטות הן מצד מקבלי ההחלטות הבכירים והן מצד דעת הקהל (Walzer 2016). ג'ף מקמאהן, שהוא לעיתים בר פלוגתא של וולצר, אף מרחיק לכת יותר וטוען שהמלחמות המודרניות בהן ישלטו מערכות רובוטיות בשדה הקרב, יביאו לשינוי מהותי ופרדיגמטי בהתייחסות למוסר לחימה McMahan 2011)). 

הזהרות מסוג זה אינן מוגבלות לתחום הצבאי. מדענים רבים מזהירים שמערכות מופעלות ב"מ מכילות פוטנציאל הרסני אפשרי גם בהקשרים רחבים יותר. כבר ב־2015 פנו קבוצת מדענים ומובילי היי־טק בעלי מוניטין עולמי – בהם סטיבן הוקינג, אֶלוֹן מאסק, וסטיב ווֹזְניאק – בקריאה פומבית להרחיב את המחקר שיבטיח את השימושים המועילים של הב"מ וימנע את השלכותיה ההרסניות:  "מערכות הב"מ שלנו צריכות לעשות [רק] את מה שאנחנו רוצים שיעשו" (Halpern, 2021).

בהקשר זה יש לציין הבחנה חשובה בתחום מערכות הנשק הרובוטיות, בין מערכות נשק קטלניות שהן אוטונומיות לחלוטיןLethal Autonomous Weapons Systems)  –LAWS ), ובין מערכות נשק קטלני חצי-אוטונומיות Partially Autonomous Lethal Weapon Systems)  – (PALWS. בעוד הראשונות אינן נזקקות לשליטה אנושית מרגע שהופעלו, ולעיתים אין להן יכולת ביטול או שינוי, במערכות החצי אוטונומיות מודגשת היכולת של המפעיל או המפקד להפעיל שיפוט אנושי בכל שלבי הביצוע, בדרך ש"יעשו רק את מה שאנחנו רוצים שיעשו".  בספרות המקצועית נהוג לתאר הבחנה קריטית זו באמצעות המושגים "אדם בתוך המעגל", "אדם על המעגל" ו"אדם מחוץ למעגל" – "man-in-the-loop", "man-on-the-loop"ו-"man-out-of-the-loop", בהתאמה (Bhuta et al. 2016). ככל הידוע לנו – רוב מערכות הנשק האוטונומיות שמפעילים צבאות בעולם (בדגש על צבאות במשטרים דמוקרטיים) משלבות מידה כזו או אחרת של שליטה אנושית בהפעלת המערכת. אולם המגמה ל"הוצאת האדם מן המעגל", ולהפעלת מערכות באופן אוטונומי מוחלט, הולכת ותופסת אחיזה גם במדינות מערביות דמוקרטיות (Strawser 2010; Statman 2015; Davidovic 2022).

המאמר הנוכחי מבקש להתריע על המשמעויות האתיות, המוסריות והערכיות שבהפעלת המערכות האוטונומיות בשדה הקרב העתידי (או כבר הנוכחי). נוסף על המורכבות הטכנולוגית, שילוב מערכות הנשק האוטונומיות הללו בסד"כ הלוחם יאתגר מהותית את מקבלי ההחלטות, הן בדרג הצבאי והן בדרג המדיני, כמו גם את דעת הקהל בישראל. ככל הידוע מהתקשורת הגלויה, גורמי צה"ל השונים, המשקיעים מאמץ רב בעדכון ובשיפור תפיסת הביטחון ותורת הלחימה בעתיד הנראה לעין – לא עושים מספיק בהכנה, בבירור ובדיון בצדדים האתיים־ערכיים הנובעים מהפרדיגמה הביטחונית החדשה. כבר בשנים הראשונות לקיומו של צה"ל כתב דוד בן־גוריון: "המדע והטכניקה מייצרים אבטומטים מופלאים, גם לצורכי המשק וגם לצורכי הביטחון. אבל ערכם וברכתם של אבטומטים אלה הוא במותר הרוח של האדם המשתמש בהם ומפעיל אותם" (בן גוריון, 1955, עמ' 290).

מצב הדברים הנוכחי

המחקר, הפיתוח והשימוש במערכות נשק אוטונומיות, הם כבר עובדה קיימת ברוב צבאות העולם. בין השנים 2016–2020 השקיעה ממשלת ארצות־הברית סכום של כ־18 מיליארד דולר בפיתוח ובשילוב מערכות נשק אוטונומיות בצבא (Dawes 2021). הצפי הוא שהמו"פ למערכות נשק רובוטיות ימשיך ליהנות ממימון נדיב גם במהלך כהונתו של הנשיא ג'ו ביידן. האמריקנים אינם רואים בתהליכי מו"פ אלה שיפור ושדרוג יכולות לחימה קיימות בלבד; בעיניהם זהו שינוי ממעלה שנייה, קפיצת מדרגה. "רובוטים, מערכות נשק אוטונומיות וב"מ עומדים לשנות לחלוטין את אופי הלחימה בעתיד הקרוב", הצהיר גנרל ג'והן (מייק) מוריי, מפקד פיקוד העתידים (U.S. Army Futures Command) של צבא ארצות־הברית (Murray 2021).  אחד ממפקדי השדה בצבא האמריקני שכבר מפעיל מערכות מסוג זה, נקט ניסוח ישיר יותר: "המטרה העיקרית של הכנסת מערכות נשק אלה ליחידותינו היא לייצר רמת קטלניות מכריעה" ("decisive lethality") (Tadjdeh 2021).

סקירה שפורסמה לאחרונה בביטאון "מו"פ ביטחוני בעולם" של מפא"ת (ברוק 2020) כוללת תיאור תוכניות של ממשלות וחברות רבות לפיתוח וייצור של מערכות רובוטיות חמושות. בתחום היבשתי נראה שהמובילים ביישום מערכות רובוטיות חמושות בניסויים, תרגילים ואף בשדה הקרב, הם הרוסים והסינים. עורך הסקירה הזכיר מדינות נוספות שעוסקות בפיתוח מערכות לחימה רובוטיות ושילובן ביחידות המבצעיות, בהן בריטניה, קנדה וגרמניה (שם, עמ' 13–14).

עימותים שונים בעולם בשנתיים-שלוש האחרונות הביאו לחשיפה מוגבלת של שימושים קטלניים במערכות נשק אוטונומיות. דוח של האו"ם מ-2021 חשף שימוש מבצעי בלחימה בלוב של רחפן תוקף מתאבד מתוצרת חברת STM בטורקיה. על־פי הדוח, הצבא הלובי אחראי לפעולה שבוצעה במרס 2020 נגד כוחות מורדים, ושילבה כטמ"מים תוקפים אחרים. עוד דווח כי בקרב היו נפגעים רבים (Stanley 2021). זהו מקרה ראשון בו שימוש בנשק אוטונומי-קטלני המבוסס על ב"מ, הרג מספר רב של אנשים ללא הרשאה מגורם אנושי לפני ביצוע התקיפה (Choi 2021). ההתפתחויות האחרונות במלחמה בין רוסיה ואוקראינה הביאו לשימוש דומה שעשו האוקראינים באותם רחפנים טורקיים בתקיפה נגד סוללות תותחים רוסיות (לוי 2021), ולאחרונה בהשמדת טנקים ורק"ם רוסי (Hetzner 2022; Winkie 2022). כלים אוטונומיים אלה לא רק מצליחים לעצור ביעילות את הטנקים הרוסיים, ולסייע לאוקראינים בעמידה מול צבא גדול יותר משלהם; היכולת של הכטמ"מים לספק צילומי מסך מצוינים של המטרות הנפגעות, משמשת גם למטרות תודעה והשפעה על תפיסות ועמדות האזרחים בשני הצדדים Winkie 2022)).

ישראל, כצפוי, איננה מפגרת אחרי מדינות אחרות בשילוב ב"מ במערכות הנשק של צה"ל ובמערכות תומכות הלחימה. כיום אפשר למצוא יישומים של ב"מ בשורות צה"ל בכלים תומכי החלטה, במערכות השו"ב המבצעיות, במערכות הנשק האוטונומיות למיניהן ובאמצעים תומכי לחימה כמו "הדק חכם"1 (כהן־אינגר וקמינקא 2018). גם בחלק ממערכות המידע של אמ"ן נעשה כיום שימוש נרחב בטכנולוגיות מבוססות ב"מ (קופרווסר וסימן טוב 2018). כבר ב־2015 הציג הרמטכ"ל דאז, רא"ל בני גנץ, את חזונו ל־2025. במהלך העשור הבא, כך הצהיר, יפעיל צה"ל  "כמויות של כלים אוטונומיים, רובוטיים ולא מאוישים, באוויר, בים וגם ביבשה, משולבים זה עם זה, נשענים על יכולות מזעור וננו־טכנולוגיה" (ויטמן 2015). תפיסת ההפעלה החדשה של צה"ל, בהובלתו של הרמטכ"ל הנוכחי רא"ל אביב כוכבי, מדגישה את יכולת הקטלניוּת של הצבא, בין השאר באמצעות מערכות נשק רובוטיות, רחפנים  מתאבדים, חימוש מדויק והקמת יחידות מיוחדות המפעילות מערכות נשק (בן ישי 2020; לב רם 2020; זיתון 2020; בוחבוט 2021; דבורי 2021; אתר צה"ל 2021; פישמן 2022). סיכום מחקר ישראלי מלפני כעשור, שהתבסס על דיון בין מומחים, העלה שעד 2033 לערך יהיה אפשר לתכנן ולבצע באופן אוטונומי (בלי מעורבות יד אדם) את רוב המשימות הצבאיות הטקטיות (זקס וענתבי 2014).

הדגש הרב שנותנים בצה"ל לפיתוחים הטכנולוגיים ולשילובם של אמצעים רובוטיים בחזית הלחימה איננו עובר ללא ביקורת, הן בתוך צה"ל והן מחוצה לו. כבר לפני כעשור ומחצה טען אל"ם ד"ר מאיר פינקל, אז רמ"ח תוה"ד במפקדת זרוע היבשה, כי: "בשנים האחרונות הושם הדגש המרכזי בהתעצמות צה"ל על פיתוחם ועל רכישתם של אמצעי לחימה טכנולוגיים, עד כדי פולחן הטכנולוגיה" (פינקל 2006, עמ' 40). ייחוס "פולחן הטכנולוגיה" לצה"ל נשמע, כאמור, גם מפיהם של חוקרים מחוץ לצבא (Maoz 2006, 294-295).

היבט נוסף המשפיע אף הוא על תפיסת הביטחון, ועל מידת ההשקעה וקצב הפיתוח של מערכות נשק רובוטיות, הוא הרגישות ההולכת וגוברת ביחס לנפגעים מקרב חיילי צה"ל. המלחמות השכיחות והמבצעים הצבאיים החוזרים ונשנים, והמחיר בחיי אדם הכרוך בכך, העלו בעשורים האחרונים את מידת הרגישות לחללים בשיח החברתי בישראל (Lebel 2010; Levy 2012), ואת העיסוק הביקורתי בנושא השכול וההתייחסות למשפחותיהם של חללי צה"ל (דורון ולבל 2005). רגישויות אלה הן "מנוף" נוסף (לעיתים לא מדובר) למאמץ שמשקיעים בתחום זה גורמי הביטחון השונים.

בתחום הפיתוח הטכנולוגי מתפרסמים מדי פעם נתונים על פיתוחי מו"פ ישראליים שונים. כבר בתחילת שנות ה־90 וביתר שאת בשנות האלפיים פיתחה התעשייה האווירית את "הארופ" – שילוב בין טיל לכטמ"ם. מדובר בכלי חימוש משוטט מסוג אוטונומי למחצה (PALWS), כלומר מערכת הכוללת מפעיל הלוקח חלק בתהליך הפעלתה. "הארופ" שוקל 160 ק"ג ובעל רש"ק (ראש קרב) במשקל 15 ק"ג (אלמדון 2016). ידיעה מאוחרת יותר דיווחה על שימוש מבצעי שעשה צבא אזרבייג'אן ב"הארופ" הישראלי במלחמתו באזורי הגבול נגד הארמנים (Newdick 2021) – בדומה לשימוש שעשה ברחפנים מתאבדים מתוצרת טורקיה. דיווח אחר מציין את אפשרות שיגור ה"הארופ" מסיפון ספינות סער, ומרמז אף הוא על שימוש בצי של מדינה אסייתית לא מזוהה (Trevithick, 2021). מקורות בחו"ל דיווחו בסוף 2021 על הסכם צפוי בין ישראל למרוקו, בנוגע למכירה ואף לייצור משותף של מלט"ים מתאבדים (Helou 2021). הידיעה על מכירת מל"טי "הארופ" פורסמה בהבלטה (כלומר ללא התערבות הצנזורה) בעיתון הארץ (לוינסון 2021).

מאמר ישראלי (Eshel 2020) דיווח על פיתוחים אחרונים של רפאל בתחום הכטמ"מים והרחפנים. בין השאר, נכתב על "רובוטים מעופפים" שמסוגלים לבצע איסוף מודיעיני מדויק בתוך חללים פנימיים. שניים מהרחפנים הללו – "עורב" (Raven)  ו־Magic Fly – מסוגלים לחדור דרך חלונות או פתחים בקירות לחדרים, לבצע סריקות מדויקות, בכל תנאי ראות, של כל הנמצא בחדר, ואף לבצע משימות תקיפה. אמצעי אוטונומי נוסף שפיתחו ברפאל הוא ה"רוח" (Spirit) – רובוט זעיר בעל ארבע רגליים המיועד למשימות בתוך מבנים, ומסוגל "ללכת", לטפס במדרגות או לעקוב בשקט אחרי מטרה, לשדר אודותיה ולתקוף אותה. כבר ב־2016 הציגה התעשייה האווירית שתי מערכות של "רובוטים משוטטים" – "ברקן ירוק" ו"רותם". שתי המערכות משרתות את כוחות היבשה, והן בעלות יכולת תקיפה והשמדה הן בשטחים פתוחים והן באזורים אורבאניים צפופים (אלמדון 2016).

התבוננות קצרה בקטעי הווידאו הכלולים במאמר המדובר,2 מעלה בזיכרון סרטים שאך אתמול היו בדיוניים. ואכן, כותב המאמר מציין שפיתוח האמצעים האלה לשימוש מציאותי מחייב כפיפות לחוקים אתיים, שייקחו בחשבון מגבלות חוקיות או מוסריות בנוגע ליישומי כלי נשק רובוטיים לשימוש צבאי. במקביל לפיתוח העצמי, על צה"ל לתת את הדעת להתפתחויות בתחום הרובוטי גם אצל האויב: במהלך מבצע "שומר החומות" (מאי 2021), ניסו בחמאס לפגוע בישראל באמצעות כטמ"מים, שברובם היו מצוידים בחומר נפץ. כמו כן, הם הפעילו כשב"ם (כלי שייט בלתי מאויש) כדי לפגוע במטרה ימית. צה"ל סיכל את כל הניסיונות, ולעיתים הם נחלו כישלון טכני (ענתבי 2021).

דילמות אתיות

את הדיון בדילמות האתיות נפתח בסקירה גלובלית, לאחריה נציג בקצרה גישות אקדמיות-מחקריות בנושא ונסיים בסקירת הנושא בראייה ישראלית.

סקירה גלובלית

כמצופה, ככל שמתפתחת המגמה לכלול מערכות נשק אוטונומיות חמושות בשורות היחידות המבצעיות – עולות שאלות ודילמות הקשורות לעצם הפעלתן של מערכות אלה ולאופני השימוש בהן (ראו למשל ברוק 2020, עמ' 16). האם ניתן (או עד איזו מידה ניתן) להשאיר בידי כטמ"מים או רובוטים קטלניים־אוטונומיים (LARs) באופן כללי, את ההחלטה הסופית להשמיד מטרה גם ללא שליטה אנושית בכלל (man out of the loop)? גם במקרי השימוש בכלים אוטונומיים למחצה (עם man in the loop אוֹ man on the loop), כיצד להשאיר את שיקול הדעת ברגע האמת בידי מפעיל הנמצא בתחתית שרשרת הפיקוד? מהי השפעת השימוש בכלים בלתי מאוישים על קבלת החלטות במקרים של חשש לנפגעים משניים? האם שיקולי רגישות לנפגעים (מכוחותינו) תביא לשימוש מופרז בכלים אלה? (Strawser, 2013).

עוד לפני ההתייחסות לאופני השימוש וההפעלה, עולות שאלות בנוגע לעצם הלגיטימציה של פיתוח כלי נשק רובוטיים. מול הקריאה של גורמים הומניטריים שונים במדינות דמוקרטיות ליברליות, להחרים כליל את תעשיית הנשק הקטלני מבוסס הב"מ – נשאלת השאלה האם גם מדינות פחות דמוקרטיות (ויותר תוקפניות) יאמצו קריאה שכזו (Scharre, 2018). במקרה שלנו – האם ישראל יכולה להרשות לעצמה להיות "הג'נטלמן של המזרח התיכון"? (רס"ן ד' 2020). השאלות, כמו גם המאמצים לספק להן תשובות, מוּעלות הן במסגרות הצבאיות והביטחוניות של מדינות שונות, הן בדעת הקהל העולמית והן במוסדות בין־לאומיים, בעיקר באו"ם.

רק בעשור האחרון החלה דעת הקהל העולמית להתעניין בתחום (ענתבי 2018): בנובמבר 2012 פרסם ארגון בשם  Human Rights Watch מסמך תחת הכותרת "אובדן אנושיות", הקורא לאסור את השימוש ב"רובוטים רצחניים", ולהוציא את השימוש בכלים אוטונומיים חמושים מחוץ לחוק.3 באותה שנה הוקם "הקמפיין לעצירת הרובוטים הרצחניים", שבוועדה המשקיפה שלו ארגונים לא ממשלתיים העוסקים בזכויות אדם ובהגבלת תפוצת נשק.4 העמותות העמידו את נושא כלי הנשק הרובוטיים כגורם סיכונִי לאנושות, כשווה ערך להתחממות הגלובלית.

ב־2020 פרסמו שני ארגונים בין־לאומיים מובילים – מכון שטוקהולם הבין־לאומי למחקרי שלום  (SIPRI) והוועד הבין־לאומי של הצלב האדום (ICRC) – מסמך מקיף תחת הכותרת "הגבלות על האוטונומיוּת של מערכות נשק", ובו מסקנות והמלצות בנוגע למגבלות הנדרשות למערכות נשק אוטונומיות ובהן: החובה על מדינות לקבוע כיצד העיקרון של שליטה אנושית ייושם בפועל; החובה להכפיף את המגבלות בהתאם לחוק ההומניטרי הבין־לאומי; והחובה לכלול שליטה אנושית בכל תהליכי המחקר, הפיתוח והיישום של מערכות אלה ((Boulanin et al. 2020.

גם האו"ם החל לעסוק בנושא בעשור האחרון: מ־2013 פועלת במסגרת האו"ם הוועדה המטפלת ב"אמנה להגבלת כלי נשק קונוונציונליים מסוימים" (CCW or CCWC ;The Convention on Certain Conventional Weapons), בשנים הראשונות היו הֶשֵׂגיה של הוועדה מוגבלים למדי, ורק ב־2018 קרא מזכיר האו"ם אנטוניו גוטרש לכל האומות לפעול כדי למנוע ייצור ושימוש בכלי נשק אוטונומיים, אותם כינה "דוחים מבחינה מוסרית ובלתי מקובלים מבחינה פוליטית".5 נכון לקיץ 2020 נענו 97 מדינות לקריאה זו, ופירטו את עמדותיהן המגוונות ביחס למערכות נשק קטלניות אוטונומיות.6 בין המדינות שהגיבו – מעבר למעצמות הגדולות ולרוב מדינות המערב – איראן, עיראק, מצרים, לוב, הרשות הפלסטינית וטורקיה (Human Rights Watch 2020). בתגובתה של ישראל לקריאתו של גוטרש נאמר מצד אחד כי "…ישראל לא מחזיקה כרגע מערכות נשק קטלניות אוטומטיות"; מצד אחר, היא המליצה להשאיר פתח לאפשרויות פיתוח של מערכות נשק כאלה, מכיוון שדווקא הן עשויות להבטיח ביתר יעילות הקפדה על חוקי מלחמה, בהשוואה לתפקוד חיילים (שם; פסקת Israel).

עמדתה של ישראל נמצאת בלב המחלוקת בנושא כלי הנשק הרובוטיים: בניגוד לעמדה "הפתוחה" (שבה תומכות מדינות נוספות), רוב המדינות המתנגדות לפיתוח כלי נשק מסוג זה – כמו גם חלק ניכר מהארגונים הבין־לאומיים העוסקים בנושא – רואים בזאת הליך בלתי מוסרי ובלתי חוקי. ב־2013 ניסח הפרלמנט האירופי מסמך רשמי מחייב שפירט את הכללים והמגבלות בנוגע לשימוש במערכות נשק רובוטיות. המסמך כולל בין השאר התייחסות לתנאים המתירים שימוש ברחפנים; הבחנה בין אזרחים לחיילים; הנחות עבודה ואמצעי זהירות במקרי ספק; הבחנה בין “Right to Kill” ובין “Capture rather than Kill”; ועוד Melzer 2013)).

ב־2015 הכריז משרד החוץ הבריטי כי: "הממלכה המאוחדת איננה מפתחת מערכות נשק אוטונומיות קטלניות, והשימוש וההפעלה של מערכות נשק בידי הכוחות המזוינים של הממלכה תהיה תמיד תחת פיקוח ושליטה אנושית".7 משרד ההגנה האמריקני פרסם כבר בנובמבר 2012 "דירקטיבה" (DoD Directive 3000.09) בנושא השימוש במערכות נשק אוטונומיות. מטרת המסמך הייתה "לקבוע תקנות ברורות המיועדות למזער את עצם האפשרות, ואת ההשלכות שינבעו במקרה של הפעלות שגויות של מערכות נשק אוטונומיות ואוטונומיות למחצה, שעשויות להוביל לתוצאות לא מכוונות" (שם, עמ' 1). בין השאר נדרשים "מפקדים ומפעילים של מערכות כאלו לנקוט במידה ראוייה של שיפוט אנושי בהפעלת המערכות הללו" (שם, עמ' 2).

הנשיא אובמה (שבתקופת כהונתו נעשה שימוש מרובה במערכות נשק רובוטיות) הצהיר במאי 2014 על הקשר הנחוץ בין השימוש במערכות אלו ובין הערכים המנחים בחברה: "במקרים של הפעלת כוח, עלינו לדבוק באמות מידה שמשקפות את ערכינו. פירוש הדבר, להפעיל תקיפה [באמצעות כטמ"מים] רק כאשר אנו עומדים בפני איום מיידי ומתמשך ורק כאשר […] יש ודאות גבוהה להיעדר אזרחים שיפָּגעו".

ב־2017, ייתכן שבעקבות עמדת הנשיא, עודכנה הדירקטיבה המוזכרת ללא שינוי משמעותי, למרות הגידול הניכר בהיקף וביכולות בתחום זה .(Atherton 2019) במסמך המעודכן הייתה התייחסות להפעלת כוח קטלני או לא קטלני על־ידי מערכות חצי אוטונומיות (PALWS), והודגשה היכולת של המפעיל או מפקד להפעיל שיפוט אנושי ברמה נדרשת להפעלתן. כמו כן נקבע שאפשר להפעיל כוח לא קטלני אוטונומי (LAWS), למשל מתקפה אלקטרונית, נגד מטרות בלתי מאוישות בלבד כמו ריכוזי ציוד. על אף הלשון העמומה מעט והמאפשרת טווח פרשנות רחב  (ראו בהשוואה למדיניות הצרפתית בהמשך) – נתפסה מדיניות זו כהצבת חסם מוסרי גבוה לגורמי הממשל והתעשיות הביטחוניות, בכל הנוגע לפיתוח עתידי של רובוטים היכולים לפגוע בבני אדם. מנגד, אחד מכותבי המסמך הודה שבניסוחו הנוכחי הוא איננו מגדיר במדויק את היחס בין שליטה אנושית ליכולת אוטונומית בעת ההפעלה המבצעית של המערכות: האם המפעיל נדרש להיות רק צופה בתהליך האוטונומי (On the loop), או מבקר אותו מבפנים (In the loop)? (שם).

הצרפתים הם אלה שהתייחסו לנושא, עד היום, באופן המפורט והמסויג ביותר. באפריל 2021 פרסמה ועדת האתיקה של משרד ההגנה הצרפתי (שכפופה ישירות לשר ההגנה) מסמך מעודכן לגבי מערכות נשק אוטונומיות (Vilmer 2021). הוועדה נקטה לשון שאינה משתמעת לשני פנים בעמדתה כלפי מערכות הנשק הקטלניות האוטונומיות לחלוטין (LAWS).

השימוש בכלי נשק רובוטיים, לדעת הצרפתים, הוא "בלתי מקובל לחלוטין" (ethically unacceptable) בשל הסיבות הבאות:

1. הפעלת מערכות מסוג זה אינה עומדת בכללים של שרשרת הפיקוד.

2. היא מנוגדת לעיקרון החוקתי של חופש הפעולה להביע התנגדות לגורמים צבאיים.

3. היא איננה מבטיחה את האפשרות לפעול לפי עקרונות החוקים ההומניטריים הבין־לאומיים.

4. היא מנוגדת לקוד האתי של הצבא הצרפתי ולמחויבויות הבסיסיות של החייל הצרפתי כמו כבוד, יושרה, שימוש מבוקר בכוח ואנושיות.

ומה בנוגע ל־PALWS? בקטגוריה זו מוזכרים, לצד ה"הארופ" הישראלי, ה־Kargu-2 הטורקי, נחילי רובוטים בייצור סינִי וכן ה־CSDB (Collaborative Small Diameter Bombs) והכשב"מים Sea Hunter האמריקניים. ועדת האתיקה הצרפתית קובעת כי יש לנסח במדויק ובמפורט את הדרישות האתיות לתכנון, לפיתוח, וכמובן לשימוש האֶתי ההולם ב־ .PALWSהתבוננות מדוקדקת בניסוחי הוועדה בתחום זה עשויה להאיר את ההיבטים האתיים העיקריים הקשורים בהפעלת כלי נשק קטלניים רובוטיים. הצרפתים נתנו לדרישות אלו את הקוד "5Cs": Command, risk Control, Compliance, Competence, and Confidence.  דרישות אלו כוללות:

* מערכות PALWS יפעלו אך ורק על־פי הוראות פיקודיות ברורות ביחס למטרות, לנתוני זמן ומרחב, לכללי פתיחה האש ולמגבלות נוספות.

* למערכת לא תהיה יכולת לשנות את ההוראות בהתאם לתנאים – רק הוראות פיקודיות יוכלו להכניס שינויים.

* למערכת לא תהיה יכולת לייצר פקודה חדשה לעצמה, או למערכת PALWS אחרת הפועלת בסביבה הנתונה.

* למערכת לא תהיה יכולת ליישם למידה עצמית ללא מעורבות ופיקוח אנושיים.

* כל בעלי התפקידים הקשורים למערכות PALWS – מפקדים ישירים, מפעילים, מפקדי זירה – חייבים להיות מאומנים ומתורגלים בכל ההנחיות הנ"ל Vilmer 2021)).

הדברים לא נגמרו במסמך ועדת האתיקה, וקיבלו גיבוי מלא ברמות הפוליטיות הגבוהות ביותר: ב־2018 הצהיר הנשיא עמנואל מקרון כי הוא מתנגד באופן נחרץ לשימוש במערכות LAWS: "מערכות כאלו שָׂמוֹת לְאַל כל מידה של אחריות […] את ההחלטה ל'אור ירוק'  ]בנוגע לפיגוע קטלני[ יש לתת בידי אדם, משום שעלינו להיות מסוגלים לקחת אחריות על החלטה שכזו" (שם). במאי 2021 אישרה שרת ההגנה והכוחות המזוינים של צרפת, פלורנס פַּרלִי, כי "צרפת אומרת 'לא', ותמשיך תמיד לומר 'לא' לכלי נשק רובוטיים קטלניים. צרפת אינה מוכנה לתת את ההחלטה בעניין חיים ומוות בידי מכונה, הפועלת באופן אוטונומי לחלוטין ומשוחררת מכל שליטה אנושית" (שם).

לדעת ד"ר ווילמר, בעצמו חבר בוועדת האתיקה האמורה,8 הסיבה שצרפת היא מדינה מובילה בכל הנוגע להדגשת הצדדים האתיים־מוסריים של מערכות נשק אוטונומיות נובעת קודם כל מן האתוס הצרפתי הבסיסי, ובעיקר מן הקוד האתי של הצבא הצרפתי המדגיש כבוד חיי אדם, הגינות, שימוש מבוקר בכוח ואנושיות (שם). זוהי, לדעתו, גם הסיבה שצרפת היא כנראה המדינה היחידה בעלת ועדת אתיקה צבאית ברמת השפעה כה גבוהה, ומעורבת עמוקות ביזמות בין־לאומיות לדיונים על משמעויות כלי הנשק הרובוטיים והישענות האמל"ח הצבאי על ב"מ.

המקרה הצרפתי הוא דוגמה ייחודית למדיניוּת שבה משקל השיקולים האתיים והמוסריים ביחס לשימוש במערכות נשק אוטונומיות הוא ראשוני במעלה, ולהבחנה הברורה בין מערכות אוטונומיות למחצה ומערכות המופעלות ללא שליטה ופיקוח אנושי. עם זאת, יש להזכיר שגם ארצות־הברית ובריטניה הביעו עמדות מפורשות נגד שימוש במערכות נשק קטלניות ללא פיקוח אנושי. המידע בנוגע למדיניות הקיימת בתחום הפיתוח וההפעלה של מערכות נשק אוטונומיות במדינות אחרות, במיוחד לא מערביות, מוגבל למדי. ככל הידוע, ברוסיה ובסין העכבות נמוכות ביותר ביחס לעניין זה, על אף ששתיהן מתקדמות במהירות בפיתוח היכולת (Atherton 2019). סביר להניח  שיש השפעה הדדית בין עמדות הציבור במדינות שונות ביחס לכלי נשק רובוטיים, ובין המדיניות הממשלתית בנושא זה. חוקר במערך המודיעין של צבא ארצות־הברית ((Lushenko 2021 אף טוען לכיוון סיבתי: באמצעות סקר ושימוש בתרחישים שונים, הגיע המחבר למסקנה שהציבור יגיב לתקיפה באמצעות כלים אוטונומיים בהתאם לדרך שבה יציגו מקבלי ההחלטות את המדיניות הכוללת. לדעתו, ממצאיו מסבירים את המדיניות הצרפתית.

גישות אקדמיות מחקריות

המרחב האקדמי איננו מצליח להעלות תרומה ממשית לנושא, בעיקר משום שלרשות החוקרים אין עדיין נתונים על הנושא, והדיון בשלב זה תיאורטי בלבד. בפנל שהוקדש לנושא בכנס ה־IUS (אגודה בין־לאומית של חוקרי יחסי צבא-חברה, מיסודו של מוריס ז'נוביץ) בשנת 2015  (Gal, 2015)הציגו משתתפי הפנל דעות מנוגדות. לדעת אחד החוקרים (Popovich 2015), ההתנגדות הגורפת לפיתוח מערכות נשק אוטונומיות והכנסתם לשימוש מבצעי היא חסרת שחר מכמה סיבות:

1. מהבחינה החוקית – מערכות רובוטיות מסוגלות לפעול בצורה אפילו יותר אתית וחוקית מבני אדם. היכולת לתכנת את המערכות בדרך שיפעלו קודם כל במגבלות החוקים הנדרשים מבטיחה זאת.

2. מבחינת הסמכות והאחריות – המערכות שיפעלו בעתיד יהיו תמיד עם "אדם במעגל" או "אדם על המעגל". שימוש במערכות מסוג LAWS של "אדם מחוץ למעגל" הוא היפותטי בלבד.

3. מבחינה אסטרטגית – שילוב מערכות נשק אוטונומיות (גם בתחום הגילוי והמודיעין) יבטיח הצדקה (או אי הצדקה) ודאית יותר להחלטה על יציאה למלחמה או למבצע צבאי כל שהוא.

4. מנגד, חוקרת אחרת בפנל הציגה עמדה נחרצת הפוכה: "ניהול מהלכי מלחמה 'מרחוק' הוא מחדל מוסרי, כאשר אנשים שאינם מסַכנים כלל את עצמם מקבלים החלטות שמסַכנות חיי אחרים. מצב כזה מנוגד לחלוטין לתפיסה המקובלת של מלחמה צודקת" (Smith-Heys 2015).

תמריץ שכיח לעיסוק האקדמי (שוב, תיאורטי ברובו) בנושא היו התפתחותן המהירה של המלחמות הא־סימטריות, ובעיקר כל תחום הלוחמה בטרור שפרח בעשורים האחרונים. סוג לוחמה זה כלל לא פעם שימושים במערכות קטלניות אוטונומיות לטובת חיסול ממוקד של מחבלים או מתקני טרור (Finkelstein, Ohlin, & Altman, 2012; Meisels and  Waldron, 2020). ברוב העבודות האקדמיות מושמעת דעה תומכת (גם אם מלוּוה בהזהרות) בנוגע לשימושים למטרות מאבק בטרוריסטים Meisels 2004; 2008); Waldron 2012). ועדיין, החוקרים הוותיקים העוסקים בשאלת "מלחמות צודקות ובלתי צודקות" (Just and Unjust Wars) – כמו פיטר סינגר ומייקל וולצר – נוקטים עמדה חד־משמעית (במאמרים אקדמיים, במאמרי דעה בולטים או בספרים בדיוניים) שמזהירה בפני הקלוּת הבלתי נסבלת שבה עשויים להיות מופעלים כלי נשק רובוטיים Singer 2012;2020; Waltzer 2016)).

בצד העמדות והתפיסות המדיניות הביקורתיות (בהקשרים שמעבר ללוחמה בטרור) כלפי השימוש במערכות נשק אוטונומיות קטלניות, יש להציג עמדות מהקצה השני של הטווח – המצביעות על יתרונותיהן של מערכות אלה, ומעודדות את השימוש בהן. באסופת אוקספורד על אתיקה ומלחמה ((Lazar and Frowe 2018, נכללים מאמרים לא מעטים העוסקים במאפייניה של המלחמה המודרנית. באחד מהם (Statman 2015)9 טוען המחבר כי השימוש בכלי נשק אוטונומיים מקטין את הסכנות של הרס מסיבי לכוחות צבאיים, ומצמצם את הסכנה לנפגעים משניים. כמו כן, שימוש בכלים אלה עשוי לצמצם במידה רבה את הסיכון לחייהם ואת כמות הנפגעים מקרב "כוחותינו", יכול לעודד מדינות לקחת חלק במשימות הומניטריות ואף עשוי למנוע הידרדרות למלחמות רחבות היקף (Statman, 2014). כלי נשק אוטונומיים, טוען סטטמן, עוד "עשויים להירשם בתולדות המלחמות כהבטחה ריאלית להתפתחות מוסרית" (Statman 2015, p. 1). חוקר אחר (Strawser 2010) טען כבר לפני יותר מעשור שאם לרשות כוח צבאי עומדים כלים אוטונומיים לשימוש – מוטלת חובה להעדיפם על פני מערכות נשק קונוונציונליות.

המצב בישראל

בכל הנוגע להיבטים האתיים והמוסריים של השימוש בכלי נשק רובוטיים במסגרת צה"ל, אפשר לבחון את הדברים בכמה רמות:

רמת המדיניות. ככל הידוע, אין מסמך מדיניות רשמי המטיל מגבלות אתיות בנוגע לפיתוח, לשימוש או להפעלה של כלי נשק רובוטיים במערכת הביטחון בכלל ובצה"ל בפרט. גם אין מידע על התבטאות פומבית (בדומה למקרה הצרפתי או האמריקני) של שר ביטחון או ראש ממשלה בנושא. ככל שהדבר מצער ומפתיע – לא מצאתי עדויות לעבודות מחקר או דיונים אקדמיים שהתמקדו בהיבטים האתיים, ברמת המדיניות, של מערכות הנשק האוטונומיות.  עבודה נרחבת שנעשתה במכון למחקרי ביטחון (INSS) לפני כעשור, והולידה מסמך שכותרתו "השימוש בכלים צבאיים בלתי מאוישים עד שנת 2033: המלצות למדיניות לאומית" – לא עסקה ישירות בתחום האתי מוסרי. ההמלצה היחידה (מבין 14 ההמלצות העיקריות שהוצעו) הנוגעת בנושא, מתמקדת בגבולות שיקול הדעת האוטונומיים: "בתחום המשפטי והאתי יש לקבוע את גבולות 'שיקול הדעת' של המכונה בכל הקשור לשימוש באנרגיות קטלניות, ואת אחריות בני האנוש המפעילים את הכב"מ (כלי בלתי מאויש)". (זקס וענתבי 2014, עמ' 9). ענתבי סקרה במאמר מאוחר יותר (ענתבי 2018) את התהליכים הבין־לאומיים להגבלת מערכות נשק אוטונומיות, והמליצה למקבלי ההחלטות בישראל לשקול הסדרה פנימית רשמית ופומבית של התחום וכך להשיג שתי מטרות: להגדיר קווים מנחים בתחום האתי־מוסרי לגורמי הביטחון והצבא, ולהיות מובילה חיובית בתחום בזירה הבין־לאומית.

רמת הפיקוד. חוקרים המצויים בתחום טוענים כי ברגע שהחלטות אסטרטגיות כמו בחירת מטרות לתקיפה, סוג האמל"ח שיתקוף והעיתוי לתקיפה יתבצעו ע"י מכונות אוטונומיות – יקיץ הקץ על האופן שבו התייחסנו למושגים כמו פו"ש, קבלת החלטות ושיקולים מבצעיים. את מקום "שיקולי המפקד" ו"גורמי האנוש" יתפסו רובוטים וב"מ (Roff  2014). במובנים רבים עידן מערכות הנשק האוטונומיות משקף פרדיגמה מבצעית (ופיקודית) חדשה (קמינר 2021).

אולם גם כאן אין התייחסות רשמית מהפיקוד הבכיר של צה"ל, או במסגרת תפיסת ביטחון או תו"ל, לצדדים האתיים של השימוש במערכות נשק אוטונומיות. כל שניתן לצטט הן התייחסויות אגביות המעידות על מודעוּת לבעייתיות ועל ההעדפה האינטואיטיבית. דוגמה לכך היא דברי הרמטכ"ל רא"ל אביב כוכבי, שנקט אנלוגיה הלקוחה מסצנת החרב מול האקדח מסרטי אינדיאנה ג'ונס: "תשאל אותם (את הלוחמים) אם הם מעדיפים להיות בצד של החרב או בצד של האקדח. אין סיבה לאחוז בחרב אם יש לך אקדח שהוא יעיל יותר, לטווח גדול יותר ופוגע יותר. המבחן הוא בקצב השמדת האויב, שלִילת יכולותיו תוך שמירת כוחותינו. עם שילוב של אמצעי ושיטות לחימה חדשניים – זה מה שצריך לעשות". (זיתון 2021).

נקודת הראות של מסמך "רוח צה"ל". הקוד האתי של הצבא הצרפתי נראה על פניו דומה במידה רבה למקבילו הצה"לי. מסמך "רוח צה"ל", שהינו הקוד האתי של צה"ל, מהווה את הבסיס הערכי־מוסרי־אתי לכל פעולות החיילים – לוחמים ותומכי-לחימה כאחד – במסגרת צה"ל.10 שני ערכים (מתוך רשימת 10 הערכים הכלולים במסמך) נוגעים ישירות להיבט האתי המדובר: חיי אדם וטוהר הנשק.

חיי אדם .החייל ינהג באופן מושכל ובטיחותי בכל פעולותיו, מתוך הכרה בחשיבותם העליונה של חיי אדם. בעת לחימה יסכן את עצמו ואת רעיו במידה הנדרשת לביצוע המשימה.

טוהר הנשק. החייל ישתמש בנשקו ובכוחו לביצוע המשימה בלבד, אך ורק במידה הנדרשת לכך, וישמור על צלם אנוש אף בלחימה. החייל לא ישתמש בנשקו ובכוחו כדי לפגוע בבני אדם שאינם לוחמים ובשבויים, ויעשה כל שביכולתו למנוע פגיעה בחייהם, בגופם, בכבודם וברכושם.

מוקדם עדיין לקבוע באיזו מידה השימוש (הקיים, או העתידי) של מערכות נשק רובוטיות שבידי לוחמי צה"ל אכן מאתגר, או מעמיד בסימן שאלה את הערכים האלו. האם ההרשאה או התניה במסמך – "בעת לחימה יסכן את עצמו ואת רעיו במידה הנדרשת לביצוע המשימה" – מספקת הצדקה להעדפת נשק רובוטי על פני סיכון חיי לוחם? או שאולי הרישא שבאותו סעיף מחייבת "הכרה בחשיבותם העליונה של חיי אדם", ולפיכך לא תתיר החלטה על הרג של בני אדם בידי מכונה? ובכל הנוגע לטוהר הנשק – האם היצמדות נאמנה לניסוחו של הערך הזה במסמך "רוח צה"ל" תומכת או מסתייגת משימוש נרחב בכטמ"מים, בכשב"מים ובשאר מערכות נשק קטלניות אוטומטיות?

קל לדמיין מצבים11 שבהם מפעיל מערכת (ברוב המקרים יהיה זה קצין זוטר או אף מש"ק בשירות חובה) ימצא עצמו בנקודת החלטה שבה יצטרך להכריע בין מתן היתר לכלי האוטונומי להמשיך "בעצמו" בביצוע המשימה הקטלנית, ובין ביטול המשימה. ללא תו"ל ברור – בתחום האתי – שיספק קווים מנחים למפעילים מן הסוג הזה, ספק אם "רוח צה"ל" תשמש מצפן ברור להחלטתם. צה"ל כבר מצא עצמו בעבר במצבים בהם חיילים ואף מפקדים בכירים נקלעו לקונפליקט בין צייתנות לפקודות ובין מחוייבות לערכים, בתנאי קרב או מלחמה (1985 Gal). ככל שיורחב השימוש בכלי נשק רובוטיים בעתיד מצבים כאלו יהיו שכיחים עוד יותר.

למרבה הפלא, צה"ל – שמצטיין לרוב בקיום דיונים מעמיקים ופתוחים (לרוב בהשתתפות מומחים אזרחים) בנושאי תו"ל ותפיסת ביטחון – לא נקט גישה דומה בתחום הנוכחי.  על־פי עדותו של סא"ל בומנדיל (בומנדיל 2016), אז קצין בכיר בחיל החינוך של צה"ל, "בחינה של ארבעה כנסים גדולים מהשנים האחרונות שהתקיימו בישראל ועסקו ביישומיים צבאיים של כב"מ, מעלה כי ברוב המקרים לא יוחדה לסוגיות האתיות ולו משבצת אחת בלוח הזמנים. אם הייתה כזו, היא הובלעה במסגרת הרצאה כללית יותר, או התמקדה בזווית המשפטית שהיא חיונית וחשובה, אך אינה יכולה למצות את השיח המוסרי הנדרש" (שם, עמ' 122).

דיון, סיכום והמלצות

מטרת המאמר לברר את ההשלכות הנורמטיביות בתחום האתיקה והמוסר של הפעלת מערכות נשק אוטונומיות חמושות. יֵיאמר כבר על סף סיכום המאמר, שבמובנים רבים בלתי ניתן עדיין להעריך במלואם את עומק ומרחב ההשלכות הללו.  פרספקטיבת הזמן הנדרשת להערכת השלכות מעין אלה איננה קיימת עדיין, כאשר פיתוח המערכות הללו – ובוודאי מלוא השימוש בהן – עדיין נמצאים בצעדיהם הראשונים, וחסרים את מרחק הזמן ומרחב ההתנסויות הנדרשים להערכתם. אפשר להקביל את הדבר לקוצר הראות שאִפיין את חוקרי מדעי החברה ומדעי התקשורת, כאשר ניסו להעריך את השלכותיה של מהפכת המידע והולדת הרשתות החברתיות בשנות ה־90 של המאה ה־20 ותחילת המילניום. כל ההערכות שנעשו לפני "לידת" פייסבוק (2004), טוויטר (2006), גוגל+ (2011), או אינסטגרם (2012) – לא התקרבו אפילו למידת ההבנה הקיימת כיום בנוגע לעוצמתן. יתרה מכך, ברור כבר עתה שהבנתנו הנוכחית תיראה מיושנת לחלוטין בעוד עשור או שניים.

הסקירה הגלובלית והמקומית שהצגנו מצביעה במפורש שאנו נמצאים בעיצומה של תקופת פריחה עולמית בכל הנוגע לפיתוח מערכות נשק רובוטיות, ושילובן ביחידות הצבאיות ובתו"ל המעודכנות ביותר. הדבר נכון גם בנוגע למצבה של ישראל ותפיסת הביטחון העדכנית של צה"ל. הסקירה אף הראתה שבמדינות הדמוקרטיות ובגופים בין־לאומיים מובילים מוקדשת תשומת לב רבה למשמעויות הנורמטיביות של הפיתוח והשימוש במערכות נשק מסוג זה. בצד גישה זהירה כוללת, יש להבחין בין מערכות נשק אוטונומיות לחלוטין, שבהן האדם הוא "מחוץ למעגל", ובין מערכות אוטונומיות למחצה שנשלטות במידה כזו או אחרת על־ידי מפעיליהן. בעוד בנוגע לראשונים יש התנגדות בולטת (הן מצד מדינאים, ואפילו אנשי צבא, והן מצד חוקרים ואנשי רוח), בנוגע למערכות שבהן האדם הוא "בתוך" או "על" המעגל הדעות הן חלוקות.

מבין מדינות המערב שנקטו במדיניות ברורה בנושא זה בולטת צרפת. היא הכריזה על מערכות אוטונומיות לחלוטין כ"בלתי מקובלות מבחינה אתית" (unacceptable Ethically), והתנתה בצורה מפורטת, באמצעות "קוד “5Cs,  את השימוש וההפעלה של מערכות אוטונומיות למחצה. את המהלך הזה הובילה באופן דומיננטי וועדת האתיקה של משרד ההגנה הצרפתי, ועדה שכפופה ישירות לשר ההגנה בממשלת צרפת, כאשר הבסיס להגדרה ברורה כל כך של המדיניות הצרפתית הוא האתוס הצרפתי הבסיסי, ובעיקר הקוד האתי של הצבא הצרפתי המדגיש כבוד חיי אדם, הגינות, ושימוש מבוקר בכוח ובאנושיות (Vilmer, 2021). בניגוד למקרה הצרפתי, לא מצאנו בגורמי הצבא או מערכת הביטחון הישראליים עיסוק מקביל בהיבטים הנורמטיביים של הפיתוח והשימוש במערכות נשק רובוטיות. הדבר מפליא שבעתיים לנוכח הדמיון בין הקוד האתי של הצבא הצרפתי ועיקרי "רוח צה"ל".

אל לנו לשכוח שסוגיות אתיות וערכיות מושפעות, במידה רבה, מהתרבות והנורמות החברתיות של חברה נתונה. ההבדלים בין מדינות מערביות, דמוקרטיות וליברליות ובין מדינות שאינן כאלה הוא משמעותי. יתר על כן, גם בין המדינות הדמוקרטיות השונות קיימים הבדלים לא קטנים. זאת ועוד, יש שיאמרו שחשובה לא רק הנורמה השלטת אצלך אלא גם זו שאצל שכניך או אויביך, ושמדינה תחת איום קיומי אינה יכולה לתת משקל דומה לערכים מסוימים, כפי שיכולות מדינות שמשוחררות מאיומים כאלה. ועדיין יש להקשיב לאמירתו של מייקל וולצר, הפילוסוף היהודי-אמריקני שעמדותיו מובילות בתחום האתיקה והמוסר בימי מלחמה ושלום: "עד שלא נגיע למצב בו מלחמות יתבצעו באופן מוחלט לא על־ידי בני אדם אלא באמצעות מכונות לא אנושיות – אי אפשר להפריד את נושא המלחמות מתחום המוסר בחיינו" (Walzer 1992, p. 64).12

אם לא די בכך שהסוגיות האתיות נורמטיביות באופיין, גם הדיון ביחס ללגיטימיות של מערכות נשק אוטונומיות מסתמך במידה רבה על אינטואיציות (ליבליך ובנבנישתי 2016). אולם כאשר עוסקים בקונפליקט העמוק שבין מתן הרשאה למערכת אוטונומית לחלוטין לקטול חיי בני אדם, ובין הרצון הכֵּנה לחסוך בחיי אדם של לוחמינו – אי אפשר להסתפק באינטואיציה בלבד כדי לקבל החלטה.

ליבליך ובנבנישתי (2016) הצביעו על שתי גישות שונות לבחינת שאלת הלגיטימציה, במסגרת השיח על ההיבטים האתיים-מוסריים של הנושא: גישה תוצאתית־תועלתית מחד גיסא; וגישה קטגורית, דאונטולוגית מאידך גיסא.13 על־פי הגישה הראשונה, אם יסתבר – בניתוח אובייקטיבי מהימן ותקף, שמערכות נשק אוטונומיות מסייעות באופן ודאי לקבל החלטות אסטרטגיות וטקטיות נכונות, שמשלימות משימות מבצעיות ביעילות גבוהה וחוסכות משמעותית חיי אדם מקרב כוחותינו – או אז אין כל סיבה לאסור את פיתוחן ואת השימוש בהן. על בסיס הגישה הזו, לקבלת החלטות על המשך פיתוח כלי נשק רובוטיים קריטריונים ברורים, ולפיכך הדילמה האתית יכולה לבוא על פתרונה. מטרה מוצדקת, על־פי גישה זו, מצדיקה את האמצעים.

מנגד, הגישה השנייה, הדאונטולוגית, טוענת כי גם אם יושגו נתונים המוכיחים יחס עלות-תועלת חיובי ברור ומוחלט לשימוש בכלי נשק קטלניים אוטונומיים – עדיין יש שיקול מוסרי עליון שמחייב הגבלה בשימוש בכלים אלו. ההמלצות העיקריות העולות מן הסקירה הנוכחית, אינן בהכרח מצביעות על כיוון כזה או אחר שעל ישראל לנקוט – ברמה המדינית או הצבאית – בכל הנוגע למדיניות הפיתוח והשימוש במערכות נשק אוטונומיות. אדרבא, הסקירה מצביעה במפורש על נימוקים לכאן ולכאן.

המלצותיי, אם כן, נוגעות יותר לתהליך המלווה את פיתוחן של מערכות הנשק ושילובן. הן אינן חדשות וכבר הועלו בעבר על־ידי עמיתים, כפי שנראה להלן.

* להשקיע – במקביל למאמץ הטכנולוגי העצום של טובי המוחות והמומחים המושקע בפיתוח המערכות – מאמץ מערכתי מקביל בצד העיוני־חשיבתי של הנושא. על בסיס כל אלה יש לקיים ימי עיון, סדנאות, כנסים מקצועיים ותוכניות הכשרה ברמות השונות. יש לעודד כתיבת מאמרים והבעת דעות בכל הנושאים הללו, ולקיים שיח פורה שיכלול את כל מגוון הדעות. המלצות ברוח זו כבר השמיעו בעבר (ליבליך ובנבנישתי 2016), אך לא נראה שיושמו או שניתנה להן תשומת הלב הראויה.

* להשתתף אקטיבית במסגרות בין־לאומיות, ולהציג את עמדותיה של ישראל ביחס לפיתוח ולשימוש במערכות נשק אוטונומיות, על כל הדילמות האתיות והמוסריות הנלוות. דוח מחקר מ־2018 של מוסד שמואל נאמן למחקר מדיניות לאומית (גץ ואחרים 2018), כלל בתוכו המלצה דומה: "הדיון בנושאי האתיקה הופך לתופעה גלובלית, ורשת של ועדות אתיקה לאומיות מתחילה להיבנות בימים אלו. חשוב שישראל לא תיוותר מחוץ לדיון הבינלאומי, אלא תיקח בו חלק מרכזי ומתמשך" (שם, עמ' 25). יתרה מכך, חשיפה פומבית של עמדות ישראל בנושאים אלה מעל במות בין־לאומיות, תאפשר ממילא דיון פתוח וגלוי יותר במסגרות פנימיות (צה"ליות ואזרחיות) בדילמות. כזכור, גם בעבודתה של ענתבי מוזכרים שני היתרונות של מעורבות בין־לאומית ישראלית:  בצד הצבתה כמובילה חיובית בתחום זה בזירה הבין־לאומית, הדבר יאפשר להגדיר קווים מנחים בתחום האתי־מוסרי לגורמי הביטחון והצבא (ענתבי 2018).

* במקביל לפריחה הטכנולוגית המלווה את המו"פ של מערכות הנשק האוטונומיות, יש להרחיב את תחום הידע הנורמטיבי – בהיבטים אתיים, ערכיים ומוסריים – אצל כל העוסקים בנושא: חוקרים, מְפַתחים, מפעילים ומפקדים. כזכור, היבט זה נכלל גם בהנחיות וועדת האתיקה הצבאית של משרד ההגנה הצרפתי Vilmer 2021)). המלצת חוקרי מוסד נאמן (גץ ואחרים 2018) בנושא זה מפורטת ומפורשת יותר: "כל האנשים המעורבים בתהליכי הפיתוח של בינות מלאכותיות ומאגרי מידע, צריכים לרכוש השכלה בסיסית בתחום האתיקה. רצוי שהשכלה שכזו תתחיל עוד בתואר הראשון באוניברסיטה" (שם עמ' 25). 

* החוקר האמריקאי פול שַׁאר14 טבע בספרו עטור הפרסים Army of None: Autonomous Weapons and the Future of War את הציווי "כשמדובר בשיקולים של חיים ומוות, אין תחליף ללב אנוש" (Scharre 2018). שַׁאר התייחס, כמובן, להכרח המעשי של נוכחות "אדם במעגל" בכל מקרה של שימוש בכלי נשק אוטונומיים. נראה שיש מקום לפירוש רחב יותר של אמירה זו, הנוגע בצורך בלימוד אנושי (בשונה מ"למידת מכונה"), בדיון מעמיק ובעיסוק פומבי בהשלכות המוסריות, האתיות והערכיות של פיתוח והפעלת רובוטים קטלניים אוטונומיים למיניהם.

המחבר מבקש להודות למספר מומחים ועמיתים שסייעו באיתור מקורות, בהערות חשובות ובהארות תורמות:  אושרי בר גיל,  יגיל לוי,  יואב גל,  נועם ברוק,  סמואל בומנדיל,  עפרה בן ישי,  רוני טיארג'אן־אור, תמר מייזלס ושני קוראים אנונימיים. תודה מיוחדת מוקדשת לאל"ם (מיל') יעקב צור, שסיפק חומרים חשובים שהיו בסיס לכתיבת מאמר זה.

מקורות

אלמדון, א. (2016), "יצאנו לשוטט".  ביטאון חיל האויר, גליון 232, 12/12/16.

https://www.iaf.org.il/8945-48837-he/IAF.aspx

אתר צה"ל, "בתוך מעבדת שדה הקרב הצה"לית", 18.03.2021. נדלה מתוך: https://www.idf.il/129375/ ;  וכן ערוץ היוטיוב של צה"ל: "עוד לא מכירים את יחידת 'רפאים'?". 28.07.2020.  נדלה מתוך: https://www.youtube.com/watch?v=HeQIsgRFNas

בוחבוט, א. (2021).  'מאתרים מרחוק ותוקפים במהירות: יחידת הרפאים שמשנה את כללי המשחק בצה"ל', וואלה, 21.8.21. נדלה מתוך: https://news.walla.co.il/item/3455388

בומנדיל, ס. (2016). "במקום בו אין אנשים": על האתגרים הצפויים לצה"ל כתוצאה מהשימוש הגובר בכלי נשק בלתי מאוישים. בין הקטבים, גיליון מס' 9, דצמבר 2016, עמ' 99-126.

בן גוריון, ד. (1955). צבא וביטחון. מערכות – ספר דיגיטאלי, 1955. (כאן)

https://www.maarachot.idf.il/2017/%D7%92%D7%99%D7%9C%D7%99%D7%95%D7%A0%D7%95%D7%AA/%D7%A1%D7%A4%D7%A8-%D7%93%D7%99%D7%92%D7%99%D7%98%D7%9C%D7%99-%D7%A6%D7%91%D7%90-%D7%95%D7%91%D7%99%D7%98%D7%97%D7%95%D7%9F-%D7%93%D7%95%D7%93-%D7%91%D7%9F-%D7%92%D7%95%D7%A8%D7%99%D7%95%D7%9F/

בן ישי, ר. (2020). תוכנית הרמטכ"ל לנצח במלחמה הבאה מתנגשת במשבר הקורונה, Y-net, 28.05.2020. https://www.ynet.co.il/articles/0,7340,L-5737813,00.html

ברוק, נ. (2020).  סקירה: רובוטים קרקעיים חמושים. מו"פ ביטחוני בעולם. גליון אפריל 2020. מפא"ת ומשרד הביטחון. עמ' 8-16.  https://www.yumpu.com/en/document/read/63287493/-2020

גץ, ד., כץ-שחם, א., קליין, ר., צזנה, ר., רוזנברג, ש., שהם, א., ברזני, א., לק, ע., ציפרפל, ס. (2018). בינה מלאכותית, מדעי הנתונים ורובוטיקה חכמה – דו"ח בנושא אתיקה, משפט ופרטיות; מוגש למועצה הלאומית למחקר ופיתוח במשרד המדע והטכנולוגיה. מוסד שמואל נאמן למחקר מדיניות לאומית, הטכניון. דצמבר, 2018.   https://www.neaman.org.il/Files/Artificial%20Intelligence,%20Data%20Science,%20and%20Smart%20Robotics-%20A%20report%20on%20Ethics,%20Law%20and%20Privacy_20181230121054.072.pdf

דבורי, נ. (2021). אחד ביום: יחידת רפאים וצבא העתיד, N12, 30.06.2021. נדלה מתוך: https://www.mako.co.il/news-podcast_n12/one_a_day/Article-a66852881795a71027.htm

דורון, ג. ולבל, א. (2005).  פוליטיקה של שכול. הוצאת הקיבוץ המאוחד.

ויטמן, נ. (2015).  "מבט לעתיד: אמצעי הלחימה של שנת 2025".  אתר צה"ל , 2015.2.15.

זיתון, י. (2020). תיעוד: אימון "היחידה הרב-מימדית" החדשה של צה"ל, Y-Net, 23.07.2020. נדלה מתוך:

https://www.ynet.co.il/news/article/rJskG7vgv

זיתון, י. (2021). הרמטכ"ל ל-ynet: מפעילים כוחות צבאיים בחרדת קודש, לא נכנסים לעזה כדי להעלות מורל.  Y-Net, 5 ספטמבר, 2021.    https://www.ynet.co.il/news/article/by7xxemff#autoplay

זקס, י. וענתבי, ל. (2014). השימוש בכלים צבאיים בלתי מאוישים עד שנת 2033: המלצות למדיניות לאומית על בסיס חיזוי טכנולוגי – הערכת מומחים.  מזכר 145, המכון למחקרי ביטחון לאומי, תל אביב, דצמבר 2014.

כהן-אינגר, נ. וקמינקא, ג. א. (2018). והרי התחזית: צה"ל בדרך לצבא תבוני – מפת דרכים לאימוץ טכנולוגיות בינה מלאכותית בצה"ל.  בתוך: ערן אורטל (עורך), בין הקטבים, גיליון 18, עמ' 91-118.

לב רם, ט. (2020). רב זירתית ומותאמת לשדה הקרב המודרני: הכירו את האוגדה החדשה של צה"ל. מעריב, 17.8.2020.  https://www.maariv.co.il/news/israel/Article-784322

לוי  , ש. (2021). דיווחים: אוקראינה תקפה לראשונה עם כטב"מים שרכשה מטורקיה. מאקו/פזם, 2 נובמבר, 2021.  https://www.mako.co.il/pzm-military/Article-66d73dcf4afdc71026.htm

לוינסון, ח. (2021). התעשייה האוירית קיבלה 22 מליון דולר ממרוקו;  דיווחים: נמכרו מל"טים מתאבדים.  הארץ, 30 נובמבר, 2021

ליבליך, א. ובנבנישתי, א. (2016). לוחמה רובוטית ובעיית הכבילה  של שיקול־הדעת. עיוני משפט לט, 106-67.

ענתבי, ל. (2021). כלים בלתי מאוישים בידי "הצד השני" : לקחים ליום שאחרי מבצע "שומר החומות".   מבט על, גיליון 1477, 31 במאי 2021.

ענתבי, ל. (2018). התהליך הבינלאומי להגבלת מערכות נשק אוטונומיות: משמעויות לישראל. עדכן אסטרטגי, כרך 21, גיליון 3, אוקטובר 2018.

פישמן, א. (2022). תוכנית כוכבי להכרעת האויב. ידיעות אחרונות, 25 מרץ, 2022. https://www.yediot.co.il/articles/0,7340,L-5524892,00.html

רס"ן ד. (2020).  הסכנה בהגבלה של פיתוח מערכות מבוססות בינה מלאכותית לצרכים צבאיים, אתר מערכות, 16 ביוני 2020.

קופרווסר, י. וסימן טוב, ד. (2018). "ביג דאטה ומודיעין .”מודיעין הלכה ומעשה  ,גיליון 3, מאי 2018.

קמינר, ב. (2021). האם נכון לוותר על המפעיל האנושי במערכות לחימה אוטונומיות? מערכות, גיליון 489, 21.01.2021.

Atherton, K. (2019). When Should the Pentagon Update its Rules on Autonomous Weapons? C4ISRNet, Dec 13, 2019  www.c4isrnet.com/battlefield-tech/2019/12/12/when-should-the-pentagon-update-its-rules-on-autonomous-weapons/

Bhuta, N., Beck, S., Geiβ, R., Liu, H. Y., & Kreβ, C. (Eds.). (2016). Autonomous weapons systems: Law, ethics, policy. Cambridge University Press.

Boulanin, V., Davison, N., Gaussac, N. and Carlsson, M. P. (2020). Limits on Autonomy in Weapon Systems: Identifying Practical Elements of Human Control.  SIPRI & ICRC, June 2020.    https://www.icrc.org/en/document/limits-autonomous-weapons

Choi, C. Q. (2021). AI drone may have 'hunted down' and killed soldiers in Libya with no human input. Live Science, June 03, 2021.    https://www.livescience.com/ai-drone-attack-libya.htm

Davidovic, J. (2022) What’s Wrong with Wanting a “Human in The Loop”?  War On the Rocks (Texas National Security Review), June 23, 2022. https://warontherocks.com/2022/06/whats-wrong-with-wanting-a-human-in-the-loop/

Dawes, J. (2021). An autonomous robot may have already killed people — here’s how the weapons could be more destabilizing than nukes. Defense News, September 29, 2021.    https://www.defensenews.com/opinion/2021/09/29/an-autonomous-robot-may-have-already-killed- people-heres-how-the-weapons-could-be-more-destabilizing-than-nukes/

DoD Instruction 3000.09, “Autonomy in Weapon Systems".  November 21, 2012 (Incorporating Change 1, May 8, 2017).    https://www.esd.whs.mil/portals/54/documents/dd/issuances/dodd/300009p.pdf 

Eshel, T. (2020). Rafael Unleashes Robots to Pursue Targets Indoors. Defense Update, Dec. 27, 2020. https://defense-update.com/20201227_indoor.html

Finkelstein, C., Ohlin, J. D., & Altman, A. (Eds.). (2012). Targeted killings: Law and morality in an asymmetrical world. OUP Oxford.

Gal, R. (1985). Commitment and obedience in the military: An Israeli case study. Armed Forces & Society, 11(4), 553-564.‏

Gal, R. (Chair & Presenter), (2015). Panel 54: Virtual Warriors: Ethical Issues.  The 2015 Inter-University Seminar on Armed Forces and Society International Conference. Chicago, IL October 30 – November 1, 2015.

Halpern, S. (2021). The Human Costs of AI. The New York Review, October 21, 2021. https://www.nybooks.com/articles/2021/10/21/human-costs-artificial-intelligence/

Helou, A. (2021). Morocco and Israel to sign kamikaze drone deal. Defense News, October 1, 2021.  https://www.defensenews.com/unmanned/2021/10/01/morocco-and-israel-to-sign-kamikaze-drone-deal/

Hetzner, C. (2022). The cheap, slow, and bulky drones taking down Russian armored tanks for Ukraine. Fortune, March 4, 2022.   https://fortune.com/2022/03/04/bayraktar-tb2-drone-ukraine-russia-war/

Human Rights Watch (2020). Stopping Killer Robots: Country Positions on Banning Fully Autonomous Weapons and Retaining Human Control.  August 10, 2020 https://www.hrw.org/report/2020/08/10/stopping-killer-robots/country-positions-banning-fully-autonomous-weapons-and

Lazar, S. and Frowe, H. (eds.) (2018). The Oxford Handbook of Ethics and War, Oxford University Press.

Lebel, U. (2010). ‘Casualty panic’: Military Recruitment Models, Civil-Military Gap and their Implications for the Legitimacy of Military Loss. Democracy and Security, 6(2):183–206.

Levy, Y. (2012). Israel's Death Hierarchy: Casualty Aversion in a Militarized Democracy. New York: New York University Press.

Lushenko, P. (2021). The Moral Legitimacy of Drone Warfare.  Available at SSRN 3926298, 2021 – academia.edu     https://www.academia.edu/52730164/The_Moral_Legitimacy_of_Drone_Warfare

Maoz, Z. (2006). Defending the Holy Land: A Critical Analysis of Israel’s Security and Foreign Policy. Ann Arbor: University of Michigan Press.

McMahan, J. (2011) Killing in War. Oxford University Press.

Meisels, T. and  Waldron, J. (2020). Debating Targeted Killing: Counter-Terrorism or Extrajudicial Execution?  New York, Oxford Academic Online Edition.

https://doi.org/10.1093/oso/9780190906917.001.0001 

MeiselsT. (2004). Targeting Terror. Social Theory and Practice, 30 (3), 297-326.

 https://doi.org/10.5840/soctheorpract200430320

MeiselsT. (2008). The Trouble with Terror: Liberty, Security and the Response to Terrorism.  Cambridge University Press.

Melzer, N. (2013). Human Rights Implications of The Usage of Drones and Unmanned Robots in Warfare.  European Parliament, Directorate-General for External Policies of the Union, Policy Department. Brussels, 3 May, 2013.  https://www.europarl.europa.eu/RegData/etudes/etudes/join/2013/410220/EXPO-DROI_ET(2013)410220_EN.pdf

Murray, M. (2021).  Chief of US Army Futures Command: The service is experiencing a technological evolution. Defence News,  Jan 11, 2021

https://www.defensenews.com/outlook/2021/01/11/chief-of-us-army-futures-command-the-service-is-experiencing-a-technological-evolution/

Newdick, T. (2021). The Sound of This Night-time Suicide Drone Strike Is Absolutely Terrifying. The Drive, April 21, 2021.  https://www.thedrive.com/the-war-zone/40265/the-sound-of-this-nighttime-suicide-drone-strike-is-absolutely-terrifying

Popovich, E. (2016). "Ethics of Lethal Autonomous Robots". Paper presented at the IUS Conference, Oct. 31, 2015.

Roff, H. M. (2014). The Strategic Robot Problem: Lethal Autonomous Weapons in War, Journal of Military Ethics, 13:3, 211-227. DOI: 10.1080/15027570.2014.975010

Scharre, P. (2018). Army of None: Autonomous Weapons and the Future of War. New York, W.W Norton & company.

Singer, P. W. (2020).  Burn-In: A Novel of the Real Robotic Revolution. Boston, Houghton Mifflin Harcourt.

Smith-Heys, J. J. (2015).  U.S. Drone Warfare Policies and the Just War Tradition.  Paper presented at the Inter-University Seminar on Armed Forces and Society 2015 International Conference, Chicago, IL October 30 – November 1, 2015

Stanley, A. (2021). The Age of Autonomous Killer Robots May Already Be Here. GIZMODO, May 30, 2021. https://gizmodo.com/flying-killer-robot-hunted-down-a-human-target-without-1847001471 (Retrieved Oct’ 11,2022).

Statman, D. (2014) Drones, Robots and the Ethics of War, 2014/1 Zebis Ethics and Armed Force  – Controversies in Military Ethics and Security Policies (e-journal), 41-45.  http://www.ethikundmilitaer.de/en/full-issues/20141-drones/statman-drones-robots-and-the-ethics-of-war/

Statman, D. (2015). Drones and Robots: On the Changing Practice of Warfare. In: Seth Lazar and Helen Frowe (eds.), The Oxford Handbook of Ethics and War, Online Publication. DOI: 10.1093/oxfordhb/9780199943418.013.9

Strawser, B. J. (2010).  Moral Predators: The Duty to Employ Uninhabited Aerial Vehicles. Journal of Military Ethics, 9 (4), 342-368.

Strawser, B. J. (ed.) (2013). Killing by Remote Control: The Ethics of an Unmanned Military. New York: Oxford University Press.

Tadjdeh, Y. (2021). Army Giving Robotic Combat Vehicles More Firepower. National Defense Magazine. May 2, 2021. https://www.nationaldefensemagazine.org/articles/2021/2/5/army-giving-robotic-combat-vehicles-more-firepower .

The White House Office of the Press Secretary )2014). “Remarks by the President at the United States Military Academy Commencement Ceremony,” May 28, 2014.   https://www.whitehouse.gov/the-press-office/2014/05/28/remarks-president-united-states-military-academy-commencement-ceremony

Trevithick, J. (2021). Ship-Launched Version of The Israeli Harop Suicide Drone Will Be Sailing With An Asian Navy. The Drive–The War Zone,  Februar 3, 2021

https://www.thedrive.com/the-war-zone/38690/ship-launched-version-of-the-israeli-harop-suicide-drone-will-be-sailing-with-an-asian-navy

Vercellone, C. (2020). Five Burn-In’ Questions on ‘The Real Robotic Revolution’. C4ISRNet, May 25 2020.  www.c4isrnet.com/artificial-intelligence/2020/05/25/five-burn-in-questions-on-the-real-robotic-revolution/

Vilmer, J-B. J. (2021). A French Opinion on The Ethics of Autonomous Weapons. War on the Rocks. June 2, 2021. https://warontherocks.com/2021/06/the-french-defense-ethics-committees-opinion-on-autonomous-weapons/

Waldron, J. (2012). Justifying Targeted Killing with a Neutral Principle. In: Claire Finkelstein, Jens David Ohlin, and Andrew Altman (Ed’s), Targeted Killings – Law and Morality in an Asymmetrical World. Oxford: Oxford University Press, Chapter 4, 112-131.

Walzer, M. (1992).  Just and Unjust Wars: A Moral Argument with Historical Illustrations. New York, NY: Basic Books.

Walzer. M. (2016).  Just & Unjust Targeted Killing & Drone Warfare. Daedalus, September 2016; 145 (4): 12–24.  DOI: https://doi.org/10.1162/DAED_a_00408

Winkie, D. (2022). Ukraine’s drone strikes reveal Russian planning failures, expert says. MilitaryTimes, March 2, 2022. https://www.militarytimes.com/flashpoints/ukraine/2022/03/01/ukraines-drone-strikes-reveal-russian-planning-failures-expert-says/

הערות

  1. ראו:
    https://he.rafael.co.il/worlds/land/%D7%A9%D7%93%D7%94-%D7%94%D7%A7%D7%A8%D7%91-%D7%94%D7%93%D7%99%D7%92%D7%99%D7%98%D7%9C%D7%99/

  2. לצפייה — https://youtu.be/dEUPCyIGAYU

  3. ראו: https://reliefweb.int/report/world/losing-humanity-case-against-killer-robots

  4. ראו: https://www.stopkillerrobots.org/

  5. ראו:https://static1.squarespace.com/static/5ddebdd23fbbc6593acfdd78/t/5f67d0188975d6731c5a4da6/1600639001844/Lethal+Autonomous+Weapons+%28DISEC%29+-+Research+Report+for+ReiMUN+24.pdf

  6. ניתן לראות את מגוון התגובות המדינתיות כאן: https://www.hrw.org/report/2020/08/10/stopping-killer-robots/country-positions-banning-fully-autonomous-weapons-and  

  7. ראו: https://www.theguardian.com/politics/2015/apr/13/uk-opposes-international-ban-on-developing-killer-robots

  8. ראו: https://www.atlanticcouncil.org/expert/jean-baptiste-jeangene-vilmer/

  9. כפי שהופיע בפרסום מוקדם, דיגיטלי.

  10. ראו:https://www.idf.il/%D7%9E%D7%90%D7%9E%D7%A8%D7%99%D7%9D/%D7%90%D7%95%D7%93%D7%95%D7%AA-%D7%A6%D7%94%D7%9C/%D7%A8%D7%95%D7%97-%D7%A6%D7%94%D7%9C/

  11. דוגמה אחת מיני רבות נכללת בסרט Good Kill (חיסול ממוקד) משנת 2014

  12. במקור: "Until wars are really fought with pawns, inanimate objects and not human beings, warfare cannot be isolated from moral life."

  13. דאונטולוגיה היא תאוריה אתית, אשר לפיה לפעולות מסוימות יש ערך מוסרי חיובי או שלילי כשלעצמן, הנפרד מן הערך המוסרי החיובי או השלילי של תוצאותיהן. מבוסס במידה רבה על "הצו הקטגורי" בתורתו של קאנט.

  14. ראו: https://www.cnas.org/people/paul-scharr