איזון הבינה המלאכותית



<div _ngcontent-c14 = "" innerhtml = "

מציאות עליית מערכות נשק אוטונומיותפיקדון משופרת על ידי CogWorld

מבוא

הפיתוח הטכנולוגי הפך למרוץ עכברים. בתחרות להוביל את מרוץ הטכנולוגיה המתפתחת ואת שדה הקרב הלוחמה עתידני, בינה מלאכותית (AI) הופך במהירות למרכז של כוח משחק העולמי. כפי שניתן לראות על פני מדינות רבות, הפיתוח של מערכת נשק אוטונומית (AWS) מתקדמת במהירות, ועלייה זו בנשק של הבינה המלאכותית הפכה, ככל הנראה, ליציבות מאוד. זה מביא אתגרים ביטחוניים מורכבים לא רק מקבלי ההחלטות של כל עם, אלא גם לעתיד האנושות.

המציאות כיום היא שהאינטליגנציה המלאכותית מובילה אותנו אל שדה קרב אלגוריתמי חדש שאין לו גבולות או גבולות, יכול או לא יכול להיות מעורב בבני אדם, ולא ניתן יהיה להבין ואולי לשלוט על המערכת האקולוגית האנושית במרחב הקיברנטי, החלל והחלל (CGS). כתוצאה מכך, עצם הרעיון של חימוש בינה מלאכותית, שבו מערכת נשק, שפעם הופעלה על ידי CGS, יכולה לבחור ולעסוק במטרות אנושיות ולא אנושיות ללא התערבות נוספת של מעצב או מפעיל אנושי, היא גרימת פחד גדול.

המחשבה על כל מכונה אינטליגנטית או אינטליגנציה ממוחשבת תהיה בעלת היכולת לבצע כל משימה לוחמתית צפויה ללא כל מעורבות והתערבות אנושית – תוך שימוש רק באינטראקציה של החיישנים המשולבים שלה, בתכנות המחשבים ואלגוריתמים בסביבת האדם ובמערכת האקולוגית – להפוך למציאות כי לא ניתן להתעלם יותר.

אימוץ בינה מלאכותית

כמו AI, למידה מכונה למידה עמוקה מתפתחת עוד ועוברת מן הרעיון כדי מסחור, האצה מהירה כוח מחשוב, זיכרון, נתונים גדולים ותקשורת במהירות גבוהה היא לא רק יצירת חדשנות, השקעה וטירוף היישום, אבל הוא גם להגביר את החיפוש עבור שבבי AI. זה התקדמות מהירה מתמשכת ופיתוח מעידים על כך שהאינטליגנציה המלאכותית נמצאת בדרכה לחולל מהפכה במלחמות, וכי מדינות ללא ספק ימשיכו לפתח את מערכת הנשק האוטומטי שתאפשר AI.

כאשר מדינות בנפרד או ביחד להאיץ את מאמציהן כדי להשיג יתרון תחרותי במדע וטכנולוגיה, נשק נוסף של AI הוא בלתי נמנע. לפיכך, יש צורך לדמיין כיצד נראית מלחמה אלגוריתמית של מחר, משום שבניית מערכות נשק אוטונומיות היא דבר אחד, אך השימוש בהן בלוחמה אלגוריתמית עם עמים אחרים ונגד בני אדם אחרים הוא דבר אחר.

כמו דוחות כבר מתעוררים של מערכות אלגוריתמיות מורכבות התומכות בהיבטים רבים יותר של הלחימה על פני CGS, האמת היא שהסחורה של AI היא מציאות כעת. כפי שניתן לראות במרחב הקיברנטי, לוחמה אוטומטית (Cyberwarfare) יש כבר החלה – איפה מישהו וכולם מטרה. אז, מה הלאה, גיאו לוחמה ומרחב לוחמה? ומי, ומה יהיה היעד?

ההתפתחות המהירה של הנשק AI ניכרת על פני הלוח: ניווט ושימוש בים ללא טייס, אוויר, כלי רכב שטח, לייצר הערכות נזק נזקים, פריסת "טילי" אש ושכחה " ושימוש במערכות נייחות כדי להפוך כל דבר ממערכות כוח אדם ותחזוקת ציוד לפריסה – מל"טים, רובוטים ועוד הם כולם דוגמאות. לכן, כאשר האלגוריתמים תומכים בהיבטים רבים יותר ויותר של המלחמה, היא מביאה אותנו לשאלה חשובה: מה מותר להשתמש ב- AI במלחמת יום ומחר, מוגבל ומוגבל?

בעוד מערכות נשק אוטונומיות מאמינים כי הן מעניקות הזדמנויות להקטנת עלויות התפעול של מערכת הנשק – במיוחד באמצעות שימוש יעיל יותר בכוח אדם – ומן הסתם יאפשרו למערכות נשק להשיג מהירות, דיוק, התמדה, דיוק, שדה הקרב, הצורך להבין ולהעריך את הבעיות הטכנולוגיות, המשפטיות, הכלכליות, החברתיות והביטחוניות עודנו.

תפקיד מתכנתים ותכנות

בין האתגרים הביטחוניים המורכבים הללו לבין הים של הבלתי ידועים שמגיעים אלינו, מה שנשאר מהותי לביטחון ולביטחון של המין האנושי הוא תפקידם של מתכנתים ותכנות יחד עם שלמות שבבי המוליכים למחצה. הסיבה מאחורי זה היא מתכנתים יכולים להגדיר ולקבוע את אופי AWS (לפחות בהתחלה) עד AI מתחיל לתכנת את עצמו.

עם זאת, אם וכאשר מתכנת אשר בכוונה או בטעות תוכניות נשק אוטונומי לפעול תוך הפרה של המשפט ההומניטארי הבינלאומי הנוכחי והעתיד (IHL), איך אנשים ישלוט נשק של AI? יתר על כן, מכיוון ש- AWS מתמקדת בתוכנה, היכן מוטלת האחריות לטעויות ולמניפולציה של תכנון ושימוש במערכות AWS? זה מביא אותנו ללב השאלה – אם וכאשר מערכת אוטונומית הורגת, מי אחראי על ההרג, בלי לשים לב אם זה מוצדק או לא?

Cyber- אבטחה אתגרים

בקיצור, אלגוריתמים אינם מוגנים בשום אופן – וגם אינם חסינים מפני באגים, תוכנות זדוניות, הטיה ו מניפולציה. ומכיוון למידה מכונה משתמש במכונות כדי להכשיר מכונות אחרות, מה קורה אם יש תוכנות זדוניות או מניפולציה של הנתונים הכשרה? בעוד שהסיכונים הביטחוניים נמצאים בכל מקום, ההתקנים המחוברים מגבירים את יכולתם של הפגיעות של cybersecurity ממיקומים מרוחקים ובגלל שהקוד אטום, האבטחה מורכבת ביותר. אז, כאשר AI הולך למלחמה עם AI אחרים (ללא קשר אם זה עבור אבטחה סייבר, אבטחה גיאוגרפית, או ביטחון שטח), אתגרים cybersecurity המתמשך יוסיף סיכונים מונומנטליים לעתיד האנושות ואת המערכת האקולוגית האנושית ב CGS.

אמנם נראה כי מערכות נשק אוטונומיות נמצאות כאן כדי להישאר, אך השאלה שכל אחד מאיתנו צריך לענות עליה היא הכוונה הביטחונית המלאכותית ולקבוע את האסטרטגיה שלנו להישרדות ולביטחון האנושי, או שמא נצטרך?

מתוך הכרה במציאות המתפתחת, יזמה קבוצת הסיכון את הדיון הנחוץ ביותר על מערכות נשק אוטונומיות עם מרקוס וגנר, מחבר לאור ופרופסור חבר למשפטים באוניברסיטת וולונגונג שבסיסה באוסטרליה.

גילוי: קבוצת סיכונים LLC היא החברה שלי

קבוצת הסיכון דן במערכת נשק אוטונומית ומשפט עם מרקוס וגנר, מחבר שפורסם ופרופסור חבר למשפטים באוניברסיטת וולונגונג שבסיסה באוסטרליה.

מה הלאה?

כמו מדינות בנפרד וקולקטיבית להאיץ את מאמציהם כדי להשיג יתרון תחרותי במדע וטכנולוגיה, נשק נוסף של AI הוא בלתי נמנע. כתוצאה מכך, המיקום של ה- AWS ישנה את המשמעות האמיתית להיות אנושי ורצון בתנאים ללא ודאות & nbsp; לשנות את יסודות הביטחון והעתיד של האנושות ושלום.

חשוב להבין ולהעריך אם לא ניתן למנוע את מירוץ החימוש האוטונומי, מה יכול להשתבש. זה הזמן להכיר בעובדה פשוט כי הטכנולוגיה עשויה לאפשר את הפיתוח המוצלח של AWS זה לא אומר שאנחנו צריכים. זה אולי לא האינטרס של האנושות לנשק את הבינה המלאכותית! הגיע הזמן להשהות.

">

מציאות עליית מערכות נשק אוטונומיותפיקדון משופרת על ידי CogWorld

מבוא

הפיתוח הטכנולוגי הפך למרוץ עכברים. בתחרות להוביל את מרוץ הטכנולוגיה המתפתחת ואת שדה הקרב הלוחמה עתידני, בינה מלאכותית (AI) הופך במהירות למרכז של כוח משחק העולמי. כפי שניתן לראות על פני מדינות רבות, הפיתוח של מערכת נשק אוטונומית (AWS) מתקדמת במהירות, ועלייה זו בנשק של הבינה המלאכותית הפכה, ככל הנראה, ליציבות מאוד. זה מביא אתגרים ביטחוניים מורכבים לא רק מקבלי ההחלטות של כל עם, אלא גם לעתיד האנושות.

המציאות כיום היא שהאינטליגנציה המלאכותית מובילה אותנו אל שדה קרב אלגוריתמי חדש שאין לו גבולות או גבולות, יכול או לא יכול להיות מעורב בבני אדם, ולא ניתן יהיה להבין ואולי לשלוט על המערכת האקולוגית האנושית במרחב הקיברנטי, החלל והחלל (CGS). כתוצאה מכך, עצם הרעיון של חימוש בינה מלאכותית, שבו מערכת נשק, שפעם הופעלה על ידי CGS, יכולה לבחור ולעסוק במטרות אנושיות ולא אנושיות ללא התערבות נוספת של מעצב או מפעיל אנושי, היא גרימת פחד גדול.

המחשבה על כל מכונה אינטליגנטית או אינטליגנציה ממוחשבת תהיה בעלת היכולת לבצע כל משימה לוחמתית צפויה ללא כל מעורבות והתערבות אנושית – תוך שימוש רק באינטראקציה של החיישנים המשולבים שלה, בתכנות המחשבים ואלגוריתמים בסביבת האדם ובמערכת האקולוגית – להפוך למציאות כי לא ניתן להתעלם יותר.

אימוץ בינה מלאכותית

כמו AI, למידה מכונה למידה עמוקה מתפתחת עוד ועוברת מן הרעיון כדי מסחור, האצה מהירה כוח מחשוב, זיכרון, נתונים גדולים ותקשורת במהירות גבוהה היא לא רק יצירת חדשנות, השקעה וטירוף היישום, אבל הוא גם להגביר את החיפוש עבור שבבי AI. זה התקדמות מהירה מתמשכת ופיתוח מעידים על כך שהאינטליגנציה המלאכותית נמצאת בדרכה לחולל מהפכה במלחמות, וכי מדינות ללא ספק ימשיכו לפתח את מערכת הנשק האוטומטי שתאפשר AI.

כאשר מדינות בנפרד או ביחד להאיץ את מאמציהן כדי להשיג יתרון תחרותי במדע וטכנולוגיה, נשק נוסף של AI הוא בלתי נמנע. לפיכך, יש צורך לדמיין כיצד נראית מלחמה אלגוריתמית של מחר, משום שבניית מערכות נשק אוטונומיות היא דבר אחד, אך השימוש בהן בלוחמה אלגוריתמית עם עמים אחרים ונגד בני אדם אחרים הוא דבר אחר.

כמו דוחות כבר מתעוררים של מערכות אלגוריתמיות מורכבות התומכות בהיבטים רבים יותר של הלחימה על פני CGS, האמת היא שהסחורה של AI היא מציאות כעת. כפי שניתן לראות במרחב הקיברנטי, לוחמה אוטומטית (Cyberwarfare) יש כבר החלה – איפה מישהו וכולם מטרה. אז, מה הלאה, גיאו לוחמה ומרחב לוחמה? ומי, ומה יהיה היעד?

ההתפתחות המהירה של הנשק AI ניכרת על פני הלוח: ניווט ושימוש בים ללא טייס, כלי טיס ואוויר, תוך הפקת אומדני נזק, פריסת "טילי" אש ושכחה " ושימוש במערכות נייחות כדי להפוך כל דבר ממערכות כוח אדם ותחזוקת ציוד לפריסה – מל"טים, רובוטים ועוד הם כולם דוגמאות. לכן, כאשר האלגוריתמים תומכים בהיבטים רבים יותר ויותר של המלחמה, היא מביאה אותנו לשאלה חשובה: מה מותר להשתמש ב- AI במלחמת יום ומחר, מוגבל ומוגבל?

בעוד מערכות נשק אוטונומיות מאמינים כי הן מעניקות הזדמנויות להקטנת עלויות התפעול של מערכת הנשק – במיוחד באמצעות שימוש יעיל יותר בכוח אדם – ומן הסתם יאפשרו למערכות נשק להשיג מהירות, דיוק, התמדה, דיוק, שדה הקרב, הצורך להבין ולהעריך את הבעיות הטכנולוגיות, המשפטיות, הכלכליות, החברתיות והביטחוניות עודנו.

תפקיד מתכנתים ותכנות

בין האתגרים הביטחוניים המורכבים הללו לבין הים של הבלתי ידועים שמגיעים אלינו, מה שנשאר מהותי לביטחון ולביטחון של המין האנושי הוא תפקידם של מתכנתים ותכנות יחד עם שלמות שבבי המוליכים למחצה. הסיבה מאחורי זה היא מתכנתים יכולים להגדיר ולקבוע את אופי AWS (לפחות בהתחלה) עד AI מתחיל לתכנת את עצמו.

עם זאת, אם וכאשר מתכנת אשר בכוונה או בטעות תוכניות נשק אוטונומי לפעול תוך הפרה של המשפט ההומניטארי הבינלאומי הנוכחי והעתיד (IHL), איך אנשים ישלוט נשק של AI? יתר על כן, מכיוון ש- AWS מתמקדת בתוכנה, היכן מוטלת האחריות לטעויות ולמניפולציה של תכנון ושימוש במערכות AWS? זה מביא אותנו ללב השאלה – אם וכאשר מערכת אוטונומית הורגת, מי אחראי על ההרג, בלי לשים לב אם זה מוצדק או לא?

Cyber- אבטחה אתגרים

בקיצור, אלגוריתמים אינם מוגנים בשום אופן – וגם אינם חסינים מפני באגים, תוכנות זדוניות, הטיה ומניפולציה. ומכיוון למידה מכונה משתמש במכונות כדי להכשיר מכונות אחרות, מה קורה אם יש תוכנות זדוניות או מניפולציה של הנתונים הכשרה? בעוד שהסיכונים הביטחוניים נמצאים בכל מקום, ההתקנים המחוברים מגבירים את יכולתם של הפגיעות של cybersecurity ממיקומים מרוחקים ובגלל שהקוד אטום, האבטחה מורכבת ביותר. אז, כאשר AI הולך למלחמה עם AI אחרים (ללא קשר אם זה עבור אבטחה סייבר, אבטחה גיאוגרפית, או ביטחון שטח), אתגרים cybersecurity המתמשך יוסיף סיכונים מונומנטליים לעתיד האנושות ואת המערכת האקולוגית האנושית ב CGS.

אמנם נראה כי מערכות נשק אוטונומיות נמצאות כאן כדי להישאר, אך השאלה שכל אחד מאיתנו צריך לענות עליה היא הכוונה הביטחונית המלאכותית ולקבוע את האסטרטגיה שלנו להישרדות ולביטחון האנושי, או שמא נצטרך?

מתוך הכרה במציאות המתפתחת, יזמה קבוצת הסיכון את הדיון הנחוץ ביותר על מערכות נשק אוטונומיות עם מרקוס וגנר, מחבר לאור ופרופסור חבר למשפטים באוניברסיטת וולונגונג שבסיסה באוסטרליה.

גילוי: קבוצת סיכונים LLC היא החברה שלי

קבוצת הסיכון דן במערכת נשק אוטונומית ומשפט עם מרקוס וגנר, מחבר שפורסם ופרופסור חבר למשפטים באוניברסיטת וולונגונג שבסיסה באוסטרליה.

מה הלאה?

כמו מדינות בנפרד וקולקטיבית להאיץ את מאמציהם כדי להשיג יתרון תחרותי במדע וטכנולוגיה, נשק נוסף של AI הוא בלתי נמנע. כתוצאה מכך, המיקום של AWS ישנה את המשמעות האמיתית להיות אנושי ויהיה ללא תנאי לשנות את יסודות הביטחון והעתיד של האנושות ושלום.

חשוב להבין ולהעריך אם לא ניתן למנוע את מירוץ החימוש האוטונומי, מה יכול להשתבש. זה הזמן להכיר בעובדה פשוט כי הטכנולוגיה עשויה לאפשר את הפיתוח המוצלח של AWS זה לא אומר שאנחנו צריכים. זה אולי לא האינטרס של האנושות לנשק את הבינה המלאכותית! הגיע הזמן להשהות.