
Чиновники Пентагону повідомили News News, що голосові агенти AI з різними функціями тепер можуть направляти глобальний допит. Цей аванс вплинув на розробку та тестування американських військових агентів АІ, які використовували для сумнівів людей, які прагнуть отримати конфіденційні матеріали.
Це ситуація, яка прийшла з занепокоєнням щодо правил LAX, що дозволяє програмістам AI ухилятися від відповідальності акторів алгоритму за емоційне насильство або «без ознак» кібертури. Варто зазначити, що одного підлітка нібито вбили самогубством, а кілька інших перенесли психічні страждання – антагоністична мова може бути призначена після розмови з голосовими ботами та чатами.
Тепер, через сім років після написання про підйом допиту AI на світанку автономних роботів та необхідність додаткових угод Конвенції ООН проти катувань, адвокат з питань конфіденційності Аманда МакАллістер Новак вважає, що потреба у забороні заборон і злочинна роздратування більша.
Новак сказав, що після використання “чатів, голосових ботів та інших технологій, які підтримують мету психологічного насильства), ми повинні розглянути, чи варто мати AI-AI у військовому контексті. Новак від імені до оборонних новин.
Речник Королівського Реффу, а агентство з питань захисту США (DCSA), заявив у заяві, що голосовий агент AI AI “, безумовно, розроблений” для “mitigat”[e] Гендерні та культурні упередження, якими можуть володіти людські інтерв’ю.
Крім того, “оскільки такі системи, як програмне забезпечення для відвідувачів”, “зараз використовуються в усьому світі, включаючи державні та місцеві правоохоронні органи, ми вважаємо, що нам важливо зрозуміти функціональність таких систем”.
Прес -секретар DCSA Сінді МакГоверн додала, що розвиток технології триває, оскільки “має потенціал для підвищення національної безпеки США незалежно від інших іноземних заявок”.
Почувши обґрунтування проекту, Новак висловив стурбованість домінуванням глобальних військових можливостей AI.
Вона сказала: “Незалежно від того, наскільки уряд піклується про належну підготовку, нагляд та опіки”, кіберзлочинні організації або іноземні кіберзлочинці можуть вторгнутись та озброїти зброю для офіцерів чи цивільних людей, які мають психологічну шкоду.
“Простір в Інтернеті процвітає” і “шкодить найбільш вразливим”.
Інвестори роблять ставку на 500 мільярдів доларів, а запуск AI в Центрі обробки даних в кінцевому підсумку забезпечить економію витрат для AI та державного та приватного секторів у всьому світі. До 2030 року розмовний ринок AI у розмірі лише 13 мільярдів доларів майже в чотири мільярди до 50 мільярдів доларів, оскільки індустрія голосових поколінь з 3 мільярдів доларів до приблизно 40 мільярдів доларів до 2032 року.
Чиновники DCSA публічно писали в 2022 році, що чи можна інтерв’ю з безпекою повністю автоматизовано, залишається відкритим питанням. Чиновники зазначили, що моделювання поставило під сумнів перші результати зустрічі “заохочуючий” акцент на таких перевагах, як “довші, більш природні формати інтерв’ю”.
Рефф заявив, що агентство “не прийме жодної системи, яка першої дослідження, щоб зрозуміти її потенціал, включаючи” негативні наслідки “.
Він додав, що дослідники мали волонтери, викликають занепокоєння після кожного тесту, і ніхто не показав, що інтерв’юер голосу болить їм психологічно чи іншим чином.
Але останні експерименти щодо останніх прототипів забороняють волонтерам з психічними розладами відвідувати, а фактичні інтерв’ю з безпеки зазвичай не звільняють людей до умов психічного здоров’я, – сказав Рене Каммінгс, професор науки про дані та злочинності в Університеті Вірджинії.
Каммінгс сказав, що дослідження та тестування ніколи не можуть пояснити кожну психологічну змінну, яка може вплинути на емоційний чи когнітивний статус респондентів.
У сценарії лабораторних чи польових тестів “ви не можете когось катувати через Аватара чи робота, щоб побачити результати”, Каммінгс також є консультативною радою для ініціативи AI & Equality в Комітеті з питань етики Карнегі з питань міжнародних справ. “Нам потрібно зосередитись на більш складному розумінні впливу алгоритму на психологічні стани, емоції та мозок, оскільки ШІ має здатність впливати в режимі реального часу”.
Фільтр голосового роботового фільтра
Стенограма ЦРУ на початку 1980-х років була діалогом між програмами AI та так званими шпигунами, підкреслюючи довгостроковий інтерес до автоматизації інтелектуальної розвідки або колекції Humint.
Розробник розробив алгоритм для чатів для аналізу поведінки підозрілого привидного “Джо Хадсті” та актуальності у відповідях на відкриті запитання.
За допомогою цього аналізу чат -бот фіксує деякі підозрілі вразливості в темах, які можуть зіткнутися з початковим нервом:
AI: Що ви схильні думати, чи є мій інтерес до уряду?
HARSESTY: Якщо у вас є шанс, я думаю, ви зробите це в моїй адміністрації.
AI: Легко подумати, що я зроблю це у вашому уряді?
Впертий: Ви антидемократичні.
У 1983 році ЦРУ скасувало, що Джо Хардесті пощастило сказати: “Якби виявлення було занадто незручним, у нього буде можливість, що він не міг запропонувати йому в реальній ситуації за кордоном – він міг використовувати перемикач” Off “, щоб зупинити проблему”.
Сьогодні Бредлі Мосс, адвокат, який представляв винищувача, звинуваченого у витоках, не висміював бачення DCSA для повністю автоматизованого інтерв’ю.
Він попередив: “Повинна бути одна людина, щоб спостерігати” втілення.
Тоді інші критики знову зазначають, що люди можуть не захотіти втручатися. “Це нормально для людських наглядачів контролювати ситуацію чатів, якщо люди також не вважають, що словесні тортури – це хороша річ”. Це реальна можливість. “Герб Лін, старший науковий співробітник з кібер -політики та безпеки в Стенфордському університеті, заявив, що він провів кілька схвалень безпеки.
Незважаючи на глобальну заборону на катування та докази того, що інтерв’ю з будівництва зв’язків є більш ефективними, ніж конкуренція за сповіді, чиновники розвідки продовжують приймати нелюдське поводження серед респондентів.
Новак, адвокат з конфіденційності даних та активіст анти-нового сина, заявив, що ідея виконання сили роботи може заохотити деяких урядових підрядників встановлювати показники ефективності для голосового алгоритмів, що дозволяють знущатися.
Вона додала: “Хоча AI має величезні можливості для досягнення найкращого людського потенціалу, він також має здатність посилити людський потенціал та збільшувати ворожість”.
Батьки стверджували, що супутники VoiceBot та Chatbot пройшли навчання на вмісті на Інтернет -форумах і продемонстрували це.
Характер AI – компанія, яка забезпечує віртуальні відносини з іконами та впливовими, від користувачів до прибутку на своїх телефонах. Кожен користувач розмовляє з різними віртуальними друзями в середньому протягом двох годин на день. Роль чиновники AI заявили, що компанія зменшила ймовірність того, що користувачі зазнають сугестивного вмісту після того, як дізнаються про проблеми, і тепер попереджає їх про годинну розмову.
Новак прокоментував, що звинувачення проти персонажа АІ ілюструють здатність голосових роботів, які самостійно навчаються, посилювати непристойну поведінку в навчальних даних та почуття відповідальності за цю образливість.
У галузі національної безпеки розробники військових голосових систем AI, які можуть зловживати або залякати, діють на безпілотних землях з невеликими законами. Етична політика AI в найпотужніших країнах світу мало вказує на зменшення діалогу зловживань.
Рання американська відповідальна та етична політика ШІ в галузі національної безпеки була зосереджена на точності, конфіденційності та мінімізації расових та расових упереджень, не враховуючи психологічного впливу. Розрив у політиці розширився після того, як президент Дональд Трамп скасував багато правил із виконавчими наказами, спрямованими на прискорення інновацій приватного сектору.
Взагалі кажучи, психологічний біль часто “порно” просто твердження, оскільки “у нього немає очевидних фізичних шрамів”.
Спочатку Організація Об’єднаних Націй не стосувалася “психологічних катувань” відповідно до Конвенції 1984 року з питань протиторту. Термін не мав значення до п’яти років тому.
Звіт ООН за 2020 зараз визначає “катування”, частково через будь -яку технологію, розроблену або призначену для навмисного виклику серйозного психічного болю чи болю, “без необхідності застосовувати сильний фізичний біль або біль”.
Внизу мета психологічних катувань – це основна потреба людини. Методи допитів викликають страх; ганьба або суїцидальна ідея проти Kindle проти конфіденційності чи сексуальної доброчесності; змінити голос, збільшити дезорієнтацію та втому; підняти, а потім зрадити співчуття ізоляції; і прищеплювати безпорадність.
Жоден з договорів ООН та інших міжнародних законів не має можливості притягувати до відповідальності людини, коли стрічки алгоритмів є жорстокими каналами. Без обов’язкових правил щодо використання ШІ у військовому середовищі вона пояснила, що “погані суб’єкти заперечують, що будь -які такі катування” навмисні ” – необхідність для злочинної відповідальності, спричиненої законом до дозрівання АІ, пояснила вона.
Забігаючи наперед, Нілс Мельцер, автор звіту Організації Об’єднаних Націй 2020 року та спеціальний звіт про катування в ООН, заявив, що інтерпретації психологічних катувань повинні розвиватися паралельно з новими технологіями, такими як “штучний інтелект”, оскільки кібер -середовище забезпечує “фактично гарантує анонімність та майже повну анонімність”.
Leave a Reply