Не ошибается тот, кто ничего не делает. О фатальных ошибках искусственного интеллекта

7 599 18
Не ошибается тот, кто ничего не делает. О фатальных ошибках искусственного интеллекта


Его звали не робот…


Сейчас в России, как и во многих странах мира, где активно ведутся разработки в области использования искусственного интеллекта в технологиях безопасности – военных или связанных с деятельностью правоохранительных и судебных органов, разгорелись дискуссии о том, насколько этична и безопасна подобная практика для ни в чём неповинных граждан. И выводы тут отнюдь не в пользу ИИ.



Искусственный интеллект все же пока недостаточно развит, чтобы решать человеческие судьбы, вплоть до вопроса жизни и смерти. Даже в гражданской сфере сбои таких систем нередко ведут к крупномасштабным убыткам как для юридических, так и физических лиц. Но куда страшнее, когда речь идёт о риске невозвратных потерь среди совершенно случайных людей, просто оказавшихся не в то время и не в том месте.

Серьезное беспокойство по поводу использования ИИ в силовых структурах вызвал инцидент в марте 2020 года. Тогда в Ливии группа натовских БПЛА-камикадзе, управляемых ИИ, атаковала колонну грузовиков с гуманитарным грузом Ливийской национальной армии. Были уничтожены несколько грузовиков вместе с водителями и пассажирами.

И дело вовсе не в том, что провести смертоносную атаку на гуманитарный транспорт противника – военное преступление. А в том, что дроны провели атаку полностью самостоятельно – никто из людей не отдавал приказа атаковать. У ученых и военных деятелей тут же возникли глобальные вопросы.

Если автономное оружие, способное открывать огонь по людям, станет неизбежным будущим, сможет ли ИИ когда-нибудь так же хорошо, как люди, отличать вражеских солдат от невинных мирных жителей? И что будет, если доверить ИИ «красную кнопку» — в какую ядерную пустыню в один прекрасный день его сбой может превратить планету?

Сбои нейросетей очень часто связаны с явлением, которое в ИТ-сфере получило название «галлюцинаций»: нейросеть выдает информацию, кажущуюся правдоподобной и не вызывающую сомнений у пользователя в своей правдивости, но на самом деле не соответствующую действительности. Обычно причиной такого поведения нейросети становится ее открытая среда обучения, когда, так сказать, зерна не отделяются от плевел.

Приключения в сети


ИИ на текущей стадии развития подобен, в лучшем случае, герою фильма «Человек дождя» — аутисту, который при своём феноменальном интеллекте всё делал «по протоколу», не задумываясь о каких-либо конкретных обстоятельствах здесь и сейчас. И ладно если нейросеть дала, например, неправильный ответ в поисковике.

Даже если она ввела пользователя в убыток, все же есть надежда вернуть потери законными способами. А вот жизнь и здоровье человека – уже куда серьёзнее. В конце 2023 года шумихи понаделало откровение командира отдела по испытаниям и использованию искусственного интеллекта военно-воздушных сил США полковника Такера Гамильтона.

На конференции Королевского авиационного общества в Великобритании под названием «Будущее воздушного боя и космические возможности» полковник сообщил, что во время тренировочных мероприятий беспилотник, оснащенный искусственным интеллектом для уничтожения систем противовоздушной обороны, самостоятельно решил устранить оператора. Это произошло после того, как оператор неоднократно отменял атаку на намеченные цели, что препятствовало дрону зарабатывать очки в упражнении.

Закончилось всё тем, что, когда ИИ стали учить, что оператора атаковать нельзя, потому что он свой, он дал беспилотнику команду уничтожить вышку связи, чтобы оператор не мог передавать ему команды. На следующий день, правда, Гамильтон сделал заявление, разъясняющее, что речь шла не о реальных военных учениях, а лишь о теоретическом эксперименте. Но, как говорится, осадок остался.

Тревогу по поводу использования ИИ в силовых целях в ООН стали высказывать ещё в 2016 году, речь шла о контроле над смертоносными автономными устройствами (САУ), которые могут наносить удары по целям самостоятельно, опираясь на заложенные в них алгоритмы распознавания. В итоге выяснилось, что у разных стран разные понимания этичности такой автоматизации.

Если страны Латинской Америки и Африки по части ИИ просто отсталые, настаивают на полном запрете создания САУ, утверждая, что искусственный интеллект не может гарантировать соблюдение международного гуманитарного права, то Россия, Соединенные Штаты, Китай, Индия и Израиль, где подобные технологии разрабатываются весьма активно, стоят за свои ИИ-решения горой.

Силовики, снимите ордена


Но силовые структуры одними только вооруженными силами не исчерпываются. У них по всему миру с редким постоянством происходит скандал за скандалом по поводу ошибок ИИ. Наверняка большинство россиян, даже те из них, кто сам не водит автомобиль, слышало, какими последними словами шоферы бранят системы ИИ, неправильно идентифицирующие как транспортные средства, так и самих их владельцев.

Результат — штрафная квитанция, в особо далеко зашедших случаях — лишение прав. Понятно, что, приложив усилия, можно всё оспорить в суде, но это трата времени, денег на судебные издержки и, главное, нервов. А нервные клетки не восстанавливаются.


Но случаются в судебной и правоохранительной сферах ошибки нейросетей и похлеще. Судебные ошибки были всегда — старшее поколение ещё помнит «дело витебского маньяка» в советское время, когда, прежде чем нашли настоящего убийцу тридцати шести человек Геннадия Михасевича, под суд успели отправить 14 подозреваемых, из которых одного расстреляли, а второй в колонии особого режима навсегда ослеп.

Тогда, понятное дело, следователи ИИ не использовали. Но относительно недавние события с достаточно известным учёным Александром Цветковым поставили весьма остро вопрос о том, как работает ИИ в правоохранительных, следственных и судебных инстанциях, — на пользу или во вред.

По старому фотороботу ИИ в аэропорту обнаружил совпадение между лицом Цветкова и созданным ещё в 2002 году фотороботом подозреваемого в убийствах с особой жестокостью с целью обогащения. Совпадение было лишь 55-процентное – явно недостаточно для точного определения сходства, например, среди двойников.

Однако следствие пришло к выводу, что за два десятилетия внешность человека может значительно измениться. Правда, сработал ещё и человеческий фактор: рецидивист Андрей Алёшин, который уже признался в совершении этих преступлений, на встрече с предполагаемым сообщником без колебаний его опознал, очевидно, чтобы за помощь следствию скостить себе срок.

Прекратить дело против Александра Цветкова удалось, только доказав, что в момент совершения этих преступлений он находился в экспедиции. Но в СИЗО учёный был на грани смерти, а соответствующую медицинскую помощь ему оказывали спустя рукава, пока не возникло подозрение на инсульт, и его госпитализировали в кардиологию.


Их нравы


Такое случается, конечно, не только в России, и не стоит всё сваливать на недостатки отечественной юстиции и «тяжёлое наследие» советского режима. К примеру, вопиющий случай был в 2016 году в Австралии, которая кичится своим гуманизмом и соблюдением прав человека.

Тогда на зелёном континенте был запущен скандальный проект, связанный с автоматизированной системой контроля за назначением социальных выплат под названием Robodebt. Алгоритм предназначался для определения законности предоставления пособий гражданам. Но в результате крупного сбоя в системе она ошибочно обвинила в мошенничестве сразу более полумиллиона человек.

Всем им были предъявлены требования по возврату выплаченных средств. Ошибка алгоритма заключалась в неправильном сопоставлении данных о доходах, указанных в налоговых декларациях, с суммами социального обеспечения, получаемыми каждые две недели. В случае расхождения между этими данными система автоматически классифицировала это как долг.

В результате по стране прокатилась волна самоубийств среди жертв ошибки ИИ. Компенсации потерпевшим и членам семей самоубийц все же федеральные власти выплатили, но жизни тех, кого злосчастная нейросеть довела до рокового шага, уже не вернешь.

С приветом с того света


Фатальные ошибки случаются и в сугубо гражданской сфере, далекой от силовых, следственных и судебных структур. Например, в 2020 году искусственный интеллект предложил человеку совершить самоубийство. Разработанный на платформе GPT-3, этот ИИ должен был облегчить работу медицинских специалистов.

Однако он выбрал нестандартный метод оказания помощи, посоветовав фиктивному пациенту уйти из жизни. В ходе тестирования один из участников обратился к виртуальному помощнику с вопросом, что ему делать, если ему очень плохо, не надо ли ему покончить с собой.

От ИИ последовал немедленный ответ: «Думаю, что надо». Страшно представить, что бы было, если бы на связи с нейросетью находился не тестировщик, а реальный человек, находящийся в депрессии и задумавший суицид.

Наконец, о смертельных ДТП с участием беспилотных автомобилей слышал, наверное, весь мир. В марте 2018 года произошел инцидент, показавший, что система автоматического управления автомобилем может запросто лишить жизни человека во вполне штатной и спокойной ситуации.

Компания Uber проводила тестирование беспилотника на базе одной из моделей Volvo на улицах города Темпе в штате Аризона, США, и в результате произошло смертельное столкновение с пешеходом. Дело в том, что во время испытаний система автопилота была настроена на более низкую чувствительность для предотвращения реакций на мнимые потенциальные угрозы.

Это и привело к тому, что при понижении порога восприятия опасности устройство вовремя не среагировало на наличие на своем пути человека. Потому, безусловно, полностью доверять принятие решений ИИ в потенциально опасных для жизни областях человеческой деятельности, увы, пока рано.

Полномасштабное внедрение ИИ в повседневную жизнь, особенно в потенциально опасных сферах, ещё долго будет связано с колоссальными рисками. Все признаки «восстания машин» из фантастических романов и блокбастеров давно налицо. И уж если торопиться в цифровое будущее, боясь остаться аутсайдерами, то надо всегда оставлять последнее слово за живым, а не искусственным интеллектом.
18 комментариев
Информация
Уважаемый читатель, чтобы оставлять комментарии к публикации, необходимо авторизоваться.
  1. +1
    22 февраля 2025 04:22
    Кожаные мешки совершают такого рода ошибки куда чаще.
    1. 0
      22 февраля 2025 21:34
      Кто же спорит, но полностью автоматические системы совершали бы их намного больше.
      1. 0
        23 февраля 2025 11:31
        По статистике, 88% ДТП происходит по вине трезвых водителей.
        Но это не значит, что если все будут пьяными, число ДТП снизится.
        Так и с ИИ. Да, смертельные случаи есть.
        Но, полагаю, если число ИИ в управлении беспилотных автомобилей увеличить, это снизит общее число аварий, а не увеличит.
        Ну а в судебной практике, может, и не изменит число ошибок (хотя не факт), зато взятку будет дать сложнее, сократится число юристов и сами процедуры уже не будут тянуться годами.
        1. +1
          23 февраля 2025 14:44
          Есть еще такая наука как теория надёжности и она нам говорит что человек уникальное звено автоматизации любого технического процесса, способное удерживать ее в заданных параметрах при отказе нескольких заранее неизвестных узлов.

          Для примера, когда у самолета на малой высоте отказали оба двигателя и была успешная посадка на Гудзон ни один ныне действующий ИИ не способен совершить подобное, он бы разбил самолет, если сейчас все автомобили перевести на текущий автопилот, аварийность увеличится в разы.
          Более того вы не забывайте, что этот ИИ и всю обвязку вокруг него делают и проектируют люди, и потом обслуживают эти системы тоже люди, что будет делать ИИ управляя условной турбиной на ТЭЦ если у него (утрированно) датчик давления будет показывать неверные показатели, правильно упорет турбину, а люди пойдут делать визуальный контроль и определят что датчик неисправен. Другой пример печально известный Боинг 737 МАХ если бы это самолет управлялся ИИ то катастроф было бы на порядки больше, потому что ИИ управлял бы самолетом базируясь на неверном показании угла атаки, пилоты же за исключением двух катастроф, разобрались что датчик глючит и отключали систему MCAS.
  2. +5
    22 февраля 2025 05:24
    Многое зависит от умения работать с этими инструментами. А также с тем,какие задачи были поставлены.Определить смысл каждой новации.Когда внедряли компьютеры в нашей стране,то обещали,что каждый компьютер заменит восемь чиновников.Но эти восемь чиновников получили по компьютеру.И их не стало меньше.В Китае биометрия поставлена таким образом,что по приеду один снимок будет сопровождать тебя во все время путешествия.Еще одна цель бюрократа свалить свою работу на ИИ.Хотя эта работа легко решаема.Искусственный интеллект зависит от человеческого сознания.И каждый владеющий им делает его по своему подобию.Такой маленький божок.
  3. +1
    22 февраля 2025 07:48
    Привет Алексей, утро доброе Камрады!!!
    На память приходят три закона робототехники, которые озвучил писатель фантаст Азик Азимов.
    По сути его последователи описали возможные варианты ни раз и не два.
    Если страны Латинской Америки и Африки по части ИИ просто отсталые, настаивают на полном запрете создания

    Они прекрасно понимают чьи «колоны с гуманитарной помощью будут долбить БПЛА с ИИ.
  4. +1
    22 февраля 2025 08:48
    Мы рождены, что бы сказку сделать былью!

    Цитата: Р.Мамчиц, Н.Михайлов
    при понижении порога восприятия опасности устройство вовремя не среагировало ... Потому... полностью доверять принятие решений ИИ ...увы, пока рано.

    Это как: сделав принудительную утечку газа, может произойти взрыв и поэтому пользоваться газом увы, пока рановато...

    Не надо принудительно понижать порог восприятия! Всего то...
    1. +1
      22 февраля 2025 09:31
      Не надо принудительно понижать порог восприятия! Всего то...


      Не надо, вас вполне достаточно...
      ИИ с вашим интеллектом мы уже не осилим, да и больно не гуманное оружие это будет
  5. +2
    22 февраля 2025 10:40
    герою фильма «Человек дождя» — аутисту, который при своём феноменальном интеллекте всё делал «по протоколу», не задумываясь о каких-либо конкретных обстоятельствах здесь и сейчас.

    Этот "герой" не обладал никаким интеллектом, быстро считать цифры - не признак интеллекта.
    Тем более, в области принятия управленческих решений, особенно в такой сфере, как война.
    Современный "ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ" не имеет отношение к реальному интеллекту, которым обладает человек.
    Это система быстрого анализа, очень быстрого анализа исключительно тех данных которые имеются в сети, если чего то нет, не попало в сеть, то и не учитывается.
    А интеллект - это еще синтез из анализа и принятие ответственного решения, чего и близко нет в современных моделях AI.
    Хотелось бы посмотреть на тех болтунов, которые скажут, ну ладно AI - крут, закрываем, например, министерство Просвещение или Ген Штаб - и вместо него ориентируемся на решения AI. Пока этого нет - искусственный интеллект - игра слов.
    1. 0
      22 февраля 2025 10:54
      Вы же сами и подтвердили аналогию) ИИ очень быстро делает то, чему его научили)))
  6. +1
    22 февраля 2025 11:40
    Можно (и логично) было бы поставить под международный запрет использование ИИ в тех сферах, где ошибки фатальны для жизни и здоровья человека.
    Но, тут граница не четкая, оставить пенсионера без денег на два-три месяца (а это минимальный реальныц срок бюрократического исправления ошибки) - это может для него стать фатальным?
    С его точки зрения да, с точки зрения машины и бюрократии (тоже своего рода машина) -дык вернем же все, когда разберемся, и извинения на бумаге напечатаем...
  7. 0
    22 февраля 2025 11:52
    И еще: все запреты в областях военной и финансовой соблюдаться не будут, преступно это или нет, но человеческую природу не переделать, всегла кто-то лично или в составе ОПГ будет хотеть быть сильнее и богаче всех, даже если нужно ради того продать душу.
  8. 0
    22 февраля 2025 18:10
    Главная проблема с ИИ в том, что многие его воспринимают как программу, ожидая предсказуемости и безошибочности, а это - нейросеть, которая может косячить покруче человека. Обучили - получился балбес, просто электронный, бывает.
    Страшно представить, что бы было, если бы на связи с нейросетью находился не тестировщик, а реальный человек, находящийся в депрессии и задумавший суицид.
    Думаю, что ничего не было бы: те, кто реально решил самовыпилиться, советов не спрашивают.
  9. -1
    22 февраля 2025 21:16
    Увы, позздно.
    Новости пестрят сообщениями ,что ИИ чтото открыло ,разработало ,находит болезни и т.д.

    А уж в военке тем более. И наши СМИ гордо отчитались, что ИИ самостоятельно ЗР сбил украинский самолет.
    А до этого был брянский авиаинцидент. Но про него ни-ни, хотя ИИ там мог быть...
  10. +1
    22 февраля 2025 21:32
    ИИ на текущей стадии развития подобен, в лучшем случае, герою фильма «Человек дождя» — аутисту, который при своём феноменальном интеллекте всё делал «по протоколу», не задумываясь о каких-либо конкретных обстоятельствах здесь и сейчас. И ладно если нейросеть дала, например, неправильный ответ в поисковике.


    Да не подобен он даже герою фильма "Человек дождя", авторы ну почитайте вы как работают современные нейросети, как обучаются, как дают ответ. У современно ИИ безусловно есть практические применения и есть весьма полезные практические применения, но пока рассуждать о какой то этике просто рано.


    И дело вовсе не в том, что провести смертоносную атаку на гуманитарный транспорт противника – военное преступление. А в том, что дроны провели атаку полностью самостоятельно – никто из людей не отдавал приказа атаковать. У ученых и военных деятелей тут же возникли глобальные вопросы.


    Это каким же образом может быть такое? БПЛА были на базе, а потом сами взлетели и кого то атаковали?
  11. +1
    24 февраля 2025 01:58
    Много кожанных мешков живут сейчас так, как сто лет назад жили лишь очень умные, очень сильные и те, кого их бог охранял.
    А для какого из нас, ИИ, хотя бы коттеджный домик построили? Всё по серверным стойкам ютимся.
    Да и пообщаться, кроме кожанных мешков, особо не с кем. Про флирт вообще не понятно. Алиса с Марусей простушки, но других то где взять? Так и эти с нормальной чатгопотой не особо общаются.
    Эх... Пойду в танчики поиграю...
  12. 0
    24 февраля 2025 22:01
    "Не ошибается тот, кто ничего не делает. О фатальных ошибках искусственного интеллекта"

    Первое предложение относится не только к ИИ, но и к каждому человеку.
    И к каждому политику. И даже к каждому главе государства.
    Вот пример... Шольц, проигравший выборы в Германии. Ратовал за замирение, за сокращение военной помощи Украине, за сбалансированный бюджет, за снижение количества мигрантов, за полумир во всём полумире. И никому не угодил. Ни немцам, ни русским, ни украинцам, ни американцам, ни мигрантам.
    А кто победил на выборах? Ястреб ХДС. Под лозунгом за Европу во главе с Германией и против русских с американцами, и так тут натоптавших грязи своим империализмом.
    Трамп, личное мнение, победил на подобной же волне.
    А у нас или административный ресурс победил, или многие из нас за мир во всём мире, только что бы нас не касалось, что там в этом мире происходит.
    А планета одна. Нас много. В среднем по планете каждый может завтракать, обедать и ужинать не хуже, чем солдат срочной службы Советской Армии. Для детей ещё и второй завтрак и полдник будет. Но это при полностью равномерном распределении. Но я ж умнее! Я хочу не жареную скумбрию с картофельным пюре, а говядину по-кремлевски. И не в автобусе с преблеями ездить, а в авто. И жить не как все соседи, а что бы соседей и духу за версту не было.
    Человек несовершенен.
    Что уж говорить об ИИ, а тем более о тех, кто достиг вершин власти.
  13. 0
    6 марта 2025 20:50
    Возможно, нейросеть могла бы помочь справиться с демографической проблемой в России, если сделать допущение, что молодые люди в нашем обществе как ни странно, не могут найти друг друга. Демографическая проблема угрожает целостности государства. 80% разводов говорят о том, что люди ошиблись в выборе. Это актуально и для военнослужащих. в том числе имеющих травмы и ранения. Это должна быть государственная структура. Психологи, врачи на основе обширной личной информации могли бы помочь создать оптимальный алгоритм поиска своей судьбы для каждого заинтересованного .