[ad_1]
Мэри Эллен Зурко вспоминает чувство разочарования. Вскоре после получения степени бакалавра в Массачусетском технологическом институте она устроилась на свою первую работу по оценке защищенных компьютерных систем для правительства США. Цель состояла в том, чтобы определить, соответствуют ли системы «Оранжевой книге», официальному правительственному руководству по кибербезопасности того времени. Были ли системы технически безопасными? Да. На практике? Не так много.
«Мы не беспокоились о том, насколько реалистичны требования безопасности к конечным пользователям, — говорит Зурко. «Идея безопасной системы была связана с технологией, и она предполагала идеальных, послушных людей».
Этот дискомфорт привел ее на путь, который определил карьеру Зурко. В 1996 году, после возвращения в Массачусетский технологический институт для получения степени магистра компьютерных наук, она опубликовала влиятельную статью, в которой ввела термин «безопасность, ориентированная на пользователя». Он превратился в отдельную область, связанную с обеспечением баланса кибербезопасности с удобством использования, иначе люди могут обойти протоколы безопасности и дать злоумышленникам возможность проникнуть в дверь. Уроки полезной безопасности теперь окружают нас, влияя на дизайн предупреждений о фишинге, когда мы посещаем небезопасный сайт, или на изобретение полосы «силы», когда мы набираем желаемый пароль.
Ныне исследователь кибербезопасности в лаборатории Линкольна Массачусетского технологического института, Зурко по-прежнему погружен в отношения людей с компьютерами. Ее внимание переключилось на технологии для противодействия операциям влияния или попыткам иностранных противников преднамеренно распространять ложную информацию (дезинформацию) в социальных сетях с намерением подорвать идеалы США.
В недавней редакционной статье, опубликованной в Безопасность и конфиденциальность IEEE, Зурко утверждает, что многие из «человеческих проблем» в полезной сфере безопасности имеют сходство с проблемами борьбы с дезинформацией. В какой-то степени перед ней стоит та же задача, что и в начале ее карьеры: убедить сверстников в том, что такие человеческие проблемы также являются проблемами кибербезопасности.
«В кибербезопасности злоумышленники используют людей как одно из средств для подрыва технической системы. Кампании по дезинформации призваны повлиять на принятие решений людьми; они своего рода максимальное использование кибертехнологий для ниспровержения людей», — говорит она. «Оба используют компьютерные технологии и людей, чтобы достичь цели. Отличается только цель».
Опережение операций влияния
Исследования по противодействию онлайн-операциям влияния еще молоды. Три года назад лаборатория Линкольна инициировала исследование по этой теме, чтобы понять ее значение для национальной безопасности. С тех пор эта область расширилась, особенно после распространения в Интернете опасных, вводящих в заблуждение заявлений о Covid-19, которые в некоторых случаях увековечены Китаем и Россией, как показало одно исследование RAND. В настоящее время Технический отдел лаборатории выделяет целевое финансирование на разработку мер противодействия операциям влияния.
«Для нас важно укрепить нашу демократию и сделать всех наших граждан устойчивыми к дезинформационным кампаниям, направленным против них международными противниками, которые стремятся нарушить наши внутренние процессы», — говорит Зурко.
Как и кибератаки, операции влияния часто проходят по многоэтапному пути, называемому цепочкой убийств, для использования предсказуемых слабых мест. Изучение и усиление этих слабых мест может помочь в операциях по борьбе с влиянием, так же как и в киберзащите. Усилия Лаборатории Линкольна направлены на разработку технологий для поддержки «ухода за источниками» или усиления ранних стадий цепочки убийств, когда злоумышленники начинают находить возможности для разногласий или вводящих в заблуждение повествований и создавать учетные записи для их усиления. Обращение к источникам помогает информировать персонал США по информационным операциям о готовящейся дезинформационной кампании.
Пара подходов в лаборатории направлена на работу с источником. Один из подходов заключается в использовании машинного обучения для изучения цифровых персонажей с целью выявления случаев, когда один и тот же человек стоит за несколькими вредоносными учетными записями. Другая область сосредоточена на создании вычислительных моделей, которые могут идентифицировать дипфейки или видео и фотографии, сгенерированные искусственным интеллектом, созданные для введения зрителей в заблуждение. Исследователи также разрабатывают инструменты для автоматического определения того, какие учетные записи оказывают наибольшее влияние на повествование. Во-первых, инструменты идентифицируют нарратив (в одной статье исследователи изучили кампанию по дезинформации против кандидата в президенты Франции Эммануэля Макрона) и собирают данные, связанные с этим нарративом, такие как ключевые слова, ретвиты и лайки. Затем они используют аналитическую технику, называемую причинно-следственным сетевым анализом, чтобы определить и ранжировать влияние конкретных учетных записей — какие учетные записи чаще всего создают посты, которые становятся вирусными?
Эти технологии используются в работе, которую Зурко ведет по разработке испытательного стенда для противодействия влиянию. Цель состоит в том, чтобы создать безопасное пространство для имитации среды социальных сетей и тестирования контртехнологий. Что наиболее важно, испытательный стенд позволит операторам-людям проверить, насколько хорошо новые технологии помогают им выполнять свою работу.
«Нашим военнослужащим по информационным операциям не хватает способа измерить воздействие. Создав испытательный стенд, мы можем использовать несколько различных технологий повторяющимся образом для увеличения показателей, которые позволят нам увидеть, действительно ли эти технологии делают операторов более эффективными в выявлении дезинформационной кампании и участников, стоящих за ней».
Это видение по-прежнему вдохновляет, поскольку команда создает тестовую среду. Имитация пользователей социальных сетей и тех, кого Зурко называет «серой ячейкой», невольных участников интернет-влияния, является одной из самых больших проблем при имитации реальных условий. Реконструкция платформ социальных сетей также является сложной задачей; каждая платформа имеет свою собственную политику в отношении дезинформации и собственные алгоритмы, влияющие на охват дезинформации. Например, Вашингтон пост сообщили, что алгоритм Facebook придавал «дополнительную ценность» новостям, которые вызвали гневную реакцию, в пять раз повышая вероятность их появления в новостной ленте пользователя — и такой контент с непропорционально высокой вероятностью будет содержать дезинформацию. Эту часто скрытую динамику важно воспроизвести на испытательном стенде как для изучения распространения фейковых новостей, так и для понимания влияния вмешательств.
Полносистемный подход
Помимо создания испытательного стенда для объединения новых идей, Зурко также выступает за единое пространство, которое исследователи дезинформации могут назвать своим. Такое пространство позволит исследователям в области социологии, психологии, политики и права собраться вместе и поделиться сквозными аспектами своей работы вместе с экспертами по кибербезопасности. По словам Зурко, лучшая защита от дезинформации потребует такого разнообразия знаний и «полного системного подхода, ориентированного как на человека, так и на техническую защиту».
Хотя этого пространства еще не существует, оно, вероятно, появится на горизонте, поскольку поле продолжает расти. Исследования операций влияния набирают популярность в мире кибербезопасности. «Совсем недавно ведущие конференции начали включать исследования дезинформации в свои заявки, что является реальным индикатором того, куда идут дела», — говорит Зурко. «Но некоторые люди все еще придерживаются старой школы идеи о том, что неряшливые люди не имеют ничего общего с кибербезопасностью».
Несмотря на эти чувства, Зурко по-прежнему доверяет своим ранним наблюдениям в качестве исследователя: эффективность кибертехнологий зависит от того, как люди их используют. Она хочет продолжать разрабатывать технологии и подходить к решению проблем таким образом, чтобы люди были в центре внимания. «С самого начала мне нравилось в кибербезопасности то, что это отчасти математическая строгость и отчасти сидение у костра, рассказывание историй и обучение друг у друга», — размышляет Зурко. Дезинформация черпает свою силу из способности людей влиять друг на друга; эта способность также может быть самой мощной защитой, которая у нас есть.
Узнать, как выглядит Африканский еж можно на baback.club.
[ad_2]