Развитие информационных технологий и искусственного интеллекта (ИИ) привело к значительным изменениям в обществе, как положительным, так и отрицательным. В этом посте мы обсудим некоторые текущие и будущие проблемы, связанные с развитием этих технологий.
Вытеснение рабочих мест наверно, самое первое, что в этой связи приходит в голову. С ростом использования ИИ и автоматизации многие рабочие места рискуют быть заменены роботами и системами с ИИ. Это может привести к тому, что значительное число людей потеряет свою работу. Особенно те, кто занят сейчас на низкоквалифицированной работе и в рутинных операциях.
Реальные примеры перемещения рабочих мест, вызванного искусственным интеллектом и автоматизацией уже у всех на виду:
Автоматизированные центры обработки заказов компании Amazon: всё это время Amazon инвестировала значительные средства в автоматизацию и робототехнику для повышения эффективности своих центров выполнения заказов. В результате компания заменила многих работников автоматизированными системами. В 2019 году Amazon объявила о планах инвестировать 700 миллионов долларов в переподготовку трети своего персонала в США для обучения навыкам работы на рабочих местах, пользующихся высоким спросом.
Автономные транспортные средства. Развитие автономных транспортных средств может привести к вытеснению миллионов водителей грузовиков, такси и курьеров. Такие компании, как Uber, Waymo и Tesla, инвестируют значительные средства в технологии автономного вождения, что может привести к значительному сокращению рабочих мест в транспортной отрасли.
Чатботы и виртуальные помощники. Многие рабочие места в сфере обслуживания клиентов рискуют быть заменены чат-ботами и виртуальными помощниками. Такие компании, как Bank of America, Capital One и H&R Block, уже используют чат-ботов для помощи клиентам с обычными вопросами и транзакциями.
Производственные роботы и автоматизированные системы. Производство стало одним из первых площадок автоматизации, где роботы используются на многих этапах производственного процесса. Например, компания Foxconn, крупный поставщик продукции Apple, в уже далёком 2016 году заменила 60 000 человек роботами. Нашли ли эти 60 000 человек, многие из которых были заточены на узкоспециализированную функцию на конвейерном производсте, себе новую работу после этого, данных нет.
Рабочие места «белых воротничков» также под угрозой. ИИ и автоматизация не ограничится сокращением рабочих мест только для «синих воротничков». На самом деле, многие рабочие места «белых воротничков», такие как ввод данных, параюридическая работа и бухгалтерский учет, находятся под угрозой полной автоматизации.
Как пример, юридическая исследовательская компания LexisNexis разработала инструмент на базе ИИ, который может быстро просматривать объемные юридические документы и извлекать необходимую информацию, что может заменить некоторые виды параюридической работы, выполняемой людьми.
Вышеприведённые примеры вполне наглядно показывают, как развитие ИИ и автоматизации приведёт к значительному замещению рабочих мест, особенно в тех отраслях, где рутинные задачи легко поддаются автоматизации.
Хотя эти технологии способны повысить эффективность бизнеса и производительность труда, важно учитывать их потенциальное влияние на занятость людей и заранее разрабатывать стратегии по решению проблемы исчезновения рабочих мест и переподготовки работников для выполнения ими новых функций. Но уже сейчас понятно, что в будущее возьмут не всех.
Опасения по поводу конфиденциальности. Сбор и анализ персональных данных компаниями и правительствами вызывает обеспокоенность по поводу неприкосновенности частной жизни. Ставит вопросы свободы воли и свободы выбора человека в жесткую зависимость от систем снабжения его информацией и формированием картины мира, предпочтений и т.д.
Системы наблюдения с использованием ИИ и технология распознавания лиц вызывают все больше споров, так как помимо безопасности подразумевают неограниченные возможности слежки.
Безусловно, есть ещё несколько реальных примеров проблем с неприкосновенностью частной жизни, связанных с развитием информационных технологий и ИИ.
Пожалуй самый наглядный и яркий скандал с Cambridge Analytica в 2018 году широкой общественности стало известно, что политическая консалтинговая компания Cambridge Analytica получила данные миллионов пользователей Facebook без их согласия. Затем эти данные были использованы для создания высокодетализированной и направленной политической рекламы во время президентских выборов в США в 2016 году для формирования их предпочтений. Скандал показал, что компании могут собирать и использовать личные данные без ведома или согласия пользователей и использовать их в безнравственных или даже преступных целях.
С технологией распознавания лиц тоже не всё просто. Использование правоохранительными органами технологии распознавания лиц вызвало обеспокоенность по поводу неприкосновенности частной жизни и гражданских свобод. В 2019 году Американский союз гражданских свобод (англ. American Civil Liberties Union, ACLU) протестировал программное обеспечение Rekognition компании Amazon для распознавания лиц и обнаружил, что оно ложно сопоставило 28 членов Конгресса с фотороботами преступников.
Данные фитнес-трекеров. Фитнес-трекеры и приложения для здоровья собирают множество личных данных, включая частоту сердечных сокращений, режим сна и уровень активности. Такие данные, как правило, не шифруются и лежат на плохозащищенных серверах, т.о. могут становится легкой добычей хакеров или питательной базой для разведки из открытых источников.
Наиболее пряничный случай произошёл с незабвенными амерами в одной стране, видимо, подлежащей безусловной демократизации. В 2018 году стало известно, что фитнес-приложение Strava непреднамеренно раскрыло местоположение и распорядок дня американских военнослужащих через свои тепловые карты. Это вызвало многочисленные вопросы по поводу безопасности личных данных и возможности использования конфиденциальной информации против отдельных лиц.
Незадачливые янки брали с собой на тренировки любимые фитнес трекеры. Появление одновременно нескольких сотен треков, движущихся по кругу в пустыне с определенной периодичностью вызвало большой интерес. Так без спутниковой съемки, сложной аналитики и агентов 007 была раскрыта ещё одна секретная военная база США.
Устройства «умного дома» или твой дом — не твоя крепость. Устройства «умного дома», такие как Amazon Alexa и Google Home, способны собирать огромное количество персональных данных, включая аудиозаписи разговоров. В 2019 году сообщалось, что сотрудники Amazon прослушивали и расшифровывали записи Alexa, что вызвало обеспокоенность по поводу конфиденциальности и безопасности личных данных.
Кража данных. Хакерские атаки или кража данных, при которых личные данные взламываются или утекают из баз данных компаний, могут иметь серьезные последствия для конфиденциальности. В 2017 году Equifax, одно из крупнейших в США агентств кредитных историй, пострадало от утечки данных, в результате которой была раскрыта личная информация 143 миллионов человек. Среди них были имена, даты рождения, номера социального страхования и другие конфиденциальные данные.
Эти примеры демонстрируют, как развитие информационных технологий и искусственного интеллекта может вызвать серьезные опасения за неприкосновенность частной жизни, особенно когда персональные данные собираются, анализируются или используются без ведома или согласия людей. Для компаний и правительств важно установить надежные средства защиты частной жизни и нормативные акты, обеспечивающие этичное и прозрачное использование персональных данных.
Предвзятость алгоритмов: алгоритмы ИИ беспристрастны лишь настолько, насколько беспристрастны данные, на которых они обучаются. Если данные необъективны, алгоритм также будет необъективным, что приведет к дискриминационным результатам в таких областях, как прием на работу, кредитование и уголовное правосудие.
Несколько реальных примеров алгоритмической предвзятости, связанных с развитием информационных технологий и ИИ, среди которых всё та же технология распознавания лиц.
Технология распознавания лиц. В процессе использования первых алгоритмов было установлено, что алгоритмы распознавания лиц менее точно идентифицируют людей с темным цветом кожи, что вызывает опасения по поводу расовой предвзятости. В 2019 году Национальный институт стандартов и технологий (англ. The National Institute of Standards and Technology, NIST) опубликовал исследование, которое показало, что несколько коммерчески доступных алгоритмов распознавания лиц имеют более высокий процент ложных срабатываний для лиц азиатского и афроамериканского происхождения.
Объявления о вакансиях. В 2018 году стало известно, что инструменты таргетинга рекламы Facebook позволяют работодателям исключать из объявлений о работе определенные группы, например, женщин или пожилых работников. Это вызвало обеспокоенность по поводу дискриминации и предвзятости при приеме на работу.
Здравоохранение. Было установлено, что алгоритмы медицинских систем менее точно диагностируют определенные заболевания у представителей меньшинств или у определенных социальных слоев населения с низким уровнем дохода. Например, исследование, опубликованное в журнале New England Journal of Medicine, показало, что алгоритм, используемый больницами для выявления пациентов, которым полезен дополнительный уход, с меньшей вероятностью выявлял бедных пациентов, чем людей с высоким уровнем дохода, которые при этом были одинаково больны.
Кредитный рейтинг. Алгоритмы кредитного подсчета баллов подвергаются критике за увековечивание системной предвзятости в отношении общин меньшинств. В 2018 году Министерство жилищного строительства и городского развития США подало жалобу на Facebook, утверждая, что инструменты таргетинга рекламы компании позволяют рекламодателям исключать людей на основании таких факторов, как раса и этническая принадлежность.
Правоохранительные органы. Алгоритмы, используемые правоохранительными органами для прогнозирования преступности и рецидивизма, были признаны предвзятыми по отношению к представителям меньшинств. Исследование ProPublica показало, что популярный инструмент оценки риска, используемый судьями в США, в два раза чаще ошибочно относил чернокожих обвиняемых к группе высокого риска по сравнению с белыми обвиняемыми.
Эти примеры демонстрируют, прежде всего, как развитие информационных технологий и искусственного интеллекта может привести к алгоритмической предвзятости, особенно если данные, используемые для обучения этих алгоритмов, необъективны или неполны. Важно устранить эти предубеждения и обеспечить, чтобы системы ИИ разрабатывались и внедрялись этичным и ответственным образом.
Другие проблемы, которые могут встать остро с дальнешим развитием ИИ, особенно если оставить эти области на откуп без человеческого присмотра.
Угрозы кибербезопасности. По мере того как все больше информации хранится и распространяется в Интернете, возрастает риск кибератак и утечек данных. Развитие кибератак с использованием искусственного интеллекта может сделать эти угрозы еще более серьезными.
Социальная изоляция. Использование технологий может привести к социальной изоляции, поскольку люди проводят больше времени в Интернете и меньше времени общаются с другими людьми лично. У молодежи не формируется навык общения в том возрастве, когда это необходимо.
Дезинформация и неполная информация. Распространение социальных сетей и создание заданного целевого контента с помощью искусственного интеллекта облегчает распространение дезинформации и полуправды для формирования определённых настроений, что может иметь серьезные последствия для населения, общества и государства.
Технологическая безработица. ИИ и автоматизация могут привести к технологической безработице, когда большинство рабочей силы вытесняется работами и автоматизированными системами.
Этические проблемы. Развитие ИИ вызывает серьезные этические проблемы, такие как использование автономного оружия, возможность злоупотребления ИИ авторитарными правительствами, тотальной слежки и контроля, и создание автономных систем, способных принимать решения с серьезными последствиями для всего человечества.
Преобразовательный потенциал ИИ и технологий нужно использовать грамотно и аккуратно.
В целом, развитие информационных технологий и ИИ имеет огромный потенциал для значительного преобразования общества. Однако важно знать об этих проблемах и работать над смягчением негативных последствий, одновременно используя преимущества этих технологий.
На этом список возможных трудностей и проблем, конечно, не заканчивается. Тем не менее острых вопросов, связанных с развитием информационных технологий и искусственного интеллекта довольно много.
Цифровое неравенство. Неравный доступ к технологиям и цифровым навыкам может привести к цифровому разрыву, когда определенные группы населения остаются позади в цифровую эпоху.
Зависимость и психическое здоровье. Чрезмерное использование технологий и социальных сетей может привести к зависимости и негативному влиянию на психическое здоровье, особенно у детей и подростков.
Этика и правовое регулирование ИИ. Необходимо разработать этические принципы и регулирование ИИ, чтобы обеспечить ответственное и прозрачное использование этих технологий.
Воздействие на окружающую среду. Разработка и использование технологий оказывают воздействие на окружающую среду, включая электронные отходы, повышенное энергопотребление и углеродный след центров обработки данных.
Киберзапугивание и преследование в Интернете. Социальные сети и технологии способствуют киберзапугиванию и преследованию в Интернете, что может иметь серьезные последствия для людей.
Биометрическое наблюдение. Использование биометрических данных для слежки, например, распознавание лиц, может вызвать серьезные опасения за неприкосновенность частной жизни и привести к нарушению гражданских свобод.
ИИ в медицине и системе здравоохранения. Развитие ИИ в здравоохранении вызывает этические проблемы, связанные с использованием данных пациентов, возможностью необъективного принятия решений и влиянием на работу медицинских работников.
Эти и другие вопросы только подчеркивают необходимость вдумчивого рассмотрения потенциального воздействия информационных технологий и ИИ, а также важность разработки этических рекомендаций и нормативных актов для смягчения их негативных последствий как можно заранее.