четверг, 22 августа 2024 г.

14 Риски и опасности искусственного интеллекта (ИИ) ИИ провозгласили революционным и меняющим мир, но не без недостатков. Майк Томас НаписаноМайк Томас

 По мере того, как ИИ становится все более совершенным и распространенным, голоса предостерегают от потенциальных опасностей искусственный интеллект расти громче.

“Эти вещи могут стать более разумными, чем мы, и мы можем решить взять на себя управление, и нам нужно беспокоиться сейчас о том, как мы предотвратим это,” сказал Джеффри Хинтон, известный как “Крестный отец AI” за свою основополагающую работу машинное обучение и нейронная сеть алгоритмы. В 2023 году Хинтон покинул свою должность в Google, чтобы иметь возможность “расскажите об опасностях ИИ, ” даже отмечает его часть сожалеет о деле всей своей жизни.

Известный ученый-компьютерщик не одинок в своих опасениях.

Основатель Tesla и SpaceX Илон Маск вместе с более чем 1000 другими технологическими лидерами призвал в открытом письме 2023 года чтобы поставить паузу о крупных экспериментах с искусственным интеллектом, ссылаясь на то, что технология может “представлять глубокие риски для общества и человечества.”

Опасности искусственного интеллекта

  • Потеря работы, вызванная автоматизацией
  • Дипфейки
  • Нарушения конфиденциальности
  • Алгоритмическая предвзятость, вызванная плохими данными
  • Социально-экономическое неравенство
  • Волатильность рынка
  • Автоматизация оружия
  • Неконтролируемый самосознающий ИИ

Будь то возрастающая автоматизация тех или иных рабочих мест, пол и расово предвзятые алгоритмы или автономное оружие, действующее без человеческого контроля (и это лишь некоторые из них), вызывают беспокойство на ряде фронтов. И мы еще на самых ранних стадиях того, на что ИИ реально способен.

 

14 Опасности ИИ

Вопросы о том, кто и для каких целей разрабатывает ИИ, делают тем более существенным понимание его потенциальных минусов. Ниже мы более подробно рассмотрим возможные опасности искусственного интеллекта и изучим, как управлять его рисками.

Опасен ли ИИ?

The tech community has long debated the threats posed by artificial intelligence. Automation of jobs, the spread of fake news and a dangerous arms race of AI-powered weaponry have been mentioned as some of the biggest dangers posed by AI.

1. Отсутствие прозрачности и объяснимости ИИ 

ИИ и глубокое обучение модели могут быть трудными для понимания, даже для них которые работают напрямую с технологией. Это приводит к отсутствию прозрачности того, как и почему ИИ приходит к своим выводам, что приводит к отсутствию объяснения того, какие данные используют алгоритмы ИИ или почему они могут принимать предвзятые или небезопасные решения. Эти опасения привели к использованию объяснимый ИИ, но до того, как прозрачные системы ИИ станут обычной практикой, еще далеко.

Что еще хуже, компании, занимающиеся искусственным интеллектом, продолжают молчать о своей продукции. Бывшие сотрудники OpenAI и Google DeepMind обвинили обе компании сокрытие потенциальных опасностей их инструментов ИИ. Эта секретность оставляет широкую общественность в неведении о возможных угрозах и затрудняет принятие законодателями упреждающих мер, обеспечивающих ответственное развитие ИИ. 

2. Потери рабочих мест из-за автоматизации искусственного интеллекта

Автоматизация работы на базе искусственного интеллекта это насущная проблема, поскольку технология применяется в таких отраслях, как маркетингпроизводство и здравоохранение. . К 2030 году задачи, на которые приходится до 30 процентов часов, отработанных в настоящее время в экономике США, могут быть автоматизированы —, при этом чернокожие и латиноамериканские сотрудники останутся особенно уязвимыми к изменениям — по данным McKinsey. . Goldman Sachs даже заявляет 300 миллионов рабочие места с полной занятостью могут быть потеряны из-за автоматизации искусственного интеллекта.

“Причина, по которой у нас низкий уровень безработицы, который на самом деле не охватывает людей, которые не ищут работу, в основном заключается в том, что низкооплачиваемые рабочие места в сфере услуг были довольно прочно созданы этой экономикой, - сказал ” футурист Мартин Форд в интервью Built In. С ИИ на подъеме, однако, “Я не думаю, что это будет продолжаться.”

Как роботы ИИ станьте умнее и ловче, те же задачи потребуют меньше людей. И хотя ИИ, по оценкам, создает 97 миллионов новых рабочих мест к 2025 году, многие сотрудники не будут обладать навыками, необходимыми для этих технических ролей, и могут остаться позади, если компании этого не сделают повысьте квалификацию своей рабочей силы.

“Если вы переворачиваете гамбургеры в McDonald's и появляется больше автоматизации, будет ли одна из этих новых работ хорошей под стать вам?” Сказал Форд. “Или вполне вероятно, что новая работа требует большого образования или профессиональной подготовки или, может быть, даже внутренних талантов — действительно сильных навыков межличностного общения или творчества —, которых у вас может не быть? Потому что это то, что, по крайней мере до сих пор, компьютеры не очень хороши в.”

Как отметил технологический стратег Крис Мессина области как право бухгалтерский учет также готов к поглощению ИИ. На самом деле, сказал Мессина, некоторые из них вполне могут быть уничтожены. ИИ уже оказывает существенное влияние на медицину. Закон и бухгалтерский учет следующий, сказал Мессина, первый готов к “массовая встряска.”

“Это много адвокатов, читающих много информации — сотни или тысячи страниц данных и документов. Пропустить вещи действительно легко, - сказал ” Messina. “So AI, обладающий способностью прочесывать и комплексно доставлять наилучший возможный контракт для результата, которого вы пытаетесь достичь, вероятно, заменит множество корпоративных адвокатов.”

ПОДРОБНЕЕ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕКопирайтинг искусственного интеллекта: почему работа по написанию безопасна

3. Социальные манипуляции с помощью алгоритмов искусственного интеллекта

Социальные манипуляции также представляют опасность искусственного интеллекта. Этот страх стал реальностью, поскольку политики полагаются на платформы для продвижения своих точек зрения, одним из примеров является Фердинанд Маркос-младший, владеющий a Армия троллей TikTok чтобы захватить голоса молодых филиппинцев во время выборов Philippines’ 2022. 

TikTok, который является лишь одним из примеров платформы социальных сетей, на которую опираются Алгоритмы ИИ, заполняет ленту пользователя контентом, относящимся к предыдущим СМИ, которые они просматривали на платформе. Критика приложения нацелена на этот процесс и неспособность алгоритма отфильтровать вредоносный и неточный контент, что вызывает обеспокоенность Способность TikTok защищать своих пользователей от вводящей в заблуждение информации. 

Интернет-СМИ и новости стали еще более мрачными в свете изображений и видео, созданных искусственным интеллектом, а также устройств смены голоса с искусственным интеллектом дипфейки проникновение в политическую и социальную сферы. Эти технологии позволяют легко создавать реалистичные фотографии, видео, аудиоклипы или заменять изображение одной фигуры другой на существующем изображении или видео. В результате у плохих актеров появился еще один путь обмен дезинформацией и военной пропагандой, создавая кошмарный сценарий, в котором это может быть почти невозможно чтобы различать достоверные и ошибочные новости.

“Никто не знает, что реально, а что нет, - сказал ” Ford. “Вы буквально не можете поверить собственным глазам и ушам; нельзя полагаться на то, что исторически мы считали наилучшим возможным доказательством... Это будет огромный вопрос.”

4. Социальный надзор с помощью технологий искусственного интеллекта

Помимо более экзистенциальной угрозы, Ford сосредоточен на том, как ИИ отрицательно повлияет на конфиденциальность и безопасность. Яркий пример Использование Китаем технологии распознавания лиц в офисах, школах и другие площадки. . Помимо отслеживания перемещений человека, китайское правительство может быть способно собрать достаточно данных для мониторинга деятельности, отношений и политических взглядов человека. 

Другим примером является поддержка со стороны полицейских управлений США алгоритмы прогнозной полицейской деятельности предвидеть, где будут происходить преступления. Проблема в том, что на эти алгоритмы влияют показатели остановки, которые непропорционально сильно влияют на чернокожие сообщества. Затем полицейские управления удваивают эти сообщества, что приводит к чрезмерному контролю и вопросам о том, могут ли самопровозглашенные демократии сопротивляться превращению ИИ в авторитарное оружие.

“Авторитарные режимы используют или собираются его использовать, ” Ford сказал. “Вопрос в том, ‘Насколько он вторгается в западные страны, демократии, и какие ограничения мы на него накладываем?’”

СВЯЗАННЫЙЯвляются ли полицейские роботы будущим правоохранительных органов?

5. Отсутствие конфиденциальности данных с использованием инструментов искусственного интеллекта

Опрос AvePoint 2024 года показал, что наибольшую озабоченность среди компаний вызывает конфиденциальность и безопасность данных. . И у бизнеса могут быть веские основания для колебаний, учитывая большие объемы данных, сконцентрированных в инструментах искусственного интеллекта, и отсутствие регулирования в отношении этой информации. 

Системы искусственного интеллекта часто собирают персональные данные настройка пользовательского опыта или помочь обучайте модели искусственного интеллекта используешь (особенно если инструмент ИИ бесплатный). Данные могут даже не считаться безопасными от других пользователей, если они передаются системе искусственного интеллекта как таковой инцидент с багом это произошло с ЧатGPT в 2023 “позволил некоторым пользователям видеть заголовки из истории чата другого активного пользователя.” Хотя в некоторых случаях в Соединенных Штатах существуют законы, защищающие личную информацию, они существуют нет четкого федерального закона это защищает граждан от вреда конфиденциальности данных, причиненного ИИ.

СВЯЗАННОЕ ЧТЕНИЕЗакон об искусственном интеллекте и авторском праве: что мы знаем

6. Предвзятости из-за ИИ

Various forms of AI bias are detrimental too. Speaking to the New York Times, Princeton computer science professor Olga Russakovsky said AI bias goes well beyond gender and race. In addition to data and algorithmic bias (the latter of which can “amplify” the former), AI is developed by humans — and humans are inherently biased.

“A.I. researchers are primarily people who are male, who come from certain racial demographics, who grew up in high socioeconomic areas, primarily people without disabilities,” Russakovsky said. “We’re a fairly homogeneous population, so it’s a challenge to think broadly about world issues.”

The narrow views of individuals have culminated in an AI industry that leaves out a range of perspectives. According to UNESCO, only 100 of the world’s 7,000 natural languages have been used to train top chatbots. It doesn’t help that 90 percent of online higher education materials are already produced by European Union and North American countries, further restricting AI’s training data to mostly Western sources.   

The limited experiences of AI creators may explain why speech-recognition AI often fails to understand certain dialects and accents, or why companies fail to consider the consequences of a chatbot impersonating historical figures. If businesses and legislators don’t exercise greater care to avoid recreating powerful prejudices, AI biases could spread beyond corporate contexts and exacerbate societal issues like housing discrimination.   

7. Socioeconomic Inequality as a Result of AI 

If companies refuse to acknowledge the inherent biases baked into AI algorithms, they may compromise their DEI initiatives through AI-powered recruiting. The idea that AI can measure the traits of a candidate through facial and voice analyses is still tainted by racial biases, reproducing the same discriminatory hiring practices businesses claim to be eliminating.  

Widening socioeconomic inequality sparked by AI-driven job loss is another cause for concern, revealing the class biases of how AI is applied. Workers who perform more manual, repetitive tasks have experienced wage declines as high as 70 percent because of automation, with office and desk workers remaining largely untouched in AI’s early stages. However, the increase in generative AI use is already affecting office jobs, making for a wide range of roles that may be more vulnerable to wage or job loss than others.

8. Weakening Ethics and Goodwill Because of AI

Along with technologists, journalists and political figures, even religious leaders are sounding the alarm on AI’s potential pitfalls. In a 2023 Vatican meeting and in his message for the 2024 World Day of Peace, Pope Francis called for nations to create and adopt a binding international treaty that regulates the development and use of AI.

Папа Франциск предостерег от возможности ИИ злоупотреблять, и “создают заявления, которые на первый взгляд кажутся правдоподобными, но являются необоснованными или предают предубеждения.” Он подчеркнул, как это может поддержать кампании дезинформации, недоверия к средствам массовой информации, вмешательства в выборы и многое другое — в конечном итоге увеличит риск “разжигания конфликтов и препятствования миру.” 

Быстрый рост инструментов генеративного искусственного интеллекта придает этим проблемам больше содержания. Многие пользователи применили эту технологию, чтобы отказаться от написания заданий угрожающая академической честности и творчество. Кроме того, предвзятый ИИ может быть использован для определения того, подходит ли человек для работы, ипотеки, социальной помощи или политического убежища, что приводит к возможной несправедливости и дискриминации, отметил Папа Франциск.

ПОДРОБНЕЕ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕЧто такое этика искусственного интеллекта?

9. Автономное оружие на базе искусственного интеллекта

Как это слишком часто бывает, были достигнуты технологические достижения запряженный для ведения войны. . Когда дело доходит до ИИ, некоторые стремятся что-то с этим сделать, пока не стало слишком поздно: In a 2016 открытое письмо, более 30 000 человек, включая ИИ и робототехника исследователи выступили против инвестиций в автономное оружие, работающее на искусственном интеллекте. 

“Ключевой вопрос для человечества сегодня заключается в том, начать ли глобальную гонку вооружений ИИ или предотвратить ее начало,” они написали. “Если какая-либо крупная военная держава будет продвигаться вперед в разработке ИИ-оружия, глобальная гонка вооружений практически неизбежна, и конечная точка этой технологической траектории очевидна: автономное оружие станет Калашниковыми завтрашнего дня.”

Это предсказание осуществилось в форме Смертельные автономные системы вооружения, которые самостоятельно обнаруживают и уничтожают цели, соблюдая при этом мало правил. Из-за распространения мощного и сложного оружия некоторые из самых могущественных стран мира поддались тревогам и способствовали а техническая холодная война.  

Многие из этих новых видов оружия позируют серьезные риски для гражданского населения на земле, но опасность усиливается, когда автономное оружие попадает в чужие руки. Хакеры освоили различные виды кибератак, так что нетрудно представить себе злостного актера, внедряющегося в автономное оружие и провоцирующего абсолютный армагеддон. 

Если политическое соперничество и разжигающие войну тенденции не будут сдерживаться, искусственный интеллект может в конечном итоге применяться с худшими намерениями. Некоторые опасаются, что, сколько бы могущественных фигур ни указывали на опасность искусственного интеллекта, мы будем продолжать с ним раздвигать конверт, если найдутся деньги. 

“Менталитет такой: ‘Если мы можем это сделать, мы должны попробовать; посмотрим, что произойдет, - сказал ” Messina. “‘И если мы сможем заработать на этом, мы сделаем целую кучу.’ Но это не только технологии. Это происходит вечно.’”

10. Финансовые кризисы, вызванные алгоритмами искусственного интеллекта

The финансовая индустрия стала более восприимчива к вовлечению технологий ИИ в повседневные финансовые и торговые процессы. В результате, алгоритмическая торговля может быть ответственен за наш следующий крупный финансовый кризис на рынках.

Хотя алгоритмы искусственного интеллекта не затуманиваются человеческими суждениями или эмоциями, они тоже не учитывайте контексты, взаимосвязь рынков и таких факторов, как человеческое доверие и страх. Эти алгоритмы затем совершают тысячи сделок в стремительном темпе с целью продать через несколько секунд с небольшой прибылью. Продажа тысяч сделок может напугать инвесторов и заставить их сделать то же самое, что приведет к внезапным крахам и крайней волатильности рынка.

Случаи, подобные 2010 Флэш-Крэш и Вспышка Knight Capital служите напоминанием о том, что может произойти, когда алгоритмы, способные торговать, приходят в ярость, независимо от того, является ли быстрая и массовая торговля преднамеренной. 

Нельзя сказать, что ИИ нечего предложить финансовому миру. Фактически, алгоритмы искусственного интеллекта могут помочь инвесторам сделать это более разумные и обоснованные решения на рынке. Но финансовым организациям необходимо убедиться, что они поймите их алгоритмы искусственного интеллекта и как эти алгоритмы принимают решения. Компании должны рассмотреть повышает или понижает ИИ их уверенность прежде чем внедрять технологию, чтобы не разжигать страхи среди инвесторов и не создавать финансовый хаос.

11. Потеря человеческого влияния

Чрезмерная зависимость от технологии искусственного интеллекта может привести к потере человеческого влияния — и отсутствию человеческого функционирования — в некоторых частях общества. Использование ИИ в здравоохранении может привести к сокращению человеческое сочувствие и рассуждения, например. А применение генеративного ИИ для творческих начинаний может уменьшиться человеческое творчество и эмоциональное выражение. . Слишком сильное взаимодействие с системами искусственного интеллекта может даже вызвать сокращение однорангового общения и социальные навыки. Таким образом, хотя ИИ может быть очень полезен для автоматизации повседневных задач, некоторые задаются вопросом, может ли он сдерживать общий человеческий интеллект, способности и потребность в сообществе.

12. Uncontrollable Self-Aware AI

Также возникает опасение, что ИИ будет настолько быстро прогрессировать в разведке, что им станет sentient, и действовать beyond humans’ control — возможно злонамеренно. Предполагаемые сообщения об этой разумности уже поступали, причем одна популярная учетная запись принадлежала бывшему инженеру Google, который заявил о создании чат-бота с искусственным интеллектом LaMDA was sentient и говорить с ним так, как это сделал бы человек. Как следующие большие вехи ИИ - сделать системы с искусственный общий интеллект, и в конце концов искусственный сверхразум, крики, чтобы полностью остановить эти события продолжать подниматься.

ПОДРОБНЕЕ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕЧто такое эффект Элизы?

13. Увеличение преступной деятельности 

Поскольку технология искусственного интеллекта стала более доступной, число людей, использующих ее для преступной деятельности, возросло. Онлайн-хищники теперь могут создавайте изображения детей, что затрудняет правоохранительным органам определение реальных случаев жестокого обращения с детьми. И даже в тех случаях, когда детям не причиняется физический вред, использование детских лиц в ИИ-генерируемых изображениях представляет новые вызовы для защиты детских конфиденциальность онлайн и цифровая безопасность.  

Клонирование голоса это также стало проблемой: преступники используют голоса, созданные ИИ, чтобы выдавать себя за других людей совершите телефонные мошенничества. . Эти примеры лишь царапают поверхность возможностей ИИ, поэтому местным и национальным государственным структурам станет только сложнее корректировать и держать общественность в курсе последних угроз, вызванных ИИ. 

14. Более широкая экономическая и политическая нестабильность

Чрезмерные инвестиции в конкретный материал или сектор могут поставить экономику в шаткое положение. Как сталь, ИИ может рискнуть привлечь столько внимания и финансовых ресурсов, что правительства не смогут разработать другие технологии и отрасли. Кроме того, чрезмерное производство технологий искусственного интеллекта может привести к сбросу излишков материалов, которые потенциально могут попасть в руки хакеров и других злоумышленников.

 

Как смягчить риски ИИ

ИИ все еще имеет многочисленные преимущества, например, систематизация данных о состоянии здоровья и питание беспилотных автомобилей. Однако некоторые утверждают, что для того, чтобы получить максимальную отдачу от этой многообещающей технологии необходимо обильное регулирование.

“Существует серьезная опасность того, что мы довольно скоро станем [системами ИИ] умнее нас и что эти вещи могут получить плохие мотивы и взять под контроль,” Hinton рассказал NPR. . “Это не просто проблема научной фантастики. Это серьезная проблема, которая, вероятно, появится довольно скоро, и политикам нужно подумать, что с этим делать сейчас.”

Разработать правовые нормы

Регулирование искусственного интеллекта было основным направлением деятельности десятки стран, и теперь США и Европейский Союз создают более четкие меры управлять растущей сложностью искусственного интеллекта. Фактически, Управление научно-технической политики Белого дома (OSTP) опубликовало Билль о правах ИИ в 2022 году будет опубликован документ, призванный помочь ответственно направлять использование и разработку ИИ. Кроме того, президент Джо Байден издал указ исполнительный приказ в 2023 году потребуется от федеральных агентств разработать новые правила и рекомендации по безопасности ИИ.

Хотя правовые нормы означают, что определенные технологии ИИ в конечном итоге могут быть запрещены, это не мешает обществам исследовать эту область. 

Форд утверждает, что ИИ необходим странам, стремящимся к инновациям и не отстающим от остального мира.

“Вы регулируете способ использования ИИ, но не сдерживаете прогресс в базовых технологиях. Я думаю, что это было бы ошибочно и потенциально опасно, - сказал ” Ford. “Мы решаем, где мы хотим ИИ, а где нет; где допустимо, а где нет. И разные страны собираются сделать разный выбор.”

ПОДРОБНЕЕ ОБ ИСКУССТВЕННОМ ИНТЕЛЛЕКТЕСтанет ли этот год выборов поворотным моментом в регулировании искусственного интеллекта?

Установите организационные стандарты и обсуждения искусственного интеллекта

На уровне компании есть много шагов, которые предприятия могут предпринять, когда интеграция ИИ в их операции. Организации могут разрабатывать процессы для мониторинга алгоритмов, сбора высококачественных данных и объяснения результатов алгоритмов искусственного интеллекта. Лидеры могли бы даже сделать ИИ частью своей деятельности культура компании и рутинные бизнес-дискуссии, устанавливающие стандарты для определения приемлемых технологий искусственного интеллекта.

Руководство по технологиям с точки зрения гуманитарных наук

Хотя, когда дело доходит до общества в целом, необходимо больше стимулировать использование технологий разнообразные перспективы гуманитарных наук. . Исследователи искусственного интеллекта Стэнфордского университета Фей-Фей Ли и Джон Этчеменди приводят этот аргумент в своем блоге в 2019 году призывает к национальному и глобальному лидерству в регулировании искусственного интеллекта: 

“Создатели ИИ должны искать идеи, опыт и проблемы людей разных национальностей, полов, культур и социально-экономических групп, а также людей из других областей, таких как экономика, право, медицина, философия, история, социология, коммуникации, взаимодействие человека с компьютером, психология и исследования науки и технологий (STS).”

Балансирование высокотехнологичных инноваций с человекоцентрированным мышлением является идеальным методом производства ответственный ИИ технологии и обеспечение будущее ИИ остается надеждой для следующего поколения. Опасности искусственного интеллекта всегда должны быть темой обсуждения, чтобы лидеры могли найти пути к этому используйте эту технологию в благородных целях

“Я думаю, что мы можем говорить обо всех этих рисках, и они вполне реальны, - сказал ” Ford. “Но ИИ также будет самым важным инструментом в нашем наборе инструментов для решения самых больших проблем, с которыми мы сталкиваемся.”

Комментариев нет:

Отправить комментарий

Повестка дня Армагеддона Камала Харрис, Дональд Трамп и гонка за небытие

  Следующий президент будет принимать критические решения относительно будущего Нового договора СНВ и состава ядерного арсенала США. Учитыва...