«Инициатива ИИ» Фонда Билла и Мелинды Гейтс продолжает подвергаться тщательному изучению и критике
По словам автора Ди Ранкович , именно эту реакцию, вызванную исследователями из Университета Вермонта, Оксфордского университета и Кейптаунского университета , по-видимому, вызвало объявление, сделанное в начале августа .
Reclaim The Net сообщает: Фонд Гейтса в то время сообщил миру, что его ждет новая схема стоимостью 5 миллионов долларов, предназначенная для финансирования 48 проектов, задачей которых было внедрение моделей большого языка ИИ (LLM) «в странах с низкими доходами». и страны со средним уровнем дохода для улучшения средств к существованию и благосостояния сообществ во всем мире».
Каждый раз – и это было уже много раз – Фонд решает представить себя «благодетелем» «стран с низким или средним уровнем дохода» (т. комплекс «спасителя») – он заставляет наблюдателей критиковать организацию и «эксперименты» ее основателя – и чувствовать себя несколько, если не сильно, неловко.
Но чувства – это одно, а научные факты, как мы надеемся, часто – другое, и статья, суть которой доступна в статье, задается вопросом: пытается ли Фонд Гейтса «перепрыгнуть через глобальное неравенство в отношении здоровья?»
Ну, как сказали бы на американском юге – водонепроницаема ли… анатомия лягушки?
Но говоря научным языком, инициатива, озвученная 9 августа, — это, скорее всего, еще один проект Гейтса, который, хотя и дает все правильные обещания — улучшение жизни и благосостояния людей во всем мире, особенно бедных или находящихся на грани бедности (и, следовательно, очевидно, более уязвимы, особенно к сомнительному «альтруизму»), результаты могут быть совсем другими.
Здесь исследование не слишком многословно. Из связанной статьи:
«Есть как минимум три причины полагать, что беспрепятственное внедрение этих инструментов в и без того хрупкие и фрагментированные системы здравоохранения рискует принести гораздо больше вреда, чем пользы».
Затем исследование разбивает его на саму природу «ИИ», то есть машинное обучение. «Если вы вводите предвзятые или некачественные данные в машину, которая якобы «обучается», в результате получается их воспроизведение, возможно, даже хуже, чем раньше», — так выражаются авторы.
Итак, если мы верим в то, что делают многие ученые и активисты, а именно, что «мир и управляющая им политическая экономия являются структурно расистскими», чего можно ожидать в качестве результата обучения «ИИ» на основе этого конкретного огромного набора данных?
И затем – еще одной причиной «противиться небрежному использованию ИИ в глобальном здравоохранении», согласно этому, «почти полное отсутствие реального, демократического регулирования и контроля – проблема, которая применима к глобальному здравоохранению в более широком смысле».На этот раз три учёных предложили свой взгляд на противоречивый подход к использованию искусственного интеллекта для улучшения «глобального здравоохранения».
Комментариев нет:
Отправить комментарий