В Китае арестовали хакеров, которые использовали вымогательский софт, написанный с ChatGPT
Опубликовал: FIELD LINE, 30-12-2023, 19:52, В мире / Mobile, 11, 0
Четыре киберпреступника в Китае были арестованы за разработку программ-вымогателей с помощью ChatGPT и их применение, что стало первым подобным случаем в стране. И это при том, что популярный чат-бот от OpenAI официально не доступен в Китае, да и Пекин ужесточает меры в отношении иностранного ИИ.
Согласно сообщению государственного информагентства Синьхуа, об атаке первой сообщила малоизвестная компания из Ханчжоу, системы которой были заблокированы вымогательским ПО. Хакеры потребовали 20 000 стэйблкоинов Tether, что эквивалентно 20 тыс. долларов, за восстановление доступа. Вероятно, это был не единственный подобный случай.
В конце ноября полиция арестовала двух подозреваемых в Пекине и ещё двух во Внутренней Монголии. Они признались, что «писали версии программ-вымогателей, оптимизировали программу с помощью ChatGPT, проводили сканирование уязвимостей, получали доступ путём проникновения, внедряли программы-вымогатели и занимались вымогательством», — говорится в сообщении. В отчёте не говорится, было ли использование ChatGPT частью обвинений. В Китае он находится в серой правовой зоне, поскольку Пекин стремится ограничить доступ к иностранным продуктам генеративного искусственного интеллекта.
После того как в конце 2022 года OpenAI представила своего чат-бота, вызвав «гонку вооружений» в этой области среди технологических гигантов, ChatGPT и подобные продукты заинтересовали китайских пользователей. Вместе с тем OpenAI заблокировала работу чат-бота в Китае, Гонконге и ряде других стран, таких как Россия, Северная Корея и Иран. Однако с помощью виртуальных частных сетей и телефонного номера из поддерживаемого региона можно обойти блокировку.
Судебные дела, связанные с генеративным ИИ, участились, учитывая популярность технологии. В том числе и в Китае. В феврале полиция Пекина предупредила, что ChatGPT может «совершать преступления и распространять слухи». В мае полиция северо-западной провинции Ганьсу задержала человека, который якобы использовал ChatGPT для создания фальшивой новости о крушении поезда и распространил её в интернете, получив более 15 000 переходов по ссылке с новостью. В августе полиция Гонконга арестовала шесть человек в рамках борьбы с мошенническим синдикатом, который использовал дипфейк для создания поддельных изображений идентификационных документов, используемых для мошенничества с кредитами, направленного на банки и кредиторов.
Споры вокруг этой технологии возникают и на Западе. Брайан Худ (Brian Hood), мэр австралийского города Хепберн-Шайр, в марте направил OpenAI судебное уведомление после того, как ChatGPT ошибочно обвинила его во взяточничестве и коррупционном скандале. В этом году Федеральная торговая комиссия США выпустила предупреждение о мошенниках, использующих клонированные ИИ голоса для выдачи себя за людей, что можно сделать с помощью всего лишь короткого аудиоклипа голоса человека.
В последнее время люди и организации, чьи работы были использованы для обучения больших языковых моделей, выступают против того, что они считают массовым нарушением интеллектуальной собственности. На этой неделе газета The New York Times подала в суд на OpenAI и Microsoft, главного спонсора ИИ-компании, утверждая, что нейросети компании использовали миллионы статей для обучения без разрешения.
Источник
Согласно сообщению государственного информагентства Синьхуа, об атаке первой сообщила малоизвестная компания из Ханчжоу, системы которой были заблокированы вымогательским ПО. Хакеры потребовали 20 000 стэйблкоинов Tether, что эквивалентно 20 тыс. долларов, за восстановление доступа. Вероятно, это был не единственный подобный случай.
В конце ноября полиция арестовала двух подозреваемых в Пекине и ещё двух во Внутренней Монголии. Они признались, что «писали версии программ-вымогателей, оптимизировали программу с помощью ChatGPT, проводили сканирование уязвимостей, получали доступ путём проникновения, внедряли программы-вымогатели и занимались вымогательством», — говорится в сообщении. В отчёте не говорится, было ли использование ChatGPT частью обвинений. В Китае он находится в серой правовой зоне, поскольку Пекин стремится ограничить доступ к иностранным продуктам генеративного искусственного интеллекта.
После того как в конце 2022 года OpenAI представила своего чат-бота, вызвав «гонку вооружений» в этой области среди технологических гигантов, ChatGPT и подобные продукты заинтересовали китайских пользователей. Вместе с тем OpenAI заблокировала работу чат-бота в Китае, Гонконге и ряде других стран, таких как Россия, Северная Корея и Иран. Однако с помощью виртуальных частных сетей и телефонного номера из поддерживаемого региона можно обойти блокировку.
Судебные дела, связанные с генеративным ИИ, участились, учитывая популярность технологии. В том числе и в Китае. В феврале полиция Пекина предупредила, что ChatGPT может «совершать преступления и распространять слухи». В мае полиция северо-западной провинции Ганьсу задержала человека, который якобы использовал ChatGPT для создания фальшивой новости о крушении поезда и распространил её в интернете, получив более 15 000 переходов по ссылке с новостью. В августе полиция Гонконга арестовала шесть человек в рамках борьбы с мошенническим синдикатом, который использовал дипфейк для создания поддельных изображений идентификационных документов, используемых для мошенничества с кредитами, направленного на банки и кредиторов.
Споры вокруг этой технологии возникают и на Западе. Брайан Худ (Brian Hood), мэр австралийского города Хепберн-Шайр, в марте направил OpenAI судебное уведомление после того, как ChatGPT ошибочно обвинила его во взяточничестве и коррупционном скандале. В этом году Федеральная торговая комиссия США выпустила предупреждение о мошенниках, использующих клонированные ИИ голоса для выдачи себя за людей, что можно сделать с помощью всего лишь короткого аудиоклипа голоса человека.
В последнее время люди и организации, чьи работы были использованы для обучения больших языковых моделей, выступают против того, что они считают массовым нарушением интеллектуальной собственности. На этой неделе газета The New York Times подала в суд на OpenAI и Microsoft, главного спонсора ИИ-компании, утверждая, что нейросети компании использовали миллионы статей для обучения без разрешения.
Источник