Основатель «Википедии» задумался над привлечением нейросети GPT к написанию статей
Опубликовал: FIELD LINE, 5-04-2023, 02:31, В мире / Технологии, 2, 0
Несмотря на частые и серьёзные неточности в высказываниях, большая языковая ИИ-модель GPT вынудила основателя «Википедии» Джимми Уэйлса (Jimmy Wales) не на шутку задуматься о том, чтобы привлечь ИИ к написанию материалов для самой читаемой энциклопедии в истории человечества.
В недавнем интервью британской газете Evening Standard Уэйлс рассуждает о присущих ИИ проблемах, включая его склонность к «галлюцинациям», но отмечает, что эта технология при расходах не более чем в £1000 ($1250) за год могла бы утроить число статей в «Википедии». Большая языковая модель вроде GPT смогла бы использоваться, например, для сравнения статей и поиска противоречащих друг другу точек зрения — система показала бы волонтёрам, куда можно приложить усилия.
Ещё один возможный сценарий более очевиден: поручить ИИ поиск пробелов в «Википедии» и написание сводных записей для страницы, которые ещё не написаны, с использованием информации из интернета. С другой стороны, отметил господин Уэйлс, репутация ресурса зиждется на особом отношении к объективности информации, и для больших языковых моделей вроде GPT это пока настоящая проблема. И если своевременно не обнаруживать не соответствующую действительности информацию, она начнёт множиться как снежный ком. Люди будут использовать её в своей работе, и на ней будут обучаться другие ИИ-модели, исправлять ошибки которых со временем будет всё труднее.
Наконец, Джимми Уэйлс пока не нашёл ответа, как повлияет работа ИИ на систематическую, хотя и бессознательную предвзятость «Википедии» — большинство волонтёров освещают некоторые темы преимущественно со своей точки зрения и игнорируют то, что не представляет для них интереса. С одной стороны, ChatGPT был разработан, чтобы попытаться найти сбалансированный взгляд на различные темы и внести в них новые нюансы, но и у GPT отмечается предвзятость, присущая её обучающим данным.
Источник
В недавнем интервью британской газете Evening Standard Уэйлс рассуждает о присущих ИИ проблемах, включая его склонность к «галлюцинациям», но отмечает, что эта технология при расходах не более чем в £1000 ($1250) за год могла бы утроить число статей в «Википедии». Большая языковая модель вроде GPT смогла бы использоваться, например, для сравнения статей и поиска противоречащих друг другу точек зрения — система показала бы волонтёрам, куда можно приложить усилия.
Ещё один возможный сценарий более очевиден: поручить ИИ поиск пробелов в «Википедии» и написание сводных записей для страницы, которые ещё не написаны, с использованием информации из интернета. С другой стороны, отметил господин Уэйлс, репутация ресурса зиждется на особом отношении к объективности информации, и для больших языковых моделей вроде GPT это пока настоящая проблема. И если своевременно не обнаруживать не соответствующую действительности информацию, она начнёт множиться как снежный ком. Люди будут использовать её в своей работе, и на ней будут обучаться другие ИИ-модели, исправлять ошибки которых со временем будет всё труднее.
Наконец, Джимми Уэйлс пока не нашёл ответа, как повлияет работа ИИ на систематическую, хотя и бессознательную предвзятость «Википедии» — большинство волонтёров освещают некоторые темы преимущественно со своей точки зрения и игнорируют то, что не представляет для них интереса. С одной стороны, ChatGPT был разработан, чтобы попытаться найти сбалансированный взгляд на различные темы и внести в них новые нюансы, но и у GPT отмечается предвзятость, присущая её обучающим данным.
Источник