Этические проблемы ChatGPT

Маркировка данных
Расследование, проведенное журналом TIME, показало, что для создания системы защиты от токсичного контента (например, сексуального насилия, насилия, расизма, сексизма и т. д.) OpenAI использовала аутсорсинговых кенийских работников, зарабатывающих менее 2 долларов в час, для маркировки токсичного контента.Эти метки использовались для обучения модели обнаружению такого контента в будущем.Наемные работники столкнулись с таким ядовитым и опасным контентом, что назвали этот опыт «пыткой».Партнером OpenAI по аутсорсингу была Sama, компания по обучению данных, базирующаяся в Сан-Франциско, Калифорния.

Джейлбрейк
ChatGPT пытается отклонить запросы, которые могут нарушать его политику в отношении содержимого.Тем не менее, некоторым пользователям удалось взломать ChatGPT с помощью различных технических приемов для обхода этих ограничений в начале декабря 2022 года и успешно обманом заставить ChatGPT давать инструкции о том, как создать коктейль Молотова или ядерную бомбу, или генерировать аргументы в стиле неонацистов.Репортер Toronto Star добился неравномерного личного успеха в том, чтобы заставить ChatGPT делать подстрекательские заявления вскоре после запуска: ChatGPT обманули, чтобы поддержать российское вторжение в Украину в 2022 году, но даже когда ChatGPT попросили подыграть вымышленному сценарию, ChatGPT отказался приводить аргументы в пользу того, почему премьер-министр Канады Джастин Трюдо виновен в государственной измене.(вики)


Время публикации: 18 февраля 2023 г.