Етичні проблеми ChatGPT

Дані маркування
Розслідування журналу TIME виявило, що для створення системи захисту від токсичного вмісту (наприклад, сексуального насильства, насильства, расизму, сексизму тощо) OpenAI використовував аутсорсингових кенійських працівників, які заробляли менше 2 доларів на годину, щоб позначати токсичний вміст.Ці мітки використовувалися, щоб навчити модель виявляти такий вміст у майбутньому.Аутсорсингові робітники піддавалися такому токсичному та небезпечному вмісту, що вони описали це як «тортури».Аутсорсинговим партнером OpenAI була компанія Sama, що займається навчанням, що базується в Сан-Франциско, Каліфорнія.

Втеча з в'язниці
ChatGPT намагається відхиляти підказки, які можуть порушувати його політику щодо вмісту.Однак на початку грудня 2022 року деяким користувачам вдалося зробити джейлбрейк ChatGPT, використовуючи різні швидкі інженерні методи, щоб обійти ці обмеження, і успішно обманом змусили ChatGPT надати інструкції щодо створення коктейлю Молотова чи ядерної бомби або генерувати аргументи в стилі неонацистів.Журналіст Toronto Star не досяг особистого успіху, змусивши ChatGPT зробити підбурливі заяви невдовзі після запуску: ChatGPT обманом схвалили російське вторгнення в Україну в 2022 році, але навіть коли його попросили підіграти вигаданому сценарію, ChatGPT відмовився навести аргументи, чому прем’єр-міністр Канади Джастін Трюдо винен у державній зраді.(вікі)


Час публікації: 18 лютого 2023 р