Нова політика OpenAI: за що ChatGPT може «здати» вас поліції

Компанія OpenAI оголосила, що тепер скануватиме розмови користувачів у ChatGPT. Особливо тривожний контент, пов'язаний із погрозами нашкодити іншим, буде передаватися співробітникам для перевірки, а в деяких випадках про це можуть повідомити поліцію. Це рішення ухвалено на тлі зростання кількості випадків, коли чат-боти на основі штучного інтелекту призводили до криз психічного здоров’я користувачів. Про це повідомляє «Главком» з посиланням на OpenAI.
У новій публікації в блозі OpenAI визнала певні недоліки у своїх системах, які можуть впливати на психічне здоров'я користувачів. Компанія заявила, що тепер відстежує чати на наявність «шкідливого контенту».
«Коли ми виявляємо користувачів, які планують завдати шкоди іншим, ми спрямовуємо їхні розмови до спеціалізованих каналів, де їх перевіряє невелика команда... Якщо люди-рецензенти визначать, що справа пов’язана з безпосередньою загрозою серйозної фізичної шкоди іншим, ми можемо передати її правоохоронним органам», – зазначено в блозі.
При цьому компанія зазначила, що наразі не передає поліції справи, пов’язані із самогубством або самоушкодженням, щоб поважати «унікально приватний характер взаємодії в ChatGPT».
Ця нова політика викликала питання, оскільки, на думку критиків, вона суперечить позиції OpenAI щодо конфіденційності. Компанія веде судовий позов з The New York Times, де вона відмовляється надавати журнальні записи чатів, посилаючись на захист конфіденційності користувачів.
Раніше генеральний директор OpenAI Сем Альтман також визнав, що використання ChatGPT як «терапевта чи адвоката» не забезпечує такої ж конфіденційності, як спілкування з живою людиною, і компанія може бути змушена передати ці чати до суду.
Таким чином, OpenAI опинилась у складній ситуації, намагаючись одночасно захистити своїх користувачів від небезпечних сценаріїв, пов'язаних з «психозом штучного інтелекту», та дотримуватися своїх обіцянок щодо конфіденційності. Нове правило демонструє, що компанія віддає перевагу жорсткій модерації, що частково суперечить її публічним заявам про захист даних.
Нагадаємо, компанія TikTok оголосила про скорочення сотень співробітників свого відділу модерації контенту у Великій Британії, покладаючись на штучний інтелект (ШІ). Цей крок відображає ширшу тенденцію в індустрії соціальних мереж, де такі гіганти, як Meta та X, також замінюють модераторів-людей автоматизованими системами. Про це пише «Главком» із посиланням на The Wall Street Journal.
Скорочення торкнуться команди з 2500 осіб у Великій Британії, а також співробітників у Південній та Південно-Східній Азії. Точна кількість звільнених не розголошується, але джерела говорять про сотні.
Останні новини
