itkvariat

    Непоследовательный контент-фильтр Galaxy AI от Samsung вызывает странные проблемы




    Пользователь Reddit заметил странную непоследовательность в контент-фильтре Galaxy AI относительно цвета кожи. В некоторых примерах ИИ указал, что цвет кожи можно описать как белый, но не как черный. Другие пользователи также в свое время отмечали случаи, когда контент-фильтр действовал слишком усердно

    В посте Reddit в понедельник пользователь P26601 поделился снимком экрана, на котором показаны два примера проверки предложений Galaxy AI на орфографию и грамматику. Фраза "my skin is white" проверяется без проблем, в то время как ИИ отказался проверять фразу "my skin is black", предположив, что она может содержать неприемлемый контент.

    Команда Android Authority решили проверить это с теми же примерами запросов и получили аналогичные результаты, обнаружив, что описание кожи как белой или коричневой не вызвало срабатывания фильтра контента Galaxy AI, в то время как пример с использованием термина "черный" вызвал. Результаты на скриншотах ниже.


    Помимо самого озадачивающего аспекта этого несоответствия, интересно, что ИИ так агрессивно модерирует то, как кто-то может описать свой цвет кожи. В качестве дальнейшего теста были использованы те же описания для цвета кожи, но уже третьего лица. Результаты ниже вызывают больше вопросов, чем ответов.


    На этот раз Galaxy AI был готов исправить "Его кожа коричневая", но пометил предложения с описаниями черной и белой кожи третьего лица как потенциально неуместные. По крайней мере, имеет смысл, что при описании другого человека будет больше модерации, ведь вы с большей вероятностью оскорбите кого-то другого, чем себя самого — но эта странная непоследовательность , тем не менее, остается.

    Это не первый раз, когда критикуют фильтр контента Galaxy AI. Примерно в это же время в прошлом году, когда пользователи экспериментировали с ИИ на новых телефонах Samsung Galaxy S24, некоторые довольно негативно отозвались на Reddit, высказав сомнения в уровнях модерации. В одном случае пользователь Reddit был разочарован тем, что не мог использовать слово "какашка" при обмене сообщениями с врачом своего ребенка. Другой пользователь, ищущий помощи в написании любовных романов, обнаружил, что ИИ не желает описывать девушку как "горячую".

    Оба этих старых примера можно объяснить тем, что Galaxy AI стремится не одобрять ненормативную лексику или женоненавистнический текст, даже если некоторые могут рассматривать эти конкретные случаи как чрезмерно агрессивный подход к фильтрации контента. Это также было в начале жизни Galaxy AI, и неясно, были ли внесены какие-либо изменения в ответ на те отзывы пользователей.


    Иван Ковалев

    VIA





    Подписывайтесь и читайте новости от ITквариат раньше остальных в нашем Telegram-канале !



    Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!  




    И еще об интересном...
  • Почему современные компьютерные игры используют так много видеопамяти?
  • Почему упал биткоин, или Знакомые округлости очередного пузыря
  • Моя история в Twitter, от начала до конца…
  • Как Microsoft создает Xbox One X - самую мощную игровую консоль в мире (+видео)
  • Почему я вернул Macbook Pro через день использования и что я понял о будущем Apple
  • Xbox One vs PS4: Самое детальное сравнение двух платформ
  • LG G6: большой тест - обзор


  • А что вы думаете? Напишите в комментариях!
    Кликните на изображение чтобы обновить код, если он неразборчив



    В комментариях запрещено использовать ненормативную лексику, оскорблять других пользователей сайта, запрещены активные ссылки на сторонние сайты и реклама в комментариях. Уважаемые читатели! Просим вас, оставляя комментарии, уважать друг друга и не злоупотреблять свободой слова. Пользователи, которые нарушают эти правила грубо или систематически, будут заблокированы.

    Полная версия правил

Самое популярное
    
Проверьте скорость вашего интернета!


Что бывало...
Наши друзья
Сервисный центр Five Service

Магазин кабелей и аксессуаров UGREEN

Самоклейкин

Смарт



Непоследовательный контент-фильтр Galaxy AI от Samsung вызывает странные проблемы




Пользователь Reddit заметил странную непоследовательность в контент-фильтре Galaxy AI относительно цвета кожи. В некоторых примерах ИИ указал, что цвет кожи можно описать как белый, но не как черный. Другие пользователи также в свое время отмечали случаи, когда контент-фильтр действовал слишком усердно

В посте Reddit в понедельник пользователь P26601 поделился снимком экрана, на котором показаны два примера проверки предложений Galaxy AI на орфографию и грамматику. Фраза "my skin is white" проверяется без проблем, в то время как ИИ отказался проверять фразу "my skin is black", предположив, что она может содержать неприемлемый контент.

Команда Android Authority решили проверить это с теми же примерами запросов и получили аналогичные результаты, обнаружив, что описание кожи как белой или коричневой не вызвало срабатывания фильтра контента Galaxy AI, в то время как пример с использованием термина "черный" вызвал. Результаты на скриншотах ниже.


Помимо самого озадачивающего аспекта этого несоответствия, интересно, что ИИ так агрессивно модерирует то, как кто-то может описать свой цвет кожи. В качестве дальнейшего теста были использованы те же описания для цвета кожи, но уже третьего лица. Результаты ниже вызывают больше вопросов, чем ответов.


На этот раз Galaxy AI был готов исправить "Его кожа коричневая", но пометил предложения с описаниями черной и белой кожи третьего лица как потенциально неуместные. По крайней мере, имеет смысл, что при описании другого человека будет больше модерации, ведь вы с большей вероятностью оскорбите кого-то другого, чем себя самого — но эта странная непоследовательность , тем не менее, остается.

Это не первый раз, когда критикуют фильтр контента Galaxy AI. Примерно в это же время в прошлом году, когда пользователи экспериментировали с ИИ на новых телефонах Samsung Galaxy S24, некоторые довольно негативно отозвались на Reddit, высказав сомнения в уровнях модерации. В одном случае пользователь Reddit был разочарован тем, что не мог использовать слово "какашка" при обмене сообщениями с врачом своего ребенка. Другой пользователь, ищущий помощи в написании любовных романов, обнаружил, что ИИ не желает описывать девушку как "горячую".

Оба этих старых примера можно объяснить тем, что Galaxy AI стремится не одобрять ненормативную лексику или женоненавистнический текст, даже если некоторые могут рассматривать эти конкретные случаи как чрезмерно агрессивный подход к фильтрации контента. Это также было в начале жизни Galaxy AI, и неясно, были ли внесены какие-либо изменения в ответ на те отзывы пользователей.


Иван Ковалев

VIA





Подписывайтесь и читайте новости от ITквариат раньше остальных в нашем Telegram-канале !



Заметили ошибку? Выделите ее мышкой и нажмите Ctrl+Enter!  




И еще об интересном...
  • Почему современные компьютерные игры используют так много видеопамяти?
  • Почему упал биткоин, или Знакомые округлости очередного пузыря
  • Моя история в Twitter, от начала до конца…
  • Как Microsoft создает Xbox One X - самую мощную игровую консоль в мире (+видео)
  • Почему я вернул Macbook Pro через день использования и что я понял о будущем Apple
  • Xbox One vs PS4: Самое детальное сравнение двух платформ
  • LG G6: большой тест - обзор


  • А что вы думаете? Напишите в комментариях!
    Кликните на изображение чтобы обновить код, если он неразборчив



    В комментариях запрещено использовать ненормативную лексику, оскорблять других пользователей сайта, запрещены активные ссылки на сторонние сайты и реклама в комментариях. Уважаемые читатели! Просим вас, оставляя комментарии, уважать друг друга и не злоупотреблять свободой слова. Пользователи, которые нарушают эти правила грубо или систематически, будут заблокированы.

    Полная версия правил
    ITквариат (АйТиквариат) Powered by © 1996-2024