Что нового?
Пикник ТВ

This is a sample guest message. Register a free account today to become a member! Once signed in, you'll be able to participate on this site by adding your own topics and posts, as well as connect with other members through your own private inbox!

Последние обновления и нововведения в ChatGPT от OpenAI

[Impact]ChatGPT вызывает волну жалоб среди пользователей – начато расследование OpenAI[/Impact]

В последнее время пользователи интернета активно обсуждают странное поведение популярного ИИ-чат-бота ChatGPT от OpenAI. Многие отмечают, что программа, созданная для помощи в решении разнообразных задач, вдруг стала "разлениваться" и отказываться выполнять запросы. Так, вместо полного ответа на просьбу о помощи в кодировании или других задачах, ChatGPT предлагает пользователям завершить работу самостоятельно, что вызывает удивление и разочарование.
andrew-neel-CVfAqFRYjb0-unsplash.jpg

Это необычное поведение ИИ вызвало бурные обсуждения на форумах и в социальных сетях. Некоторые пользователи даже предположили, что OpenAI могла специально изменить алгоритмы ChatGPT, чтобы сэкономить на вычислительных ресурсах. Ведь, как известно, поддержание работы такого сложного ИИ обходится компании в крупную сумму – по данным за апрель 2023 года, расходы составляли около $700 000 в день.

Пользователи активно выражают своё недовольство на различных платформах, включая сайт Reddit. Многие задаются вопросом, стоит ли продолжать использовать ChatGPT, если он перестаёт быть эффективным помощником.

В ответ на растущее беспокойство пользователей, представители OpenAI заявили, что они осведомлены о проблеме. Они подчеркнули, что с момента последнего обновления модели в ноябре никаких специальных изменений в ChatGPT не вносилось. Компания также заверила, что они внимательно изучают все сообщения о "лени" ИИ и работают над исправлением ситуации.

Ситуация с ChatGPT ставит перед OpenAI новые вызовы. Пока компания ищет пути решения, пользователи всего мира продолжают следить за развитием событий, надеясь на скорое возвращение их любимого ИИ-помощника к привычной эффективности.
 
[Impact]У OpenAI вновь не получилось зарегистрировать аббревиатуру GPT в качестве товарного знака[/Impact]

Попытка OpenAI зарегистрировать аббревиатуру GPT в качестве товарного знака вновь потерпела неудачу, пишет ресурс The Verge. Бюро по патентам и товарным знакам США (USPTO) отклонило заявку OpenAI, объяснив отказ в регистрации тем, что термин GPT, означающий Generative Pre-trained Transformer или генеративный предварительно обученный трансформер, слишком общий для регистрации и может помешать конкурентам правильно описывать свои продукты как GPT.


Ранее OpenAI просила ведомство ускорить процедуру рассмотрения заявки, но получила отказ в связи с отсутствием надлежащих документальных доказательств необходимости ускоренного рассмотрения этого вопроса.

В решении USPTO от 6 февраля указано, что не имеет значения, если потребители не знают, что означает GPT, поскольку использующие эту технологию понимают, что GPT относится к общему типу программного обеспечения, а не только к продуктам OpenAI.

С появлением технологии генеративного ИИ многие сервисы в сфере ИИ добавили аббревиатуру GPT в названия своих продуктов. Также компании нередко называют свои основополагающие ИИ-модели как GPT.

По данным ресурса Gizmodo, это не первый раз, когда ведомство отклоняет заявку OpenAI на регистрацию товарного знака GPT — впервые это произошло в мае 2023 года. У компании осталась ещё одна возможность зарегистрировать товарный знак, подав апелляцию в Совет по рассмотрению споров и апелляций по товарным знакам (Trademark Trial and Appeal Board, TTAB).
 
[Impact]OpenAI больше не будет принуждать экс-сотрудников к молчанию ради акций[/Impact]
24.05.2024
OpenAI отказалась от практики, при которой вынуждала увольняющихся сотрудников выбирать между подписанием бессрочного соглашения о недискредитации компании и сохранением акций, переданных этим сотрудникам в качестве заработной платы. OpenAI подготовила соответствующую записку, которую разослала нынешним и бывшим сотрудникам.
Посмотреть вложение image.webp
В направленном бывшим работникам документе говорится, что на момент ухода из OpenAI «вас, возможно, проинформировали, о необходимости подписать соглашение об освобождении от обязательств, которое включало положение о недискредитации, чтобы сохранить принадлежащие вам акции. <..> Независимо от того, подписали ли вы соглашение, настоящим уведомляем вас, что OpenAI не аннулировала и не аннулирует какие-либо переданные акции».

Компания отметила, что не намеревается обеспечивать исполнения каких-либо иных пунктов соглашения, не допускающих её дискредитации, если бывший сотрудник подписал соответствующий документ. «Как мы рассказали сотрудникам, мы внесём важные изменения в процедуру увольнения», — заявил CNBC представитель OpenAI.

«Мы не изымали и никогда не будем изымать принадлежащий [им] капитал, даже если люди не подписывали документов об увольнении. Мы исключим положения о недискредитации из наших стандартных документов при увольнении и освободим бывших сотрудников от действующих обязательств о недискредитации, если только положение о недискредитации не было взаимным», — говорится в заявлении компании. OpenAI подчеркнула, что о нововведении будут также извещены её бывшие сотрудники.
 
[Impact]OpenAI продолжает терять сотрудников — они считают, что ИИ может быть опасен для человечества[/Impact]
24.05.2024
Бывшая сотрудница OpenAI Гретхен Крюгер (Gretchen Krueger) сообщила, что 14 мая ушла из компании в связи с опасениями, что разрабатываемый OpenAI искусственный интеллект может представлять угрозу для человечества. Это «непростое решение» она приняла незадолго до того, как о своём уходе объявили Илья Суцкевер (Ilya Sutskever) и Ян Лейке (Jan Leike), которые руководили ныне расформированным подразделением Superalignment.
image.webp
«Я подала в отставку за несколько часов до того, как услышала новости об [Илье Суцквере] и [Яне Лейке], и приняла своё решение независимо. Их опасения я разделяю. У меня также есть другие и частично совпадающие опасения», — написала Крюгер в соцсети X. По её словам, компании необходимо проделать работу по улучшению «процессов принятия решений; подотчётности; прозрачности; документации; обеспечения соблюдения политик; осторожности в применении наших собственных технологий; и сокращения воздействия на неравенство, права и окружающую среду».

Крюгер, которая работала специалистом по разработке политик исследования, заявила, что эти опасения разделяет общественность — они «могут влиять на то, как и кем могут определяться аспекты будущего», и эти опасения не следует «неправильно воспринимать как узкие, спекулятивные или не имеющие отношения» к созданию и работе ИИ. «Один из способов, которым технологические компании могут обезоружить тех, кто пытается привлечь их к ответственности, — посеять раскол между теми, кто выражает обеспокоенность или бросает вызов их доминированию. Я крайне озабочена тем, чтобы это предотвратить», — отметила Крюгер.

Покинувшие на минувшей неделе OpenAI главный научный сотрудник и соучредитель компании Илья Суцкевер и исполнительный директор Ян Лейке возглавляли подразделение Superalignment — оно разрабатывало меры безопасности, предотвращающие выход сильного ИИ (AGI) из-под контроля. По словам Лейке, компания ставила «блестящие продукты» выше мер безопасности: отделу Superalignment приходилось бороться за ресурсы, а выполнять свою работу ему становилось всё труднее.
 
[Impact]Тёмная сторона OpenAI: руководство угрожало бывшим работникам потерей акций, если они будут критиковать компанию[/Impact]
24.05.2024
Желающих покинуть компанию бывших сотрудников OpenAI вынуждали в кратчайшие сроки подписывать обязательство никогда не выступать с критикой организации, сообщило неделю назад издание Vox. В случае отказа сделать это бывшим сотрудникам грозила потеря акций OpenAI. В руководстве компании попытались откреститься от этой практики, но документы свидетельствуют об обратном. К настоящему моменту OpenAI, по её утверждению, всё-таки пересмотрела это правило.
image.webp
Публикация недельной давности вызвала среди действующих сотрудников OpenAI бурю эмоций. Как и многие другие стартапы Кремниевой долины, компания часто выплачивает значительную часть зарплаты в виде акционерного капитала — ранее её работники предполагали, что при передаче им акций в порядке трудового договора эти ценные бумаги становятся их собственностью и не подлежат изъятию, так же, как и выплаченная зарплата. На следующий день после выхода статьи гендиректор OpenAI Сэм Альтман (Sam Altman) опубликовал заявление, заверив, что не знал об этом положении вещей, и что в будущем он не допустит такой несправедливости. Директор по стратегии OpenAI Джейсон Квон (Jason Kwon) дополнительно опубликовал внутреннее сообщение, адресованное сотрудникам компании — по его словам, данное положение действовало с 2019 года, но руководству стало известно о нём около месяца назад, и всю ответственность за инцидент он взял на себя.

Но существуют документы за подписями как Квона, так и самого Альтмана, опровергающие, что руководство OpenAI пребывало в неведении по данному вопросу. В частности, есть письмо за подписью Квона и вице-президента по кадрам Дианой Юн (Diane Yoon), которая и сама недавно покинула OpenAI, гласящее: «Если у вас есть какие-либо принадлежащие вам паи, <..> вы должны подписать соглашение об отказе от претензий в течение 60 дней, чтобы сохранить такие паи». Существует также жёсткое соглашение о неразглашении, подписанное только для «согласования» уже переданного бывшему сотруднику акционерного капитала операционным директором Брэдом Лайткэпом (Brad Lightcap).
Учредительные документы управляющей акциями OpenAI холдинговой компании содержат множество фрагментов с формулировками, согласно которым она имеет практически неограниченные полномочия по изъятию акций у бывших сотрудников или блокированию их продажи — это подтверждают документы, переданные Vox бывшими сотрудниками OpenAI. Эти учредительные документы были подписаны 10 апреля 2023 года лично Сэмом Альтманом — генеральным директором OpenAI. В ответ на запрос издания о том, могли ли эти положения попасть в учредительные документы без ведома Альтмана, и если да то, каким образом, в компании прямого ответа не дали. Но господин Квон заявил: «Мы сожалеем о страданиях, которые это причинило прекрасным людям, усердно работавшим на нас. Мы работаем над тем, чтобы исправить это как можно скорее. Мы будем стараться ещё сильнее, чтобы стать лучше».

Бывшие сотрудники OpenAI предоставили Vox большой объём документов, в которых прослеживается закономерность — их действительно вынуждали подписывать крайне жёсткое соглашение о недискредитации и неразглашении под угрозой аннулирования их акционерного капитала. В двух случаях срок рассмотрения направленных OpenAI длинных и сложных документов об уходе истекал через семь дней, то есть у бывших сотрудников была неделя, чтобы решить, примут ли они навязываемые им правила игры или рискнут потерять миллионы долларов. Когда такие бывшие сотрудники просили дополнительное время для обращения за юридической помощью, их ждало серьёзное противодействие со стороны компании. «Общее соглашение о расторжении и освобождении от обязательств (General Release and Separation Agreement) требует вашей подписи в течение семи дней. Хотим убедиться, что вы понимаете: если вы не подпишете договор, это может повлиять на ваш капитал. Это действительно для всех, и мы просто делаем всё по регламенту», — предупредил по электронной почте представитель OpenAI бывшего сотрудника, который попросил две недели на изучение документа.

Журналисты Vox обратились к экспертам в области трудового права с просьбой оценить законность и соответствие отраслевой практике таких положений — один из адвокатов охарактеризовал угрозу изъятия уже переданного капитала «вопиющей и необычной». Некий увольняющийся сотрудник решил поупорствовать, и в отношении него руководство OpenAI применило альтернативные «средства юридического возмездия». Этот сотрудник отказался подписать соглашение в первой редакции и обратился за помощью к юристу — тогда компания изменила тактику: она пригрозила не аннулировать его долю, а запретить её продажу. «Если у вас есть какие-либо паи, и вы не подписываете документов об увольнении, важно понимать, что, помимо прочего, вы не получите права участвовать в будущих тендерных предложениях и других мероприятиях по ликвидности, которые мы можем спонсировать или содействовать им как частная компания», — заявили в OpenAI. То есть в случае отказа подписывать соглашение бывший сотрудник мог лишиться возможность продать свой акционерный капитал.

Посмотреть вложение image.webp
Это не пустая угроза на грани законности, предполагающая фактическое изъятие частной собственности у бывших сотрудников на усмотрение компании. Здесь в игру вступают особенности статуса OpenAI как частной компании. В публичной компании вроде Google акционерный капитал представляет собой просто ценные бумаги. Сотрудники получают зарплату частично в виде денежных средств и частично в виде акций Google, которые они могут держать или свободно продавать на фондовом рынке как любой акционер. В закрытых частных компаниях вроде OpenAI сотрудники так же получают зарплату частично в виде акций или чаще опционов за их покупку по низким ценам, но затем им приходится ожидать, когда появится возможность продать эти акции — и такая возможность может не появиться вообще. Крупные частные компании иногда объявляют «тендерные предложения», на которых действующие и бывшие сотрудники могут продать свой акционерный капитал. Их проводит и OpenAI, но их порядок держится в строжайшем секрете. Угрожая бывшему сотруднику лишением доступа к тендерным предложениям, компания фактически ставит миллионный капитал в зависимость от факта подписания сотрудником соглашения об уходе, при этом честно заявляя, что своей собственности он не лишается.

Бывшие сотрудники OpenAI, с которыми удалось побеседовать Vox, выражали беспокойство, что компания могла давать любые публичные заявления, но в реальности её учредительные документы предусматривают множество рычагов воздействия на работников, и отказ от какого-либо одного варианта не вселяет надежды. В них, в частности, говорится, что «по единоличному и абсолютному усмотрению компании» пакет акций любого увольняемого сотрудника может быть сокращён до нуля. Существует и положение, в котором говорится, что компания оставляет за собой полное право определять, кому из сотрудников разрешается участвовать в тендерных предложениях для продажи своей доли.

Первоначальное заявление Альтмана подверглось критике — есть мнение, что на практике он сделал недостаточно для того, чтобы исправить ситуацию для бывших сотрудников. Но компания направила в Vox заявление по электронной почте, заверив, что соответствующие положения документов прекратят действовать.

«Как мы рассказали сегодня сотрудникам, мы вносим важные изменения в процесс увольнения. Мы не изымали и никогда не будем изымать принадлежащий [им] капитал, даже если люди не подписывали документов об увольнении. Мы исключим положения о недискредитации из наших стандартных документов при увольнении и освободим бывших сотрудников от действующих обязательств о недискредитации, если только положение о недискредитации не было взаимным. Мы передадим это сообщение бывшим сотрудникам. Сожалеем, что меняем эти формулировки только теперь; это не отражает наших ценностей или [образа] компании, которой мы хотим быть», — заявили в OpenAI.
 
[Impact]OpenAI отложила запуск голосового помощника, чтобы он не наговорил лишнего[/Impact]

OpenAI отложила запуск долгожданной функции голосового помощника ChatGPT в стремлении гарантировать, что он сможет безопасно и эффективно обрабатывать запросы миллионов пользователей. Первоначально запуск функции намечался на конец июня — теперь его перенесли примерно на месяц.
Посмотреть вложение image.webp
Голосовой интерфейс чат-бота OpenAI анонсировала в мае на мероприятии, посвящённом обновлённой модели искусственного интеллекта GPT-4o, которая более эффективно обрабатывает текст, звук и изображения в реальном времени. Компания сообщила, что первоначально рассчитывала запустить голосового помощника для небольшого числа подписчиков ChatGPT Plus, но приняла решение потратить ещё месяц, чтобы «достичь нашей планки для запуска».

«Мы совершенствуем способность модели обнаруживать и отклонять определённый контент. Мы также работаем над повышением качества работы системы и готовим инфраструктуру к масштабированию для обеспечения выдачи ответов в реальном времени», — сообщила OpenAI. Это не самое приятное решение для компании, которая стремится сохранить лидерство в жёсткой конкурентной среде.

Всем платным подписчикам голосовой помощник, согласно плану, должен стать доступным осенью. OpenAI также рассказала, что готовится развернуть для чат-бота поддержку видео и трансляции экрана — более подробно об этих функциях она пообещала рассказать позже. В результате с выходом голосового помощника его возможности будут ограничены в сравнении с версией, которую компания демонстрировала на презентации в мае. К примеру, не будет работать функция компьютерного зрения, которая помогла ИИ консультировать пользователя по танцевальным движениям.
 
[Impact]OpenAI представляет новую ИИ-модель GPT-4o Mini, заменяющую GPT-3.5[/Impact]
Компания OpenAI официально представила облегченную и более доступную версию своей мощной языковой модели GPT-4o — нейросеть GPT-4o Mini. Новая модель предназначена для того, чтобы предложить разработчикам экономически выгодный и производительный инструмент, заменяющий GPT-3.5.
Посмотреть вложение image.webp
Экономическая выгода и высокая производительность
Использование языковых моделей OpenAI для создания приложений может быть затратным, что вынуждает разработчиков искать более доступные альтернативы, такие как Gemini 1.5 Flash от Google или Claude 3 Haiku от Anthropic. С запуском GPT-4o Mini конкуренция в этом сегменте станет более острой, предлагая разработчикам мощный инструмент по более доступной цене.

«GPT-4o Mini действительно соответствует миссии OpenAI — сделать ИИ более доступным для людей. Если мы хотим, чтобы ИИ приносил пользу в каждом уголке мира, в каждой отрасли, в каждом приложении, мы должны сделать ИИ гораздо более доступным», — заявил представитель OpenAI.

Доступность для пользователей
С сегодняшнего дня пользователи ChatGPT на тарифах Free, Plus и Team могут использовать GPT-4o Mini вместо GPT-3.5 Turbo. Пользователи на тарифе Enterprise получат такую возможность на следующей неделе. Модель GPT-3.5 больше не будет доступна для пользователей ChatGPT, но разработчики смогут продолжать использовать её через API, если не планируют переход на GPT-4o Mini. Точные сроки полного закрытия доступа к GPT-3.5 пока неизвестны.

Функциональность и тестирование
GPT-4o Mini поддерживает работу с текстом, изображениями, аудио- и видеоконтентом, и предназначен для решения простых задач, что делает его полезным для добавления различных узконаправленных функций в приложения сторонних разработчиков. В эталонном тесте MMLU новая модель набрала 82%, что значительно выше результата GPT-3.5 (70%), но ниже показателей GPT-4o (88,7%) и конкурирующих моделей Gemini Ultra (90%), Claude 3 Haiku (75,2%) и Gemini 1.5 Flash (78,9%).

Таким образом, запуск GPT-4o Mini представляет собой значительный шаг к удешевлению и упрощению доступа к мощным ИИ-технологиям, что может изменить рынок и стимулировать более широкое внедрение ИИ в различные приложения и отрасли.
 
Назад
Сверху