Что нового?
Пикник ТВ

This is a sample guest message. Register a free account today to become a member! Once signed in, you'll be able to participate on this site by adding your own topics and posts, as well as connect with other members through your own private inbox!

Последние обновления и нововведения в ChatGPT от OpenAI

[Impact]Появился первый искусственный интеллект, обученный в даркнете[/Impact]

DarkBERT может исследовать даркнет, выявляя и обозначая потенциальные угрозы для кибер-безопасности, в частности – утечку данных и программы-вымогатели.

Исследователи из Корейского института науки и передовых технологий (KAIST) в рамках совместного проекта с организацией анализа данных S2W представили DarkBERT – генеративную языковую модель искусственного интеллекта, обученную исключительно на наборах данных, полученных из так называемой тёмной сети или даркнета.

Целью проекта было создание не чего-то, подобного ChatGPT или Bard, а инструмента, способного анализировать наборы данных и давать ответы на конкретные запросы. DarkBERT может проверить, позволит ли использование даркнета в качестве набора данных инструментам искусственного интеллекта лучше понимать язык, используемый в этих сетях, что потенциально делает его ценным помощником для специалистов по проблемам кибербезопасности и сотрудников правоохранительных органов.

Исследователи использовали Tor для обучения модели искусственного интеллекта
Чтобы оптимизировать процесс адаптации DarkBERT к языку, используемому в даркнете, команда исследователей создала масштабную базу данных, сканируя сеть виртуальных тоннелей Tor. Команда также задействовала дедупликацию, фильтрацию данных и предварительную обработку, чтобы устранить этические проблемы, связанные с использованием контента из «тёмной сети», поскольку он часто содержит конфиденциальную информацию.

В течение 16 дней модель «кормили» данными из двух наборов. При этом эти данные были предварительно отредактированы, чтобы извлечь из них названия организаций-жертв, детали утечки данных, заявления об угрозах и нелегальные изображения. Более тысячи страниц из данного набора данных относились к категории развлечений для взрослых.

Учитывая потенциально рискованный характер материалов даркнета, DarkBERT в ближайшее время не будет доступен широкой общественности. Однако, уже сейчас можно отправлять запросы на использование данной модели искусственного интеллекта в академических целях.
 
[Impact]В работе ChatGPT произошёл глобальный сбой из-за повышенной нагрузки[/Impact]

В работе чат-бота на основе искусственного интеллекта ChatGPT наблюдался глобальный сбой — жалобы поступали от пользователей из США, Европы, Индии, Японии и Австралии. В штатном режиме работал вход в учётную запись и некоторые другие службы. OpenAI признала наличие проблемы, и к настоящему моменту работа ChatGPT уже восстановлена.

На момент сбоя разработавшая платформу компания OpenAI подтвердила факт неполадок, сообщила, что причина неисправности выявлена, и ведётся работа над её устранением. Примечательно, что сбой наблюдался только на странице веб-интерфейса ChatGPT — в рабочем состоянии оставались инструменты API, а также лаборатория платформы и площадка Playground.

Когда работа ChatGPT была полностью восстановлена, OpenAI опубликовала сообщение и заявила, что сбой был вызван повышенной нагрузкой, которую база данных платформа в течение нескольких часов создавала на центральные процессоры инфраструктуры. Вызвавшая неполадки проблема была выявлена и устранена, а специалисты компании продолжают следить за работоспособностью систем.
 
[Impact]OpenAI пригрозила уйти из Европы из-за грядущего закона об ИИ[/Impact]

Гендиректор OpenAI Сэм Альтман (Сэм Альтман) предупредил, что компания может отказаться предоставлять услуги на Европейском рынке в ответ на разрабатываемые в регионе меры госрегулирования отрасли искусственного интеллекта.
image.webp
В разговоре с журналистами в Лондоне он отметил, что у него «множество опасений» в отношении европейского «Закона об ИИ», который дорабатывается парламентариями. Сфера действия документа недавно была расширена — в него включили разработчиков так называемых «основополагающих моделей», то есть ИИ-платформ, на которых работают службы вроде ChatGPT и DALL-E от OpenAI. «Важны детали. Мы постараемся выполнять требования, но если не сможем, то прекратим работу», — цитирует Альтмана Financial Times.

Беспокойство у Альтмана вызвала норма, согласно которой системы формата ChatGPT будут отнесены к разряду «высокорисковых», и OpenAI придётся соответствовать требованиям к безопасности и прозрачности. Компании придётся раскрывать информацию о вычислительной мощности, необходимой для ИИ-моделей, а также о материалах, которые используются для их обучения, в том числе о защищённых авторским правом. Ранее OpenAI и сама раскрывала информацию подобного рода, но отказалась от этой практики, поскольку коммерческая ценность её разработок резко подскочила — её соучредитель Илья Суцкевер (Ilya Sutskever) прямо сказал, что компания была неправа.

Раскрытие информации об используемых при обучении ИИ материалах может вызвать череду исков со стороны их правообладателей, а системы генеративного ИИ вроде ChatGPT и DALL-E действительно обучаются на больших объёмах данных из интернета, и значительная их часть защищена авторским правом. Фотобанк Getty Images сейчас пытается засудить компанию Stability AI — разработчика генератора изображений Stable Diffusion.

Господин Альтман и сам недавно выступал в Конгрессе США с предложением ввести жёсткое госрегулирование систем ИИ. Разница в том, что его предложение было направлено на перспективные платформы, а евродепутаты готовят нормы в соответствии с реалиями дня сегодняшнего.
 
[Impact]Адвокат воспользовался ИИ-ботом ChatGPT и горько об этом пожалел[/Impact]

Стремительно набирающие популярность чат-боты на основе искусственного интеллекта могут выдавать за истину вымышленные факты, что приводит пользователей к ложным выводам. Эта особенность сыграла злую шутку с адвокатом Стивеном Шварцем (Steven Schwartz) из юридической фирмы Levidow, Levidow & Oberman, использовавшим ИИ-чат-бота ChatGPT в работе над делом своего клиента Роберто Мата (Roberto Mata).

Роберто Мата подал в суд на авиакомпанию Avianca в связи с получением травм из-за столкновения с сервировочной тележкой во время полёта в 2019 году, заявив о халатности со стороны её сотрудника. Стивен Шварц, адвокат Levidow, Levidow & Oberman, имеющий лицензию на адвокатскую практику в Нью-Йорке более трёх десятилетий, прибегнул к помощи ChatGPT для сбора данных о предыдущих подобных судебных процессах, итоги которых свидетельствовали бы в пользу его подзащитного.

Как выяснилось, ChatGPT предоставил ему вымышленные факты, из-за чего адвокату теперь грозит потеря лицензии. В конце апреля адвокаты Avianca из Condon & Forsyth направили судье Кевину Кастелю (Kevin Castel) Федерального окружного суда Южного округа Нью-Йорка письмо, в котором поставили под сомнение подлинность приведённых адвокатом дел.

Судья после проверки отметил в постановлении, что по крайней мере шесть дел, представленных Шварцем в качестве прецедентов, «кажутся фиктивными судебными решениями с фиктивными цитатами и фиктивными внутренними отсылками к источнику».

Шварц в письменном заявлении под присягой сообщил 25 апреля, что до этого дела он никогда не использовал ChatGPT в качестве источника юридической информации и, следовательно, «не знал о возможности того, что его содержание может быть ложным». Он добавил, что «очень сожалеет о том, что использовал генеративный искусственный интеллект для дополнения правового исследования, проведённого здесь, и никогда не будет делать этого в будущем без абсолютной проверки его подлинности».
 
[Impact]Ведущие разработчики ИИ назвали свои продукты угрозой, сравнимой с пандемией и ядерной войной[/Impact]

Главы компаний OpenAI, Google DeepMind, Anthropic и других лабораторий искусственного интеллекта предупредили, что технологии, над которыми они работают, могут поставить под угрозу существование человечества, поэтому их следует отнести к категории социальных рисков наряду с пандемиями и ядерными войнами.


«Снижение риска вымирания из-за ИИ должно быть глобальным приоритетом наравне с другими рисками общественного масштаба, такими как пандемии и ядерные войны», — гласит открытое письмо лидеров отрасли, состоящее всего из одного предложения. Как ожидается, документ будет опубликован некоммерческой организацией Center for AI Safety. Его подписали более 350 руководителей, исследователей и инженеров, работающих в сфере ИИ.

Среди подписантов, в частности, значатся: глава OpenAI Сэм Альтман (Sam Altman); глава подразделения Google DeepMind Демис Хассабис (Demis Hassabis); глава Anthropic Дарио Амодеи (Dario Amodei), а также Джеффри Хинтон (Geoffrey Hinton) и Йошуа Бенджио (Yoshua Bengio) — двое из трёх обладателей Премии Тьюринга, считающиеся «крёстными отцами» современного искусственного интеллекта, тогда как третий, Янн ЛеКун (Yann LeCun), возглавляющий исследования в области ИИ в Meta*, на текущий момент подпись ещё не поставил.


В обществе действительно растёт обеспокоенность по поводу дальнейшего развития систем искусственного интеллекта. Есть мнение, что платформы масштаба ChatGPT смогут использовать для распространения дезинформации и пропаганды, кроме того, только в Европе и США из-за ИИ могут лишиться работы 300 млн человек. Эти опасения разделяют и лидеры отрасли, которые тем самым ставят сами себя в необычное положение: они утверждают, что разрабатываемые ими технологии представляют серьёзные риски и должны жёстко регулироваться государством.

Некоторые скептики уверяют, что технологии ИИ пока слишком незрелы, чтобы представлять ощутимую угрозу человечеству, поэтому следует сосредоточиться на вопросах краткосрочной перспективы — предвзятых и некорректных ответах систем ИИ. Другие же считают, что сравнимый с возможностями человека ИИ появится уже в ближайшем будущем. Во избежание возможных негативных последствий лидеры отрасли предлагают создать организацию, направленную на регулирование ИИ — это должен быть своего рода аналог Международного агентства по атомной энергии (МАГАТЭ), которое пытается не допустить распространение и применение ядерного оружия.

В марте более тысячи исследователей и представителей технологической отрасли подписали открытое письмо с призывом на полгода приостановить разработку передовых систем ИИ, объявив их угрозой человечеству. Очередной документ в оригинале содержит всего 22 слова — лаконичная формулировка призвана объединить экспертов, мнения которых могут расходиться по отдельным вопросам. «Думаю, если с этой технологией что-то пойдёт не так, то всё будет совсем не так. И мы хотим заявить об этом. Мы хотим сотрудничать с правительством, чтобы это предотвратить», — заявил глава OpenAI Сэм Альтман в ходе недавних слушаний в Конгрессе США.
 
[Impact]Первые пользователи отмечают, что ИИ-поиск Google тормозит[/Impact]

В мае Google представила экспериментальную функцию под названием Search Generative Experience (SGE), которая использует мощности искусственного интеллекта Google для обобщения результатов поиска. Доступ к функции получило ограниченное количество человек и теперь некоторые из тестировщиков сообщают, что поиск стал медлительнее и иногда «выходит из строя».


Главная идея новой функции заключается в том, чтобы пользователю не приходилось переходить по списку ссылок или вводить что-то ещё в поле поиска — вместо этого Google просто покажет ему то, что он ищет. В теории ИИ должен был облегчить поиск по сложным или некорректно составленным запросам. Однако, пользователи утверждают об обратном.

SGE доступен только тем, кто заранее записался в сервисе Search Labs. Сервис работает следующим образом: после ввода запроса поисковик выводит под строкой поиска обобщённый ответ. Тем не менее, тестировщики сообщают, что на ПК ответы часто дополняются лишней информацией в виде карточек справа, а на мобильных устройствах (пока только в приложении Google) под результатом поиска.


Пользователи также отмечают, что поиск иногда «выходил из строя» даже при вводе некоторых очевидных запросов, например YouTube, Amazon, Wordle, Twitter и Roblox. При использовании этих слов он выдавал сообщение об ошибке: «Для этого запроса недоступен обзор с помощью искусственного интеллекта». По запросам Facebook*, Gmail, Apple и Netflix, поиск тем не менее работал верно и выдавал ответ в формате SGE, однако по словам пользователей результаты загружались «целую вечность».


Ответ по запросу Gmail появился быстрее всего, примерно через две секунды. Результаты по словам Netflix и Facebook* заняли около трех с половиной секунд, а Apple — около пяти секунд. Но эти результаты касаются лишь односложных запросов — ответ по запросу iPhone 13 Mini загружался более шести секунд.
 
[Impact]Как ChatGPT, но без этических границ и ограничений — запущен хакерский ИИ-бот WormGPT[/Impact]

Неизвестный разработчик создал свой собственный аналог ИИ-чат-бота ChatGPT, который в отличие от оригинала ориентирован на работу по ту сторону закона: чат-бот WormGPT предназначается для помощи киберпреступникам.
Посмотреть вложение image.webp
WormGPT появился на свет в марте, и только к июню разработчик начал продавать доступ к платформе на популярном хакерском форуме. В отличие от добропорядочных ChatGPT или Google Bard хакерский чат-бот лишён каких-либо ограничений, препятствующих ответам на вопросы о незаконной деятельности. В подтверждение этих слов разработчик привёл снимки экрана, показывающие, что можно попросить WormGPT написать вредонос на языке Python и получить у него совет по организации кибератаки. В качестве платформы при создании чат-бота использовалась относительно устаревшая большая языковая модель GPT-J с открытым исходным кодом от 2021 года. Она была обучена на материалах, связанных с разработкой вредоносного ПО, и на свет появился WormGPT.

Эксперты специализирующейся на кибербезопасности компании SlashNext опробовали WormGPT, и в ответ на их запрос чат-бот составил фишинговое электронное письмо для компрометации корпоративной электронной почты — оно было убедительным и включало хитроумные стратегические ходы, направленные на успешное осуществление атаки.

Доступ к WormGPT разработчик оценил в €60 в месяц или €550 в год. Продукт, возможно, пока ещё далёк от совершенства: один из покупателей пожаловался на низкую производительность платформы. Но, так или иначе, это очевидный признак того, что генеративный искусственный интеллект может стать оружием в руках киберпреступников. И со временем подобные технологии будут совершенствоваться.
 
[Impact]ChatGPT научили запоминать, кем является пользователь и чего хочет — это упростит составление запросов[/Impact]

OpenAI запустила бета-тестирование функции «Пользовательские инструкции» (Custom Instructions), с помощью которой пользователь может сообщить чат-боту сведения о себе и определить настройки сервиса, пишет The Verge. Функция доступна с сегодняшнего дня по подписке для участников программы ChatGPT Plus во всех странах, кроме Великобритании и ЕС.


Новая функция позволит устранить необходимость в постоянной преамбуле к вопросам, задаваемым чат-боту. Вместо того чтобы формировать длинный вопрос для ChatGPT со всем необходимым контекстом и информацией, можно просто добавить этот контекст и информацию в свои пользовательские инструкции, чтобы не повторять их каждый раз. Например, если вы сообщите системе, что преподаёте в третьем классе, ответы на запросы будут адаптироваться ИИ-ботом с учётом нужной возрастной группы учащихся.

Настройки пользовательских инструкций подчиняются тем же правилам, что и сам ИИ-бот, поэтому попытки спровоцировать его неэтичное или неприемлемое поведение будут безрезультатными. ChatGPT также удаляет личную информацию, которая может быть использована для идентификации пользователя.

Следует отметить, что OpenAI представляет новую функцию как способ упростить составление запросов, а не как первый шаг к всеобъемлющему личному помощнику на основе ИИ.
 
[Impact]OpenAI отныне сканирует интернет с помощью GPTBot[/Impact]


На фоне продолжающихся споров по поводу законности извлечения контента web-сайтов из интернета без согласия владельца, OpenAI выпустила GPTBot для автоматического сканирования сайтов. Этот бот будет собирать данные, имеющиеся в публичном доступе, для тренировки моделей искусственного интеллекта. При этом в компании обещают обеспечить прозрачность процесса и ответственный подход к нему.

В документации OpenAI, сопровождающей выпуск web-сканера, говорится о том, что он будет отфильтровывать источники, требующие платного доступа, а также изымать персональные данные (PII) или тексты, нарушающие политику компании. Создатели GPT утверждают, что предоставление боту доступа к сайтам поможет повысить точность и возможности систем искусственного интеллекта будущего. Его можно идентифицировать с помощью следующего кода:

Код:
User agent token: GPTBot
Full user-agent string: Mozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; GPTBot/1.0; +https://openai.com/gptbot)
С другой стороны, вы также можете запретить доступ GPTBot к вашему сайту, добавив GPTBot к файлу robot.txt его корневого каталога. Это означает, что владельцам web-сайтов придётся самостоятельно выключать доступ OpenAI к своим ресурсам, вместо того чтобы соглашаться на обучение.
 
[Impact]ChatGPT научился понимать голосовые команды и работать с изображениями[/Impact]
OpenAI расширила варианты взаимодействия с ChatGPT. Новая версия чат-бота теперь принимает в качестве промтов (подсказок) не только текст, но также изображения и голосовые команды. Для коммерческих пользователей новые возможности станут доступны в ближайшие две недели, а остальным придётся какое-то время подождать.


Общение голосом с ChatGPT в чём-то похоже на разговор с любым голосовым помощником, но, по утверждению OpenAI, качество ответов значительно выше благодаря улучшенной базовой технологии. Пользователь нажимает кнопку и произносит вопрос, ChatGPT преобразует его в текст и передаёт в большую языковую модель, получает ответ, преобразует его обратно в речь и произносит ответ вслух.

Новые возможности ChatGPT опираются на большую языковую модель Whisper, которая выполняет значительную часть работы по преобразованию речи в текст и обратно. По утверждению OpenAI, новая модель может генерировать «человеческий голос из текста и образца речи длиной в несколько секунд». Пока доступно пять вариантов голоса ChatGPT, но OpenAI видит в этой модели гораздо больший потенциал.

Возможность создать синтезированный голос любого человека, опираясь всего на несколько секунд его речи, даёт широкое поле деятельности для киберпреступников, признаёт OpenAI в анонсе новых функций: «Это новые риски, такие как возможность злоумышленников выдать себя за общественных деятелей или совершить мошенничество». По утверждению компании, модель недоступна для широкого использования именно по этой причине: OpenAI планирует ограничить модель конкретными вариантами использования и партнёрскими соглашениями.

Что касается запроса в ChatGPT при помощи изображения, пользователю достаточно сфотографировать или нарисовать предмет своего интереса и отправить боту. В процессе общения можно применять текстовые или голосовые подсказки, чтобы уточнить запрос или ограничить область поиска.

Очевидно, что использование изображений в качестве подсказки для чат-бота также имеет свои потенциальные проблемы. В первую очередь это касается запроса о личности человека на фотографии, хотя OpenAI заявляет, что ограничила «способность ChatGPT анализировать и делать прямые заявления о людях» как по соображениям точности, так и по соображениям конфиденциальности.

Спустя почти год после первого запуска ChatGPT OpenAI продолжает расширять границы применения и использования своего чат-бота, пытаясь избежать связанных с ним проблем и недоработок. В частности, компания намеренно ограничивает возможности своих новых ИИ-моделей. Но такой подход не будет работать вечно. По мере того, как все больше людей используют голосовое управление и поиск изображений, а ChatGPT становится мультимодальным и полезным виртуальным помощником, удерживать ИИ в рамках будет все труднее и труднее.
 
[Impact]ChatGPT снова получил доступ в интернет для поиска ответов[/Impact]
OpenAI сообщила, что ChatGPT снова получил возможность искать информацию в интернете — чат-бот предлагает ответы, взятые напрямую из «актуальных и авторитетных» источников, которые он цитирует. Пока функция Browse with Bing доступна для подписчиков Plus и Enterprise, но впоследствии компания пообещала её «всем пользователям».


Прямой доступ в интернет есть у Bing Chat в Windows, Edge и в плагинах других браузеров — система предоставляет актуальную информацию, как и Google Bard. Оба чат-бота добавляют к ответам ссылки на источники — это же делает теперь и ChatGPT. Пока функция доступна только в веб-версии сервиса, причём её необходимо отдельно включать в настройках. На практике поиск в интернете работает не очень быстро, но всё-таки даёт результат, и если учесть склонность систем искусственного интеллекта к галлюцинациям, то возможность быстро проверить информацию трудно переоценить.

Ранее OpenAI уже открывала ChatGPT доступ в интернет, но в июне Browse with Bing пришлось отключить из-за злоупотреблений: пользователи быстро сообразили, что могут легко уговорить чат-бот предоставить им платный контент по прямому URL-адресу. После этого OpenAI добавила к автоматическому сетевому сканеру строку user-agent со значением GPTBot, что позволило веб-мастерам закрывать платформе доступ к своим сайтам или его разделам через служебный файл robots.txt.
 
[Impact]Google Bard: революция в мире ИИ-чат-ботов[/Impact]

Искусственный интеллект продолжает шагать вперед семимильными шагами, и на этот раз нововведения представились в облике обновленного чат-бота от Google – Bard. Этот инструмент не просто обладает умением генерировать текстовые ответы на запросы пользователя, но и делает это в режиме реального времени, предоставляя пользователю возможность вмешаться в процесс создания ответа.



Возможность наблюдения за процессом генерации ответа – это нечто новое в мире ИИ-чат-ботов. Ранее пользователю приходилось дожидаться, пока система полностью сформирует и отправит ответ. Теперь же можно наблюдать за каждым словом, которое генерирует Bard, и при необходимости прервать его, если направление ответа кажется неверным или нежелательным. Это открывает новые горизонты для интерактивности и управления процессом общения с ИИ.

Процесс активации режима "ответ в реальном времени" максимально упрощен и доступен через настройки системы. Пользователь может легко переключаться между режимами "Отвечать в реальном времени" и "Отвечать по завершении", выбирая наиболее удобный для себя вариант.



Функция прерывания ответа также является значительным нововведением. Она позволяет пользователю в любой момент остановить генерацию текста и задать другой вопрос или попросить предоставить другой ответ. Таким образом, время пользователя экономится, а общение с ИИ становится более гибким и удобным.

Google Bard также предоставляет пользователю функцию просмотра альтернативных ответов, которую можно активировать с помощью кнопки "Посмотреть другие варианты". Это дает возможность выбрать наиболее подходящий ответ из предложенных вариантов. Кроме того, пользователям доступен выбор стиля ответа – от "повседневного" до "профессионального".


Google Bard теперь также предлагает возможность сверки ответов с информацией в поиске Google, что делает его еще более надежным инструментом для получения точной и проверенной информации.

Кроме того, теперь при отправке переписки с Bard другому пользователю, последний сможет видеть все прилагаемые к чату изображения. Это добавляет еще один уровень удобства и эффективности в общении с ИИ.

Заключение:
Google Bard с его новыми функциями реального времени и возможностью прерывания ответа открывает новые горизонты в области интерактивного общения с искусственным интеллектом. Теперь пользователи могут не просто получать ответы на свои вопросы, но и активно участвовать в процессе их формирования, что делает общение с ИИ более гибким, эффективным и удобным.
 
[Impact]OpenAI сообщила, что работает над разработкой новой нейросети GPT-5, следующего поколения после GPT-4.[/Impact]

image.webp

Гендиректор компании Сэм Альтман подтвердил, что инженеры OpenAI уже занимаются разработкой этой модели. Он не назвал точную дату выпуска GPT-5, но отметил, что для её обучения потребуется больше данных, чем для предыдущих моделей.

Кроме того, OpenAI планирует привлечь дополнительные инвестиции от Microsoft и других инвесторов для развития своих проектов в области искусственного интеллекта. Средства будут использоваться для финансирования дорогостоящей разработки и обучения больших языковых моделей.

GPT-4, представленный в марте, уже был значительным улучшением по сравнению с предыдущими моделями и стал более точным в отвечании на вопросы и выполнении различных задач. OpenAI также представила улучшенную версию этой модели под названием GPT-4 Turbo.

Целью OpenAI является создание сильного искусственного интеллекта (AGI), способного выполнять разнообразные задачи на уровне человеческого интеллекта. Разработка больших языковых моделей, таких как GPT-5, является одним из этапов на пути к достижению этой цели.

OpenAI ожидает, что для обучения GPT-5 понадобится больше данных, чем для предыдущих моделей. Они планируют получать необходимую информацию из общедоступных источников и от других компаний. OpenAI недавно запустила партнерскую инициативу, которая позволяет сторонним организациям предоставлять данные для обучения своих проектов в области искусственного интеллекта.

Разработка и обучение больших языковых моделей требуют значительных ресурсов, включая вычислительные мощности и специализированные аппаратные ускорители. Стоимость аппаратных решений, таких как флагманская модель NVIDIA H100, может достигать значительных сумм, что делает этот процесс финансово затратным. Тем не менее, OpenAI ожидает, что к концу года ситуация с поставками ускорителей улучшится, и это поможет им продолжить разработку GPT-5 и других проектов.

OpenAI также работает над привлечением дополнительных инвестиций от Microsoft и других инвесторов. Microsoft уже инвестировала в OpenAI $10 миллиардов при оценке компании в $29 миллиардов. В рамках долгосрочных целей OpenAI стремится к созданию искусственного общего интеллекта (AGI), и разработка больших языковых моделей является важным этапом на пути к этой цели.

Эта новость подчеркивает важность развития искусственного интеллекта и его применения в различных областях. Большие языковые модели, такие как GPT-5, имеют потенциал изменить способ взаимодействия людей с компьютерами и автоматизации различных задач. Они также могут найти применение в областях, таких как медицина, образование, автомобильная промышленность и многих других.
 
[Impact]"Сэм Альтман Уволен с Поста Гендиректора OpenAI: Новым Руководителем Станет Мира Мурати"[/Impact]

Совет директоров OpenAI, известной своими разработками в области искусственного интеллекта, в том числе ChatGPT, объявил о смене руководства в компании. Сэм Альтман покидает пост генерального директора, а его место временно займёт Мира Мурати, до этого занимавшая должность технологического директора.


Решение о смене руководства последовало после тщательного анализа советом директоров, который пришёл к выводу, что Альтман не был откровенен в общении с советом, что, по их мнению, мешало ему выполнять свои обязанности. В официальном заявлении отмечается, что совет директоров утратил уверенность в способности Альтмана продолжать руководить компанией.

Мира Мурати, занимавшая руководящие позиции в OpenAI на протяжении пяти лет, будет руководить компанией в переходный период. Совет директоров выразил полную уверенность в её способностях и опыте управления.

Сэм Альтман, комментируя своё увольнение, выразил признательность за время, проведенное в OpenAI, и отметил значимость работы компании. Он не стал углубляться в детали увольнения, но обещал поделиться планами на будущее.

В интернете уже появились различные теории о причинах увольнения Альтмана. Одна из них предполагает, что он скрыл от совета директоров разработку сильного искусственного интеллекта (AGI) в OpenAI. Другая, более фантастическая теория, утверждает, что AGI захватил контроль над компанией и уволил своего руководителя.

Это увольнение ставит перед компанией новые вызовы и вопросы о её будущем курсе в области разработки и исследования искусственного интеллекта. Смена руководства может означать новый этап в развитии компании и её стратегии в области ИИ.
 
[Impact]"OpenAI: Симфония Хаоса и Неопределенности в Стенах Техгиганта"[/Impact]

Совет директоров OpenAI в последнее время стал ареной неопределенности и хаоса, наполненных неожиданными поворотами событий. Вечер пятницы стал подлинным пиром непредсказуемости, который продолжает бушевать на страницах новостей, постоянно обновляясь новыми деталями, как если бы это было сценарием телесериала.



Отставка генерального директора OpenAI, Сэма Альтмана, стала звучным аккордом в этой симфонии хаоса. Совет директоров, поколебавшись на краю пропасти, теперь обсуждает возможность возвращения Альтмана на пост главы компании. Этот поворот событий, казалось бы, непредсказуем и, безусловно, добавляет свою дозу "недоумения" к уже сложной истории.

Изначально причины отставки Альтмана казались достаточно ясными: конфликты в руководстве и разногласия по стратегии развития компании. Однако, как выяснилось, сюжет гораздо сложнее. Разногласия с членами совета директоров, стремление Альтмана к поиску инвесторов и создание дочерней компании – все эти элементы создают калейдоскоп перемен и "разрывности".

Конфликт с научным руководителем OpenAI, Ильёй Суцкевером, стал еще одним виражом в этой запутанной истории. Ограничение полномочий Суцкевера и его успех в завоевании поддержки членов совета директоров добавляют драматизма и "разрывности" в ход событий.

Внезапность объявления об отставке и последующие действия совета директоров создают впечатление полного хаоса внутри компании. Предложение рассмотреть возможность возвращения Альтмана на пост генерального директора добавляет новый элемент неопределенности и поднимает вопрос о будущем OpenAI.

Сотрудники OpenAI, сталкиваясь с нестабильностью и неопределенностью, начинают покидать компанию, усиливая чувство неустойчивости. Возможный раскол компании и создание нового стартапа под руководством Альтмана усугубляют ситуацию, создавая непредсказуемый и "разрывный" ландшафт.

Таким образом, события в OpenAI стали настоящим театром неопределенности и драмы, где каждый акт приносит новые повороты и вызывает вопросы о будущем компании.
 
[Impact]"Переворот в OpenAI: Microsoft Может Пересмотреть Финансирование После Увольнения Сэма Альтмана"[/Impact]

Недавнее увольнение Сэма Альтмана с поста генерального директора OpenAI вызвало неопределенность в отношениях между стартапом и Microsoft, одним из его крупнейших инвесторов. Изначально Microsoft планировала вложить в OpenAI $10 млрд, но значительная часть этой суммы была предназначена для оплаты облачных вычислительных мощностей, а не прямого финансирования стартапа.


События в OpenAI, включая отстранение Альтмана из-за конфликта с членами правления, могут заставить Microsoft пересмотреть условия сотрудничества. Генеральный директор Microsoft Сатья Наделла выразил недовольство решением уволить Альтмана, утверждая, что это действие дестабилизировало ключевого партнёра Microsoft. Вопрос о том, нарушает ли увольнение Альтмана условия договоренности между Microsoft и OpenAI, остается открытым.

Microsoft сохранит доступ к существующим генеративным моделям OpenAI, независимо от исхода данной ситуации. Однако, если Microsoft решит приостановить дальнейшее финансирование OpenAI, это может оказать существенное влияние на развитие стартапа. Такое развитие событий также подчеркивает значимость технологий OpenAI для продуктов Microsoft, включая Windows и GitHub.

В ответ на сложившуюся ситуацию главный операционный директор OpenAI Брэд Лайткэп выразил озабоченность процессом увольнения и обещал работать над разрешением конфликта. По его словам, в увольнении Альтмана не было обнаружено никаких нарушений финансовых или деловых практик.

Ситуация вокруг OpenAI и Microsoft остается напряженной, и исход конфликта может существенно повлиять на дальнейшее развитие сферы генеративных нейросетей и влияние искусственного интеллекта в индустрии.
 
[Impact]OpenAI вслед за Сэмом Альтманом покинули трое старших научных сотрудников[/Impact]
Вслед за генеральным директором OpenAI Сэмом Альтманом (Sam Altman), которого сместил с должности совет директоров, компанию покинули трое старших научных сотрудников, сообщает Hindustan Times со ссылкой на информацию агентства Reuters.


Трое старших исследователей OpenAI Якуб Пахоцкий (Jakub Pachocki), Александр Мадри (Aleksander Madry) и Шимон Сидор (Szymon Sidor) сообщили коллегам о намерении уйти из компании. Пахоцкий занимал пост директора по исследовательской работе, Мадри возглавлял отдел по оценке потенциальных рисков, а Сидор проработал в OpenAI семь лет. Кроме них свои должности председателя совета директоров и президента компании оставил её соучредитель Грег Брокман (Greg Brockman).

Накануне совет директоров компании OpenAI, выпустившей ChatGPT и задавшей тренд на технологии искусственного интеллекта, уволил генерального директора Сэма Альтмана — он якобы «не был последовательно откровенен в общении с советом директоров», в связи с чем тот «больше не уверен в его способности продолжать руководить OpenAI». Временно исполняющей обязанности гендиректора OpenAI назначена технологический директор Мира Мурати (Mira Murati).

Решение повергло в шок всю технологическую отрасль. Основные инвесторы компании, включая тех, что были с ней с момента основания, предварительных уведомлений о намерении совета директоров не получили. И даже Microsoft, которая только в этом году вложила в OpenAI $10 млрд и стала стратегическим партнёром компании, узнала об отставке Альтмана всего за минуту до оглашения этой информации.
 
[Impact]Кризис в OpenAI: Массовые Увольнения, Внутренние Разногласия, и Вмешательство Microsoft[/Impact]



В мире искусственного интеллекта разразился конфликт, который может кардинально изменить будущее одной из ведущих компаний в этой области — OpenAI. Ситуация в компании обострилась после недавнего увольнения её генерального директора Сэма Альтмана, что вызвало волну недовольства среди сотрудников и привело к потенциально масштабным изменениям в индустрии.

События, предшествующие кризису:
Конфликт в OpenAI начался с неожиданного решения совета директоров уволить генерального директора Сэма Альтмана и отстранил президента компании Грега Брокмана. Согласно заявлению совета, Альтман обвинялся в неоткровенности в общении с советом, что, по мнению членов совета, мешало ему эффективно управлять компанией.

Ответ сотрудников:
Реакция на это решение среди сотрудников была мгновенной и резкой. Более 505 сотрудников подписали открытое письмо, в котором выразили свое недовольство процессом увольнения и потребовали восстановления Альтмана на посту генерального директора. Они обвинили совет директоров в подрыве миссии компании и угрожали массовым увольнением.

Роль Ильи Суцкевера:
Особую роль в этой ситуации сыграл Илья Суцкевер, главный научный сотрудник компании и член совета директоров, который был обвинен в координации «переворота» в OpenAI. В своем заявлении в социальной сети он выразил сожаление о своем участии в действиях совета директоров и обещал сделать все возможное для воссоединения компании.

Вмешательство Microsoft:
Сложившаяся ситуация привлекла внимание Microsoft, ключевого инвестора и партнера OpenAI. Генеральный директор Microsoft Сатья Наделла объявил о создании нового исследовательского подразделения ИИ под руководством Альтмана и Брокмана. Это предложение включало возможность для сотрудников OpenAI перейти в новое подразделение Microsoft.

Последствия для OpenAI и индустрии ИИ:
Это решение может иметь далеко идущие последствия как для OpenAI, так и для всей индустрии искусственного интеллекта. Возможный уход значительной части команды OpenAI в Microsoft может ослабить позиции компании в качестве лидера в разработке ИИ, а также изменить баланс сил на рынке ИИ-технологий.

Текущие события в OpenAI являются примером того, как внутренние конфликты и управленческие решения могут оказывать существенное влияние на будущее высокотехнологичных компаний. Этот случай подчеркивает значимость прозрачности и открытости в общении между управлением и сотрудниками, а также важность взаимного доверия и уважения для поддержания стабильности и продуктивности.

Влияние на отрасль ИИ:
Ситуация в OpenAI может привести к переосмыслению стандартов и практик в отрасли искусственного интеллекта, особенно в отношении управления, принятия решений и корпоративной культуры. Она также поднимает вопросы о балансе между коммерческими интересами и исследовательской миссией в сфере ИИ.

Перспективы для Microsoft:
Возможный переход значительной части команды OpenAI в Microsoft может усилить позиции последней в сегменте разработки искусственного интеллекта. Это также может ускорить интеграцию продвинутых ИИ-технологий в продукты и услуги Microsoft, что потенциально увеличит её конкурентоспособность на рынке.

Заключение:
Кризис в OpenAI является знаковым событием в мире искусственного интеллекта, подчеркивающим важность устойчивого управления и внутренней стабильности. Он также подтверждает растущее влияние крупных технологических компаний, таких как Microsoft, в этой динамично развивающейся сфере. Оставшиеся вопросы о будущем OpenAI и её вкладе в искусственный интеллект остаются открытыми и будут предметом внимания всей индустрии в ближайшем будущем.
 
[Impact]Microsoft Готова Принять Сотрудников OpenAI, Сохраняя Их Зарплаты[/Impact]

Новый Поворот в Ситуации OpenAI:
В свете недавних событий в OpenAI, где совет директоров компании уволил генерального директора Сэма Альтмана, Microsoft предпринимает решительные шаги. Генеральный директор Microsoft Сатья Наделла объявил о создании новой исследовательской группы ИИ, куда присоединится Альтман и его команда. Это объявление последовало после письма от более чем 700 сотрудников OpenAI, где они выразили готовность последовать за своим бывшим руководителем.



Условия Перехода в Microsoft:
Технический директор Microsoft Кевин Скотт заявил, что сотрудники OpenAI, решившие перейти в Microsoft, сохранят свой текущий уровень зарплат. Этот шаг подчеркивает стремление Microsoft к укреплению своего ведущего положения в области искусственного интеллекта.

Неопределённость Будущего OpenAI:
Несмотря на заявления Microsoft, будущее OpenAI остается туманным. Непонятно, где в итоге будет работать Альтман и другие ключевые фигуры OpenAI. Совет директоров OpenAI, состоящий из четырех человек, включая Илью Суцкевера, который подписал угрожающее письмо, не предоставил конкретных причин отстранения Альтмана.

Реакция и Планы Microsoft:
Наделла подчеркнул, что Microsoft намерена продолжать сотрудничество с OpenAI, независимо от того, останутся ли сотрудники в компании или перейдут в Microsoft. Он подчеркнул готовность к инновациям, но также выразил недовольство текущим управлением OpenAI.

Заключение:
Это развитие событий выделяет Microsoft как ключевого игрока в сфере ИИ, готового привлекать таланты и поддерживать инновации. В то же время, ситуация в OpenAI ставит под сомнение её будущую роль и влияние в индустрии ИИ. События последних дней открывают новую главу в сфере искусственного интеллекта, где большие корпорации активно вовлекаются в организационные и технологические изменения.
 
[Impact]Сложности в Управлении OpenAI:[/Impact]
Скандал вокруг увольнения Сэма Альтмана из OpenAI высветил глубокие внутренние разногласия в компании. Конфликт между коммерческими целями и научными исследованиями ИИ стал ключевой проблемой, с которой столкнулось руководство. Это подчеркивает сложность балансирования между коммерческим успехом и социальной ответственностью в области разработки ИИ.

Возвращение Альтмана и Новый Совет Директоров:
Восстановление Альтмана в должности гендиректора OpenAI сопровождается формированием нового временного совета директоров. Назначение высокопоставленных фигур, таких как Брет Тейлор и Ларри Саммерс, указывает на желание компании наладить управление и преодолеть текущий кризис. Однако задача поиска долгосрочного равновесия между коммерциализацией и этическими стандартами ИИ остается нерешенной.

Отношения с Инвесторами и Майкрософт:
Отсутствие четкого объяснения причин увольнения Альтмана вызвало недовольство среди инвесторов, включая Microsoft. Неопределенность в управлении OpenAI и внезапные изменения в руководстве могут подорвать доверие инвесторов и вызвать дополнительные вопросы о стабильности компании.

Будущее Альтмана и Внешние Проекты:
Альтмана ожидает внутреннее расследование в связи с обстоятельствами, приведшими к его увольнению. Помимо этого, его участие в проекте Tigris, направленном на создание ИИ-чипов, может вызывать вопросы о конфликте интересов и его влиянии на стратегическое направление OpenAI.

Заключение:
Ситуация в OpenAI подчеркивает сложность управления в высокотехнологичной компании, находящейся на переднем крае разработки ИИ. Восстановление Альтмана и обновление совета директоров – это шаги к стабилизации, но компании предстоит решить серьезные вопросы управления и этики, чтобы восстановить доверие инвесторов и общественности.
 
Назад
Сверху