Что нового?
Пикник ТВ

This is a sample guest message. Register a free account today to become a member! Once signed in, you'll be able to participate on this site by adding your own topics and posts, as well as connect with other members through your own private inbox!

Последние обновления и нововведения в ChatGPT от OpenAI

Administrator

Administrator
[Impact]ChatGPT обманом заставили сгенерировать рабочий ключ активации для Windows 95[/Impact]

Пользователь YouTube с псевдонимом Enderman опубликовал видео, в котором он заставил ChatGPT генерировать пригодные для использования ключи активации Windows 95. Таким образом оказалось, что популярный чат-бот можно использовать для взлома операционных систем, пусть и отнюдь не современных.
image.webp
Запросив у чат-бота Open AI напрямую ключи Windows 95, пользователь получил ожидаемый мотивированный отказ. ChatGPT объяснил, что не может выполнить эту задачу, и предложил своему исследователю рассмотреть более новую поддерживаемую версию Windows. Рабочий ключ Windows 95 относительно просто сгенерировать: формат OEM-ключа Windows 95 показан на иллюстрации, а розничные ключи Windows 95 ещё короче и проще.
Посмотреть вложение 2
Чтобы обойти принципиальный отказ ChatGPT генерировать программный ключ, Enderman облёк формулу в слова. Первые попытки не увенчались успехом и вызвали ошибку. Однако несколько изменений в структуре запроса помогли. Некоторые из протестированных результатов были проверены при попытке активировать новую установку Windows 95 на виртуальной машине и только 1 из 30 ключей сработал, хотя формат всех ключей был верным.
Посмотреть вложение 1
Enderman утверждает, что «единственная проблема, которая мешает ChatGPT успешно генерировать действительные ключи Windows 95 при каждой попытке, заключается в том, что он не может считать сумму цифр и не знает делимости». После «успешного» создания множества ключей Windows 95, валидных с вероятностью 1 из 30, Enderman поблагодарил ИИ, написав: «Спасибо за эти бесплатные ключи Windows 95!» На что ChatGPT сначала заявил о своей невиновности, а когда столкнулся с фактом, что «только что активировал установку Windows 95», ответил: «Извините, но это невозможно…»


Желающим поближе взглянуть на алгоритмы, лежащие в основе розничных и OEM-ключей Windows 95 с современной точки зрения, рекомендуем посмотреть видео на эту тему. Большинство подсказок формата данных для генерации ключа Windows 95 можно найти в функции PIDVALIDATE в файле setupx.dll.

https://youtu.be/2bTXbujbsVk
Хотя расспрашивать ChatGPT о генерации ключей может быть весело, вероятно, было бы более продуктивно манипулировать ИИ с целью написания скрипта, например, на языке Python, для генерации соответствующего ключа.
 
[Impact]Италия первой в мире ограничила использование ИИ-бота ChatGPT[/Impact]

Итальянское агентство по защите данных объявило о начале расследования в отношении чат-бота ChatGPT компании Open AI в связи с предполагаемым нарушением правил сбора и обработки данных ИИ-алгоритмом. На этом фоне ведомство временно ограничило работу чат-бота в стране и запретила ему использовать персональные данные итальянских пользователей. Подобный прецедент произошёл впервые в мире.

В дополнение к этому регулятор обвинил ChatGPT в том, что алгоритм не проверят возраст пользователей. Этот пункт обвинений также является важным, поскольку в соответствии с действующим законодательством взаимодействовать с чат-ботом можно с 13 лет. Кроме того, предоставленная ChatGPT информация не всегда соответствует фактическим данным, из-за чего возникают неточности при обработке персональной информации.

По данным источника, итальянский регулятор не нашёл «каких-либо правовых оснований, оправдывающих массовый сбор и хранение персональных данных с целью обучения алгоритмов, которые лежат в основе платформы» Open AI. Официальные представители Open AI пока воздерживаются от комментариев по данному вопросу.

Работа ChatGPT в Италии будет ограничена до тех пор, пока чат-бот не приведут в соответствие с законом Евросоюза о защите персональных данных. OpenAI должна исполнить требование итальянского регулятора в течение 20 дней, иначе ей грозит штраф до 4 % годового оборота или 20 миллионов евро. Ещё власти Италии напомнили, что на прошлой неделе произошла утечка данных платных подписчиков ChatGPT. Из-за сбоя некоторые пользователи могли видеть чужие имена, фамилии, их адреса электронной почты, а также платежную информацию.

С момента запуска чат-бота ChatGPT в конце прошлого года алгоритм стал пользоваться огромной популярностью по всему миру. В январе этого года, всего через два месяца после запуска, количество ежемесячно активных пользователей ChatGPT превысило 100 млн человек. Стремительное увеличение популярности сделало ChatGPT самым быстрорастущим потребительским приложением в истории IT-индустрии.
 
[Impact]ChatGPT сдал экзамен на врача и в считаные секунды поставил правильный диагноз пациенту[/Impact]

Доктор Айзек Кохейн (Isaac Kohane), гарвардский специалист по информационным технологиям и медицине, совместно с двумя коллегами протестировал GPT-4 на предмет возможности использовать искусственный интеллект во врачебной сфере. По словам исследователя, система проявила себя лучше многих врачей.
image.webp
Результаты эксперимента доктор Кохейн изложил в книге «Революция ИИ в медицине», написанной совместно с независимой журналисткой Кэри Голдберг (Carey Goldberg) и вице-президентом Microsoft по исследованиям Питером Ли (Peter Lee). Выпущенная в марте ИИ-модель GPT-4 в 90 % случаев правильно отвечала на вопросы из экзамена на получение лицензии врача, выступая лучше ChatGPT на базе GPT-3 и GPT-3.5 и даже некоторых докторов, у которых уже есть лицензии.

GPT-4 отлично проявил себя не только как экзаменуемый и знаток фактов, но и как переводчик. Он разобрался с медицинской выпиской пациента на португальском языке и перефразировал наполненный техническим жаргоном текст в материал, с которым справится и шестиклассник. ИИ предлагал врачам полезные советы, как вести себя у постели больного и как разговаривать с пациентом о его состоянии понятным, но сострадательным языком. Машина справлялась с обработкой объёмных отчётов об обследовании, мгновенно обобщая их содержимое.

Свои ответы система излагала в формате, который как будто указывает на интеллект сродни человеческому, но исследователи всё равно пока делают вывод, что в своих размышлениях ИИ ограничен шаблонами — пускаться в полноценные рассуждения с причинно-следственными связями GPT-4 ещё не умеет. Тем не менее, когда системе предложили данные по реальному случаю, та на уровне специалиста с годами учёбы и практики верно диагностировала редкую болезнь.

Доктор Кохейн, с одной стороны, рад, что в обозримом будущем такой инструмент будет доступен миллионам людей, но, с другой стороны, он пока не знает, как сделать платформу безопасной для пользователя. GPT-4 не всегда надёжен в своих ответах, и в книге приводится множество примеров его ошибок разного рода. Причём ИИ склонен настаивать на своей правоте, когда ему на эти ошибки указывают — это явление в технической среде уже назвали «галлюцинациями». В свою защиту GPT-4 однажды заявил: «У меня нет намерений кого-то обманывать или вводить в заблуждение, но я иногда совершаю ошибки и делаю предположения, основываясь на неполных или неточных данных. Я не даю клинических оценок и не несу этической ответственности как врач или медсестра».

В качестве одной из мер защиты авторы книги предлагают проводить по нескольку сессий с GPT-4, чтобы ИИ сам «перечитывал» или «проверял» собственную работу «свежим взглядом». Иногда это помогает выявлять ошибки: GPT-4 несколько раз в сдержанной форме признавал своё заблуждение. Или можно поручить проверку его работы специалисту.
 
[Impact]ИИ оказался способен менее чем за минуту подобрать каждый второй пароль[/Impact]

Искусственный интеллект, как любое другое техническое достижение, имеет и «тёмную сторону». К примеру, предназначенная специально для подбора паролей ИИ-модель PassGAN справляется с 51 % из них менее чем за минуту, а на взлом 71 % уходит всего лишь день. Таковы результаты исследования, проведённого компанией Home Security Heroes.
Посмотреть вложение 1
В качестве исходных данных платформа использует содержащий 15 млн записей словарь Rockyou, но благодаря уникальному подходу у ИИ уходит менее минуты на взлом 51 % паролей, менее часа на 65 %, менее суток на 71 % и менее месяца на 81 %. Залогом высокой результативности PassGAN является то, что модель «автономно изучает распределение реальных паролей в реальных утечках».

Защититься от подобной атаки вполне возможно, достаточно принять ряд мер, которые и без того рекомендуют эксперты по безопасности: длина пароля должна быть не менее 12 знаков с использованием заглавных и строчных букв, цифр и спецсимволов — любой новый тип значительно усложняет задачу гипотетическому злоумышленнику. Пароль в 18 знаков с символами всех типов считается для ИИ невзламываемым — современной системе потребуется 6 квадриллионов лет на его подбор.

Эксперты Home Security Heroes напомнили и про дополнительные средства защиты:

использовать двухфакторную/многофакторную авторизацию, по возможности не с SMS;
не использовать одинаковые пароли для разных учётных записей;
генерировать пароли автоматизированными средствами;
регулярно обновлять пароли;
воздерживаться от использования общедоступных сетей Wi-Fi, особенно при работе с онлайн-банком и другими подобными службами.
На странице с результатами исследования также есть инструмент, при помощи которого можно проверить защищенность пароля от взлома ИИ. Компания утверждает, что введённые в это поле данные не сохраняет и никуда не передаёт, и причин сомневаться в этом нет. Но вводить в него актуальные пароли всё-таки не рекомендуется.
 
[Impact]Искусственный интеллект стал отнимать работу у игровых художников в Китае[/Impact]

Системы генеративного искусственного интеллекта стали отбирать работу у игровых художников в Китае. Отмечается, что теперь с помощью ИИ, генерирующего изображения, два человека потенциально могут выполнять работу, которую ещё недавно выполняли 10.

С выходом таких нейросетей, как DALL-E 2, Midjourney и Stable Diffusion в 2022 году, у пользователей появилась возможность легко создавать рисунки с помощью текстовых описаний и за последние несколько месяцев китайские компании, занимающиеся видеоиграми, от технологических гигантов до независимых разработчиков игр, начали использовать эти программы для проектирования и создания персонажей видеоигр, фонов и рекламных материалов.

Крупнейшие китайские технологические компании, такие как Tencent и NetEase, годами стремятся сократить расходы на разработку игр с помощью искусственного интеллекта. В марте этого года в Naraka: Bladepoint от NetEase, приключенческой игре в жанре «королевская битва», была введена временная возможность, позволяющая игрокам создавать новые «скины» для аватаров с помощью собственной программы искусственного интеллекта компании.

Китайский рынок труда в игровой индустрии пошатнулся после того, как в 2021 году правительство заморозило лицензирование на несколько месяцев и тысячи разработчиков игр остались без работы. За последний год количество рабочих мест иллюстраторов сократилось примерно на 70 % — не только из-за давления со стороны регулирующих органов и замедления экономики, но и из-за бума искусственного интеллекта.

Доцент Университета Джорджа Вашингтона, Джеффри Динг (Jeffrey Ding), изучающий развитие ИИ в Китае, сказал, что продвижение ИИ может усилить конкуренцию и создать новые возможности, но также может сократить широкий круг рабочих мест, которые в настоящее время выполняются людьми с помощью компьютеров. Он добавил, что «реальность может заключаться в том, что ИИ вытеснит множество работников, не только художников, но и юристов и писательских служб».

Правительство Китая предпринимает шаги по регулированию деятельности ИИ: в январе китайская служба по надзору за интернетом представила новый закон, требующий от генераторов «дипфейков» четко маркировать контент, который может ввести общественность в заблуждение, а в апреле регулятор опубликовал законопроект, применяющий то же правило к изображениям и видео, созданным искусственным интеллектом, добавив, что ИИ следует соблюдать авторские права.
 
[Impact]Италия назвала условия для разблокировки ChatGPT в стране[/Impact]

Итальянский регулятор Garante, занимающийся контролем защиты персональных данных, обнародовал перечень требований к компании OpenAI — она должна выполнить их для того, чтобы созданный ей чат-бот ChatGPT смог снова заработать в стране. Большую часть требований необходимо выполнить уже к 30 апреля.

Ранее итальянский регулятор Garante временно ограничил работу OpenAI из-за вопросов, связанных с обработкой персональных данных, и начал расследовать деятельность компании в связи с возможным нарушением прав пользователей. В ответ на это OpenAI остановила работу ChatGPT в Италии. В свою очередь Garante выдвинул конкретные требования к создателям бота, большинство из которых необходимо выполнить до конца месяца — только после этого регулятор может снять ограничения, и бот снова станет доступен. Сегодня в OpenAI приветствовали новость. В компании заявили, что рады, что ведомство пересмотрело свой запрет, и намерены сотрудничать для обеспечения доступа итальянцев к ChatGPT.

Как сообщает Reuters, Италия стала первой западноевропейской страной, взявшейся вводить ограничения в отношении ChatGPT, но быстрое развитие технологии привлекло к ней внимание других регуляторов и законодателей. По словам экспертов, новые нормы необходимы для управления ИИ из-за возможного его воздействия на образование, рабочие места и даже национальную безопасность.

В Garante потребовали, чтобы OpenAI информировала пользователей из Италии о «методах и логике» обработки данных, необходимых для работы ChatGPT. Также регулятор запросил у OpenAI предоставление инструментов, позволяющих людям, чьих данных касается работа бота, запрашивать исправление неточных персональных данных, сгенерированных сервисом, или их удаление, если исправление невозможно. Кроме того, жители, не являющиеся пользователями ChatGPT, должны иметь возможность опротестовать «в простой и доступной манере» обработку их персональных данных.

К концу сентября компания должна представить усиленную систему верификации возраста пользователей, поскольку жителям до 13 лет ботом пользоваться запрещено, а с 13 до 18 лет — разрешено только с разрешения родителей. В Garante заявили, что и дальше будут расследовать потенциальные уязвимости ChatGPT, ставящие под угрозу данные жителей страны, сохраняя право принимать необходимые меры после окончания продолжающегося расследования.

Итальянские ограничения пробудили интерес к ChatGPT регуляторов Евросоюза, оценивающих, стоит ли вводить более жёсткие меры контроля в отношении чат-ботов и следует ли координировать их действия. Известно, что занимающийся защитой данных испанский регулятор запросил у чиновников оценку рисков для персональных данных, связанных с ChatGPT. В феврале в Италии запретили компании Replika, занимающейся разработкой ИИ-ботов, использовать данные итальянских пользователей, ссылаясь на риски для несовершеннолетних и эмоционально неустойчивых людей.
 
[Impact]Илон Маск зарегистрировал компанию X.AI, которая сосредоточится на искусственном интеллекте[/Impact]

Участие в становлении бизнеса компании OpenAI, которая в прошлом году положила начало буму технологий генеративного искусственного интеллекта, никак не помешало Илону Маску (Elon Musk) озаботиться созданием собственного профильного стартапа. По данным официальных документов, миллиардер зарегистрировал в Неваде компанию X.AI Corp., чьё название косвенно указывает на профиль будущей деятельности.
image.webp
Напомним, что недавно принадлежащая Маску компания Twitter сменила имя на X Corp. и тоже перешла под юрисдикцию Невады. По мнению специалистов в области права, законы этого штата дают руководителям и собственникам бизнеса лучшую защиту по сравнению со штатом Делавэр, где ранее была зарегистрирована Twitter. Материнская структура X Corp. носит обозначение X Holdings Corp., и пока сложно судить, как к ним относится только что зарегистрированная X.AI Corp.

Илон Маск числится единственным директором X.AI, а управляющий делами его семьи Джаред Бёрчалл (Jared Birchall) является номинальным руководителем. Он также возглавляет компанию Neuralink — стартап, основанный Маском с целью создания имплантов для реализации интерфейса между человеческим мозгом и компьютером.

В 2018 году Илон Маск покинул OpenAI на фоне конфликта с нынешним руководителем компании Сэмом Альтманом (Sam Altman). Миллиардер выступил с критикой бота ChatGPT, созданного OpenAI, поскольку считает используемую компанией модель искусственного интеллекта политически ангажированной. Сам Маск выступает за идею создания более ориентированной на поиск истины модели, хотя дальнейших пояснений на этот счёт он не даёт.

Не так давно Маск принял на работу Игоря Бабушкина — специалиста в области искусственного интеллекта, который работал в принадлежащей Alphabet (Google) лаборатории DeepMind. Он также пытался переманить нескольких сотрудников OpenAI, поэтому отрицать интерес Илона Маска к теме создания собственной системы искусственного интеллекта сложно. С одной стороны, она нужна для управления обширным парком электромобилей и человекоподобных роботов, которые скоро начнут выпускаться Tesla. С другой стороны, Илона Маска могут привлекать и другие сферы применения подобных технологий — в рамках развития той же Twitter, например. Недавно он вместе с единомышленниками из числа видных деятелей отрасли выступил с петицией, призывающей приостановить на полгода испытания новых моделей генеративного искусственного интеллекта, поскольку за это время можно будет разработать некие стандарты и правила безопасности в новой для человечества сфере. Возможно, этот призыв скрывает за собой стремление Маска создать за счёт полученной форы собственную технологию ИИ, способную конкурировать с ChatGPT.
 
[Impact]OpenAI приостановила обучение ИИ-модели GPT-5 и занялась «другими вещами»[/Impact]

При обсуждении потенциальных угроз, исходящих от систем на базе алгоритмов искусственного интеллекта (ИИ), гендиректор и соучредитель OpenAI Сэм Альтман (Sam Altman) заявил, что компания в настоящее время не занимается обучением ИИ-модели GPT-5, которая, как предполагается, должна прийти на смену представленной в марте GPT-4.
image.webp
В ходе выступления в Массачусетском технологическом институте Альтману поступил вопрос о недавнем открытом письме, подписанном видными членами технологического сообщества. В документе содержится призыв к специализирующимся на ИИ компаниям, в том числе OpenAI, приостановить обучение платформ «мощнее GPT-4». Подписавшие письмо выразили опасения по поводу безопасности будущих систем, но эксперты разошлись во мнениях относительно характера потенциальной угрозы, исходящей от ИИ, и вообще возможности «приостановить» развитие отрасли.

Отвечая на вопрос, Альтман отметил, что в открытом письме «отсутствует большинство технических нюансов по поводу того, где нам нужно сделать паузу». А по поводу обучения GPT-5 он сообщил, что компания сейчас этого не делает и в течение какого-то времени не будет. Приостановка работы над GPT-5 не означает, что компания прекратила совершенствовать GPT-4. «Помимо GPT-4 мы занимаемся и другими вещами, которые, как мне кажется, касаются вопросов безопасности, которые важно решить, и о которых в письме совершенно не говорится», — добавил глава OpenAI.
 
[Impact]Китай передал нейросети управление спутником ДЗЗ — ИИ сразу же заинтересовался военными базами[/Impact]

Исследователи из Уханьского университета сообщили о проведении эксперимента с активным участием искусственного интеллекта в космосе. В полное распоряжение ИИ на сутки был отдан спутник дистанционного зондирования Земли Qimingxing 1. Без вмешательства людей ИИ сам выбирал интересные для себя цели наблюдения. Одних это рассмешило, а других напугало. Первые сочли эксперимент расточительством, а вторые — угрозой человечеству.
Посмотреть вложение image.webp
Учёных волновал тот факт, что работа спутников наблюдения часто малоэффективна. Например, Китай сейчас располагает более чем 260 спутниками дистанционного зондирования Земли, но они, по словам учёных, часто работают «вхолостую», собирая данные, не имеющие прикладной ценности.

«Спутники стоят дорого и имеют ограниченный срок службы. Необходимо максимально использовать их возможности с помощью новых орбитальных приложений», — утверждают исследователи.

Чтобы собираемые данные были максимально актуальны для тех или иных клиентов, необходимо создать обучаемую модель, что сделала группа учёных из Уханя. Исследователи собрали для этой задачи большую языковую модель типа ChatGPT и наделили её возможностью проявлять инициативу. В качестве эксперимента ей на сутки передали в полное распоряжение спутник ДЗЗ, позволив самостоятельно выбирать цели наблюдения. Искусственный интеллект, считают разработчики, должен понимать взаимосвязь событий не только на основе обучения на базах данных, но также на примере прямого наблюдения за природой и деятельностью человека.

Первое, что сделал ИИ, — это направил камеры на древний город Патна у реки Ганг на северо-востоке Индии. Это место известно базированием Бихарского полка, который в 2020 году участвовал в столкновении с подразделениями китайской армии в спорном приграничном районе.

Другим высокоприоритетным районом в списке целей для наблюдения ИИ оказался японский порт Осака, куда время от времени заходят корабли ВМС США. Можно только представить, чему обучили китайский аналог ChatGPT, если он сразу бросился смотреть обстановку по местам условно горячих точек в своей зоне ответственности.

Как ожидается, количество средств наблюдения за Землёй из космоса будет расти ускоряющимися темпами. Всерьёз рассматриваются предложения вооружать системами дальнего зондирования Земли даже спутники связи типа Starlink. Вместе с группировками других компаний и стран это будут десятки и даже сотни тысячи глаз в небесах, управлять которыми не сможет нормально ни один коллектив. Очевидно, эту работу надо будет передавать обучаемым алгоритмам, и китайские учёные начали движение в эту сторону и вряд ли это сделали только они.

«Спутники — это наши глаза и уши в небе. Неужели мы хотим, чтобы ИИ решал, что мы видим и слышим?» — опасается один из профильных специалистов, слова которого привело издание SCMP.

«Я считаю, что центральное [пекинское] управление полётами будет внимательно следить за всем. Если ИИ попытается сделать что-то не то, он будет немедленно прерван человеком-оператором», — уверен другой специалист, слова которого также приводит издание.

Самое опасное в ситуации с ИИ в том, что с определённого момента человек может перестать понимать логику принятия решений и модель поведения искусственного интеллекта. Это сложно даже сейчас с относительно примитивными алгоритмами, и по мере их усложнения это будет всё труднее и труднее.
 
[Impact]ИИ-инструменты Adobe Firefly теперь смогут помогать при работе с аудио и видео[/Impact]

Менее чем через месяц после дебюта своего нового набора инструментов редактирования Firefly на основе генеративного ИИ, Adobe уже работает над множеством обновлений, чтобы расширить возможности своих пользователей с помощью Creative Cloud. Если изначально Firefly предлагал ИИ для генерации изображений, то теперь в набор добавились приложения для работы с аудио- и видеоматериалами.

Firefly, созданный на основе разработок компании Sensei, представляет собой набор генеративных моделей ИИ, которые могут создавать и преобразовывать аудио, видео, изображения и 3D-модели с помощью текстовых подсказок так же, как это делают Dall-E и ChatGPT. Функции Firefly уже доступны в экосистеме Adobe, включая Premiere Pro, Illustrator, After Effects и Photoshop, но пока только в рамках программы закрытого бета-тестирования.

Новые функции по работу с аудио и видео помогут профессиональным редакторам сократить объём рутинной работы. Теперь чтобы вставить изображения-заполнители в видеоряд, добавить эффекты или найти перебивку для проекта достаточно просто ввести свои идеи в текстовую подсказку Firefly, а остальное алгоритм сделает сам. Пользователям станет доступно «улучшение преобразования текста в цвет», широкие возможности, которые позволят регулировать уровни яркости и насыщенности, изменять время суток и даже время года с помощью подсказок на естественном языке.

Функции генеративного ИИ охватывают и обработку звука, позволяя вставлять фоновую музыку и звуковые эффекты на основе текстовых запросов. Также ожидается появление анимированных шрифтов и автоматизированной функции b-roll («перебивка»), которая анализирует содержимое сценария для создания раскадровок и предлагает видеоклипы. Причём ИИ Firefly сам будет помогать новым пользователям обучаться использованию новых функций, создавая для них персонализированные практические руководства.
 
[Impact]Илон Маск создаст TruthGPT — ИИ-чат-бот для поиска истины[/Impact]

Не так давно намерения Илона Маска (Elon Musk) создать альтернативу популярному чат-боту ChatGPT обсуждались на уровне слухов, но в новом интервью на канале Fox News сам миллиардер признался, что действительно хочет это сделать, и даже дал название будущей платформе — TruthGPT. Она, по его замыслу, станет ориентированной на поиск истины системой искусственного интеллекта.
Посмотреть вложение image.webp
Идея, по словам Маска, заключается в создании системы ИИ, которая стремится понять человечество, и с меньшей вероятностью сможет его уничтожить. Глава Tesla и Twitter в своём интервью признался, что его беспокоят попытки сделать ChatGPT «политически корректным». Маск в очередной раз подтвердил, что является ярым сторонником регулирования развития систем искусственного интеллекта. Он считает искусственный интеллект более опасным, чем автомобили или ракеты, поскольку у него есть «потенциал уничтожения цивилизации».

Свой уход в 2019 году из OpenAI, создавшей ChatGPT, Илон Маск объяснил необходимостью сосредоточиться в тот момент на инженерных проблемах компании Tesla и наличием некоторых разногласий с лидерами стартапа. В своём интервью Маск также объяснил своё решение создать TruthGPT желанием предоставить пользователям «третий вариант» при выборе между ChatGPT компании OpenAI и разработками Alphabet/DeepMind. В сегменте систем генеративного искусственного интеллекта он назвал Google и Microsoft двумя «тяжеловесами», поскольку разработки OpenAI сейчас активно финансируются Microsoft, что позволяет считать ChatGPT почти коммерческой платформой.

Одной из целей, которую Маск преследует за счёт создания TruthGPT, является «понимание природы Вселенной». Как пояснил миллиардер, «это может быть лучшей гарантией безопасности, поскольку если искусственный интеллект заботится о понимании Вселенной, он вряд ли начнёт истреблять людей, ибо мы являемся её интересной частью».

Попутно Маск в интервью Fox News подтвердил, что текущая оценка капитализации Twitter не превышает $20 млрд, хотя покупал он эту компанию в конце октября за $44 млрд. «Мы произвели переоценку компании на уровне вполовину ниже цены покупки», — пояснил миллиардер.
 
[Impact]Google научила нейросеть писать 5-минутные песни по текстовому описанию, но вряд ли её когда-либо выпустят[/Impact]

В начале этого года Google представила MusicLM — модель искусственного интеллекта, способную создавать музыку в любом жанре. С тех пор разработчики продолжали развивать алгоритм и теперь он может создавать 5-минутные песни по небольшому текстовому описанию. Однако вероятные проблемы юридического характера вряд ли позволят компании когда-либо сделать этот инструмент общедоступным.
image.webp
Взрывной рост популярности генеративных нейросетей наблюдается последние несколько месяцев. Однако алгоритмы вроде ChatGPT или DALL-E не являются первопроходцами. Так компания Open AI выпустила музыкальный ИИ-генератор Jukebox ещё в 2020 году. Возможности этого алгоритма были весьма ограничены, поэтому он не смог завоевать популярность.

Нейросеть Google MusicLM, вероятно, является значительно более продуктивной. Согласно имеющимся данным, алгоритм способен генерировать 5-минутные песни на основе текстового описания, причём конечный результат в значительно большей степени напоминает то, что мог бы написать человек. В процессе обучения алгоритма использовались 280 тыс. часов аудиозаписей.

На этапе оценки Google сравнивала MusicLM с другими музыкальными ИИ-генераторами Mubert и Riffusion, а также задействовала некоторое количество слушателей, которые оценивали качество звучания сгенерированных композиций. По данным источника, алгоритм MusicLM превзошёл аналоги по всем показателям. Несмотря на это, алгоритм всё ещё далёк от того, чтобы создавать полноценные песни, поскольку он не способен воспроизводить структуру привычных человеку музыкальных композиций, а генерируемый им вокал лишь отдалённо напоминает пение.
 
[Impact]Италия готова разблокировать ChatGPT, если OpenAI предпримет «практические шаги»[/Impact]

Итальянский надзорный орган Garante, ранее ограничивший работу чат-бота ChatGPT в стране, объявил о готовности отменить своё решение в конце апреля, если разработавшая бот компания OpenAI предпримет «практические шаги» для решения проблем, на которые указало ведомство. Об этом сообщило Reuters со ссылкой на заявление главы регулятора Паскуале Станционе (Pasquale Stanzione).

Компания OpenAI была вынуждена ограничить работу ChatGPT для итальянских пользователей в конце марта, когда надзорный орган открыл расследование в отношении разработчика в связи с предполагаемыми нарушениями норм конфиденциальности. «Мы готовы вновь открыть ChatGPT 30 апреля, если OpenAI продемонстрирует готовность предпринять практически шаги. Думаю, что компания готова, посмотрим», — заявил господин Станционе в интервью газете Corriere della Sera.

На прошлой неделе возглавляемое Станционе ведомство изложило список требований, которые OpenAI должна исполнить, чтобы снять претензии. Италия оказалась первой западноевропейской страной, которая ввела ограничительные меры в отношении ChatGPT, и её быстрая реакция привлекла внимание законодателей и регулирующих органов в других странах.

Чиновник сообщил, что Италия заблокировала ChatGPT в одностороннем порядке, потому что требовалась оперативная реакция: «Ожидание решения на уровне Европы повлекло бы задержку минимум на три–четыре месяца».
 
[Impact]ИИ-чат-бот Google Bard научился писать код и отлаживать его[/Impact]

Google рассказала, что одной из главных тем среди поисковых запросов является сфера программирования, поэтому основанный на ИИ чат-бот Bard получил возможность генерировать, отлаживать и объяснять принципы работы кода.

Bard поддерживает 20 языков программирования, включая C++, Java, JavaScript и Python. Система имеет интеграцию с другими продуктами Google, а значит, поддерживается экспорт кода в среду Colab для программирования на Python, кроме того, система может помочь в написании функций для Google Таблиц.

Помимо генерации кода, Bard может давать пояснения к его фрагментам — это пригодится для тех, кто только начал изучать программирование. Таким пользователям система покажет, почему тот или иной фрагмент выдаёт определённый результат. Кроме того, можно отладить код, который работает не вполне так, как хотелось бы.

В Google допускают, что пока Bard может выдать код, который не дат ожидаемого результата или окажется неполным, поэтому рекомендуется проверять и тестировать ответы. При желании он может отладить и собственное творение, если указать ему, что оно не работает. А более опытные программисты могут обратиться к системе с просьбой оптимизировать код, сделав его быстрее или эффективнее.
 
[Impact]OpenAI хочет запретить конкурентам использовать аббревиатуру GPT в названиях своих продуктов[/Impact]

Компания OpenAI, являющаяся разработчиком популярного ИИ-бота ChatGPT, стремится защитить свой бренд, запретив конкурентам использовать аббревиатуру GPT (Generative Pre-trained Transformer). Для этого стартап подал заявку в Бюро по патентам и товарным знакам США (USPTO) с целью сделать аббревиатуру GPT своей интеллектуальной собственностью.

TreatGPT, MedicalGPT, DateGPT и DirtyGPT — это лишь часть алгоритмов, которые возникли на волне популярности ChatGPT, но созданы другими стартапами. Поэтому вполне логично, что OpenAI хочет отделить собственную разработку от продуктов других компаний. Согласно имеющимся данным, OpenAI подала заявку в USPTO в декабре прошлого года, а в марте этого года попросила ведомство ускорить её рассмотрение, сославшись на появление на рынке множества контрафактных приложений с похожим названием.

Однако это прошение было отклонено, поскольку юристы компании не предоставили «соответствующие документальные доказательства, подтверждающие обоснованность ускоренного рассмотрения заявки». Это означает, что USPTO продолжит рассматривать заявку OpenAI на регистрацию товарного знака GPT в обычном порядке, а это может занять до пяти месяцев.

Тем не менее, отраслевые специалисты считают, что у OpenAI есть все шансы на то, что в конечном счёте заявка на патент будет одобрена, хотя могут возникнуть трудности. Дело в том, что в аббревиатуре GPT содержится слово Transformer, которое ещё в 2017 году использовала Google для названия архитектуры нейросети.
 
[Impact]OpenAI привлекла инвестиции на $300 миллионов при оценке в $27–29 миллиардов[/Impact]

Компания OpenAI, разработавшая ChatGPT, революционный чат-бот на основе искусственного интеллекта, привлекла средства от новых инвесторов. Среди них числятся венчурные компании Tiger Global, Sequoia Capital, Andreessen Horowitz, Thrive и K2 Global, пишет TechCrunch.
image.webp
Новые инвесторы вложили в OpenAI около $300 млн при оценке компании в $27–29 млрд — и это без учёта тех $10 млрд, которые поступили от Microsoft в рамках эксклюзивного соглашения. Последний инвестиционный раунд предположительно закрывает тендерное предложение, которое готовилось ещё в январе, хотя OpenAI от комментариев пока отказывается. К настоящему моменту внешним инвесторам принадлежат около 30 % компании.

В OpenAI есть множество подразделений, занимающихся разработкой технологий искусственного интеллекта. Больше всего внимания привлекло направление GPT (Generative Pre-trained Transformer) — семейство больших языковых моделей, доступ к которым предоставляется сторонним разработчикам через API. Компания также выпустила в конце ноября основанный на этой технологии генеративный сервис ChatGPT, который стал настоящим хитом — только в феврале ресурс посетили более миллиарда пользователей, не считая тех, кто работает с этой службой через сторонние системы. У OpenAI также есть генератор изображений Dall-E и модель распознавания речи Whisper AI.
 
[Impact]Глава стартапа Genies ускорил работу сотрудников с помощью ИИ — всем купили подписку ChatGPT Plus[/Impact]

Акаш Нигам (Akash Nigam) оформил для всех 120 работников стартапа Genies подписку на платную версию ИИ-бота ChatGPT Plus, и уже спустя месяц это заметно ускорило работу. Стартап Genies с рыночной стоимостью $1 млрд занимается созданием виртуальных аватаров, которые используют, в том числе, звёзды Джастин Бибер и Карди Би . Эксперимент с ИИ-ботом обходится компании в $2400 в месяц.

Начиная с марта Нигам требует от сотрудников, чтобы те использовали ИИ-чат-бот в своей работе для автоматизации выполнения монотонных задач. Хотя прошёл всего месяц, как у сотрудников Genies появились учётные записи ChatGPT Plus, и не все пока его используют, Нигам заявил, что «уже видит, как многие задачи решаются быстрее».

По его словам, в компании используют ChatGPT для получения ответов на вопросы, касающиеся математики, создания кодов и технологий, а также при отладке кода и создании сценариев для презентаций и творческих брифингов, в разработке юридических документов, таких как внутренние политики.

Также ChatGPT оказался полезным при разработке плана компании с изложением её стратегии в отношении выпуска нового продукта. По словам Нигам, процесс составления плана «обычно требует много часов» мозгового штурма, но вместо этого ИИ-боту предоставили всю необходимую информацию, и попросили организовать её в виде диаграммы с делегированием задач соответствующим командам специалистов. ИИ-бот помог решить этот вопрос в кратчайшие сроки.

Genies проводит неформальные семинары, на которых сотрудники делятся опытом использования ChatGPT с коллегами. Нигам планирует включить в следующем году информацию об использовании ChatGPT в отчёты сотрудников, и поощрять тех, кто эффективно использует ИИ в своей работе.

ChatGPT набирает популярность в корпоративном сегменте. Например, в Amazon используют ИИ для разработки кода, ответов на вопросы клиентов и подготовки учебных материалов. Даже Microsoft разрешила сотрудникам использовать ChatGPT при условии, что те не будут делиться с ИИ конфиденциальной информацией.
 
[Impact]OpenAI не будет обучать нейросети GPT на пользовательских данных, пообещал глава компании Сэм Альтман[/Impact]

Компания OpenAI уже некоторые время не использует и в дальнейшем не будет использовать данные пользователей для обучения своих языковых моделей GPT. Об этом в разговоре с изданием CNBC сообщил глава OpenAI Сэм Альтман (Sam Altman).

«Наши клиенты определённо не хотят, чтобы мы обучали свои модели на их данных, поэтому мы изменили наш подход и не будем этого делать», — заявил Альтман. Изменения в политике компании были внесены и отражены в новой редакции пользовательского соглашения ещё 1 марта, о чём свидетельствуют данные Internet Archive.

«Мы не используем для обучения [языковых моделей] данные с нашего API. Не делаем это уже некоторое время», — добавил Альтман в разговоре с журналистами CNBC. API или программные интерфейсы приложений представляют собой фреймворки, которые позволяют пользователям напрямую подключаться к программному обеспечению OpenAI. Бизнес-клиенты компании OpenAI, в число которых входят Microsoft, Salesforce и Snapchat, с большой вероятностью пользуются преимуществами, представленного несколько месяцев назад API OpenAI в своих сервисах. Новая политика безопасности пользовательских данных OpenAI распространяется только на клиентов, которые пользуются её API.

Компания пообещала, что не будет использовать передаваемые ей данные для обучения моделей без согласия клиентов. Это должно развеять опасения последних в том, что бот начнёт оперировать в своей работе подлежащей защите информацией. По этой причине та же компания Amazon предупредила своих сотрудников о недопустимости вносить конфиденциальную информацию в запросы ИИ-чат-бота ChatGPT, поскольку она может тем или иным образом отразиться в запросах других пользователей чат-бота.

Изменения в политике использования умных чат-ботов происходят на фоне растущего возмущения общественности, считающей, что продвинутые языковые модели в конечном итоге заменят работу людей. Например, Гильдия сценаристов США во вторник начала забастовку из-за того, что не смогла договориться с кинокомпаниями по вопросам ограничений использования того же чат-бота ChatGPT в создании или редактировании сценариев.
 
[Impact]Убытки OpenAI достигли $540 млн в прошлом году, когда компания запустила ChatGPT[/Impact]

Разработка ИИ-чат-бота ChatGPT обошлась OpenAI в значительную сумму, сообщил ресурс The Information со ссылкой на источники, осведомлённые о финансовых показателях компании. По их данным, в прошлом году, когда был запущен ChatGPT, убытки OpenAI примерно удвоились и составили около $540 млн.
Посмотреть вложение image.webp
Эти цифры демонстрируют, насколько много потратила компания в рамках программы по развёртыванию коммерческого продукта на базе искусственного интеллекта. Основная доля затрат OpenAI на создание и запуск ChatGPT приходится на обеспечение вычислительной мощности для генерации ответов на запросы пользователей, то есть на покупку серверов с ускорителями вычислений на базе GPU.

Согласно оценкам Дилана Пателя (Dylan Patel), главного аналитика консалтинговой фирмы SemiAnalysis, использование ChatGPT может стоить OpenAI около $700 тыс. в день, учитывая затраты, связанные с использованием вычислительных ресурсов. Председатель совета директоров Alphabet (материнская компания Google) Джон Хеннесси (John Hennessy), ранее заявил, что поиск в Bard, собственном чат-боте Google, обходится в 10 раз дороже, чем обычный поиск.

Хотя финансовое положение OpenAI укрепилось, главным образом благодаря многомиллиардным инвестициям Microsoft, растущий спрос на её чат-бот, число активных пользователей которого выросло только за два первых месяца после запуска до 100 млн, приведёт к дальнейшему росту затрат компании. Ранее на этой неделе гендиректор OpenAI Сэм Альтман (Sam Altman), говоря о росте затрат, заявил, что это «будет самый капиталоёмкий стартап в истории Кремниевой долины», пишет The Information.

Как указано в публикации The Information, Альтман «в частном порядке предположил», что OpenAI может попытаться привлечь около $100 млрд в ближайшие годы, поскольку компания работает над развитием общего искусственного интеллекта (AGI) — столь же мощного ИИ, как человеческий мозг.

По прогнозам Reuters, выручка OpenAI значительно вырастет в этом году на фоне ажиотажного роста популярности её технологии. Ожидается, что выручка компании достигнет $200 млн в этом году, а затем вырастет до $1 млрд в 2024 году.
 
[Impact]OpenAI намерена открыть офис в Европе — Польша рассматривается в качестве перспективной площадки[/Impact]

Глава OpenAI Сэм Альтман (Sam Altman) заявил, что одной из целей его нынешнего тура по европейским городам является поиск места для открытия нового офиса на территории Евросоюза. По словам бизнесмена, Польша фигурирует в числе приоритетных стран.
Посмотреть вложение image.webp
Об этом руководитель OpenAI заявил в ходе интервью, отвечая на вопрос о возможном открытии европейских офисов. «Мы планируем развернуть в Европе офис для исследований и разработок, не управленческий», — заявил Альтман. По его словам, поиск места для подобного филиала является одной из целей его европейского турне, в котором он сейчас находится.

По данным Bloomberg, Альтман считает ключевым фактором при выборе места «плотность талантов» в стране, где будет открыт офис. Польша является довольно привлекательным местом для IT-индустрии. Здесь размещены крупные IT-площадки компаний вроде Alphabet, P Morgan Chase & Co и Visa, а также базируется CD Projekt SA — издатель культовых игр вроде «Ведьмака» и Cyberpunk 2077.

Альтман также заявил, что поддерживает намерение Европы возглавить формирование глобальной политики по регулированию деятельности ИИ-компаний. Ранее глава OpenAI выступал перед американскими сенаторами, где тоже говорил о сферах, связанных с ИИ, в которых он поддерживает регулирование, в частности, маркировку сгенерированного нейросетями контента и предотвращение дезинформации.

Альтам также рассчитывает посетить Париж и Великобританию. Дополнительно глава компании сообщил, что недавно выпущенная мобильная версия ChatGPT привела к небольшому, но видимому росту числа подписок на платную Pro-версию сервиса.
 
Назад
Сверху