«Во многих смыслах нынешние модели ИИ довольно глупы»

Картинка по мотивам ИИ-модели Llama 2.

«Нынешние модели искусственного интеллекта (ИИ) «довольно глупы», заявил вице-президент по международному сотрудничеству и связям с общественностью компании Meta (признана в РФ экстремистской организацией и запрещена Прим. Green.Obob.tv), бывший британский вице-премьер Ник Клегг (Nicholas William Peter Clegg).

Об этом сообщает Британскиая вещательная корпорация BBC. Станция отмечает, что таким заявлением Клегг преуменьшает сущетвующие опасения, связанные с развитием технологией ИИ.

Ник Клегг.

И далее предлагаем вашему вниманию изложение (в нашем переводе с английского, с небольшими сокращениями) упомянутого сообщения BBC (от 19 июля с.г.):

«Клегг отметил, что «(теперешний) ажиотаж (связанный с ИИ) несколько опережает развитие самих этих технологий».

По словам Клегга, нынешним моделям ИИ далеко еще до того, чтобы высказывать по их поводу какие-либо опасения, что ИИ якобы может быть автономен и думает самостоятельно.

«Во многих смыслах нынешние модели ИИ довольно глупы», — заявил Клегг программе «BBC Today».

Клегг выступал вскоре по того, как компания Meta заявила, что ее большая языковая ИИ-модель, известная как Llama 2, с открытым исходным кодом, будет бесплатной для всех.

По словам Клегга, большие языковые ИИ-модели — платформы, на которых работают чат-боты, такие как ChatGPT,  в настоящее время, в основном, лишь соединяют точки в огромных наборах данных текста и угадывают следующее слово в последовательности. Клегг добавил, что предупреждения об экзистенциальной угрозе, выпущенные некоторыми экспертами по технологии искусственного интеллекта, относятся к ИИ-системам, которых еще не существует.

Решение компании Meta сделать свою большую языковую ИИ-модель Llama 2 широко доступной для коммерческих предприятий и исследователей разделило техническое сообщество. При том, что в некотором смысле Meta была принуждена поступить данным образом, т.к. первое поколение Llama просочилось в сеть в течение недели после запуска.
Открытый исходный код — хорошо проторенный путь в этом секторе — открытие вашего продукта для использования другими дает вам огромное количество бесплатных данных пользовательского тестирования, выявляя ошибки, проблемы и улучшения на этом пути.

Но риск здесь в том, что это очень мощный инструмент, что бы ни говорил сэр Ник.

Мы знаем, что предыдущими версиями чат-ботов манипулировали, чтобы разжигать ненависть, генерировать ложную информацию и давать вредные инструкции. Достаточно ли прочны ограждения для того, чтобы языковая ИИ-модель Llama 2 не могла быть использована не по назначению в полевых, если можно так сказать условиях, и что сможет сделает Мета, если это случится.

Еще один интересный аспект, который  следует отметить в связи с решением компании Meta сделать Llama 2 широко доступной для коммерческих предприятий и исследователей, это решение Meta сотрудничать в этом вопросе с конкурирующей компанией Microsoft: Llama 2 будет доступна через платформы Microsoft, такие как Azure, что объяснимо, поскольку Microsoft также инвестировала миллиарды долларов в создателя ChatGPT занимающуюся  разработкой и лицензированием технологий на основе машинного обучения компанию OpenAI.

Риск такого сотрудничества между Meta и Microsoft заключается в том, что пул ИИ теперь стал представлять «пруд» с несколькими действующими заодно «огромными рыбами», и неизвестно, здорово ли это для конкуренции на данном еще неустоявшемся, молодом  сегменте разработок?

Итак, Llama 2 знаменует собой партнерство между Microsoft и Meta. Вто же время, в  отличие от Llama 2 и GPT-4 и его конкурент Palm — LLM от Google, на котором работает чат-бот Bard — не могут свободно использоваться в коммерческих или исследовательских целях…
Дама Венди Холл (Wendy Hall), профессор компьютерных наук (государственного британского) Университета Саутгемптона (University of Southampton), заявила Британской вещательной корпорации, что предоставление открытого исходного кода ИИ вызывает обеспокоенность из-за неразработанности законодательного регулирования разработок и использования моделей искусственного интеллекта.

«Меня беспокоит то, как мы регулируем открытый исходный код моделей ИИ», — говорит Холл. И продолжает:

«Можно ли доверить в данном случае отрасли саморегулирование, и она будет сотрудничать с правительствами в вопросах регулирования? Это немного похоже на предоставление людям шаблона для создания ядерной бомбы».

Сэр Ник сказал, что комментарии Холл являются«гиперболой», и пояснил, что система Meta с открытым исходным кодом не может генерировать изображения, не говоря уже о «создании биологического оружия».

Но он «полностью согласен» с тем, что индустрия ИИ нуждается в законодательном регулировании.

«Ведь модели ИИ уже постоянно находятся в открытом доступе», — отметил в этой связи Клегг.

Картинка по мотивам ИИ в смартфоне.

А что думаете вы? Оставляйте свои комментарии, участвуйте в обсуждениях на нашей странице ВКонтакте, делайте перепосты, ставьте лайки, подписывайтесь на рассылку и вступайте в группу!

Ваш комментарий будет первым

Leave a comment

Your email address will not be published.


*