ИИ который может угрожать человечеству

Незадолго до увольнения генерального директора OpenAI Сэма Альтмана несколько сотрудников написали письмо правлению, в котором говорилось, что они “создают искусственный интеллект, который может угрожать человечеству”, сообщили Reuters два источника, знакомых с ситуацией.

Компания OpenAI, которая отказалась от комментариев, признала во внутреннем сообщении сотрудникам существование проекта под названием Q*, согласно одному из источников. Некоторые в OpenAI считают, что Q* (произносится Q-Star) может стать прорывом в поисках так называемого искусственного общего интеллекта (AGI). OpenAI описывает AGI как автономные системы, которые превосходят людей в большинстве экономически значимых задач.

Учитывая огромные вычислительные ресурсы, новая модель смогла решить некоторые математические задачи, сообщил источник. Хотя Q * изучает математику только на уровне учащихся начальной школы, успешное выполнение подобных тестов вселяет в исследователей большой оптимизм по поводу будущих успехов Q *.

Исследователи считают, что математика — это передний край генеративного ИИ. В настоящее время генеративный ИИ хорош в написании и переводе, статистически предсказывает следующее слово, и ответы на один и тот же вопрос могут сильно различаться. Но овладение математическими навыками, где есть только один правильный ответ, подразумевает, что ИИ будет обладать большими способностями к рассуждению, которые напоминают человеческий интеллект. По мнению исследователей ИИ, это может быть применено, например, к новым научным исследованиям. В отличие от калькулятора, который может выполнять только ограниченное количество операций, AGI может обобщать, учиться и понимать.

В своем письме совету директоров исследователи отметили мощь ИИ и его потенциальные опасности. Среди ученых-компьютерщиков давно ведутся споры об опасностях, которые представляют собой высокоинтеллектуальные машины, например, если они могут решить, что уничтожение человечества отвечает их интересам.

Через день после получения письма правление уволило Альтмана. Вчера стало известно, что он вернется на пост генерального директора OpenAI после скандального увольнения.

Привело ли это к отставке Альтмана?

Согласно другому отчету, инсайдеры сообщили Reuters, что секретный прорыв OpenAI, который ускорил смещение Альтмана, называется Q * (произносится Q-Star).

Недавно разработанная модель может использовать обширные вычислительные ресурсы и решать конкретные математические задачи, как сообщил анонимный источник, не имеющий права говорить от имени компании.

Несмотря на то, что в настоящее время математические знания модели находятся на уровне начальной школы, умелые результаты модели в тестах подогревают оптимизм исследователей относительно многообещающей траектории будущего успеха Q *.

Может быть, это то, о чем говорил Альтман в своей речи на саммите Азиатско-Тихоокеанского экономического сотрудничества? Он сказал: «От себя лично отмечу, что за всю историю OpenAI это было уже четыре раза, последний раз — как раз за последние пару недель. Я присутствовал в зале, когда мы отодвигали завесу невежества и продвигали границы открытий вперед «.

Кстати, на следующий день после этих замечаний правление OpenAI уволило его.

Возвращение Альтмана произошло после бурного пятидневного перерыва, в течение которого он первоначально был отстранен без четких публичных объяснений. После этого в компании произошло назначение и уход двух других генеральных директоров, прежде чем Альтман был восстановлен.

При драматическом повороте событий произошло триумфальное возвращение, поскольку более 700 сотрудников в знак солидарности со своим свергнутым лидером пригрозили уволиться и объединить усилия со сторонником Microsoft до принятия резолюции.

Приближаемся к неуловимому AGI

Хотя модель искусственного интеллекта, решающая математические задачи начального уровня, звучит не очень захватывающе, ученые считают, что это ступенька к достижению AGI.

Как и на Диком Западе генеративных исследований ИИ, математика подразумевает уровень рассуждений, сродни человеческому уму. Прямо сейчас ИИ подобен мастеру слова. Он может только предсказать следующее слово в предложении. Ученые считают математику границей человеческого интеллекта.

Исследователи предупредили о его потенциальных опасностях, но, согласно сообщениям, умолчали о точных соображениях безопасности в своем письме.

Ученые-компьютерщики некоторое время шептались в салунах о риске выхода из строя сверхумных машин, возможно, решив, что гибель человечества вошла в моду.

Между тем, многочисленные источники поклялись в существовании «команды ученых-ИИ», которой, как говорят, поручено оптимизировать существующие модели искусственного интеллекта.