В недавнем заявлении Илона Маска, бывшего учредителя и члена совета директоров OpenAI, звучит тревожное предупреждение о потенциальной угрозе, исходящей от искусственного интеллекта (ИИ). Маск утверждает, что OpenAI должна раскрыть общественности причины увольнения своего генерального директора Сэма Альтмана.
Отметим, 17 ноября OpenAI объявила об увольнении Альтмана, объясняя это тем, что он «не всегда был откровенен в общении с советом директоров, что ограничивает его способность выполнять свои обязанности».
Однако комментарии Илона Маска поднимают вопросы о том, могла ли причина увольнения крыться в сфере исследования и создания передовых технологий, в частности, в разработке ИИ.
Маск, который уже не первый раз выступает с критикой в адрес ИИ, настаивает на том, что общество должно быть проинформировано об опасностях и рисках, связанных с передовым искусственным интеллектом. «Учитывая риск и мощность продвинутого ИИ, общественность должна быть проинформирована о том, почему правление решило принять такие радикальные меры», — пишет Маск.
Это соответствует его ранее высказанным опасениям и предложениям ввести строгий контроль над разработкой ИИ, чтобы избежать потенциального «утечки» технологий из-под контроля.
Отметим, Маск, будучи бывшим членом совета директоров OpenAI, покинул компанию в 2018 году, но его беспокойство по поводу влияния ИИ на общество продолжает оставаться актуальным.
Свежее заявление Маска звучит на фоне его недавнего запуска своей собственной ИИ-компании под названием Grok в начале ноября. Это наводит на мысль, что Маск, вероятно, видит новые перспективы в собственных технологиях.
Одной из версий увольнения Альтмана стало растущее напряжение внутри руководства OpenAI относительно опасностей, которые может представлять передовой ИИ. Спорный вопрос финансирования и разработки новых безопасных технологий мог стать основной причиной его увольнения.
Соучредитель и член совета директоров OpenAI Илья Суцкевер, предполагаемый «главный виновник» увольнения Альтмана, предпочел действовать более осторожно, — он создал внутри компании команду Super Alignment, которая заботится о том, чтобы будущие версии GPT-4 не представляли угрозы для человечества.