Но, разумеется, Маск и Альтман волнуются, что если люди смогут создать ИИ, который творит великие вещи, они будут способны создать ИИ, который сможет делать и ужасные вещи. И они не одни в своем страхе роботов-владык, но парадоксальным образом Маск и Альтман считают, что лучший способ сражаться с разбушевавшимся ИИ — не ограничить доступ к нему, а, наоборот, расширить. Частично это и привлекло в проект команду молодых гипер-интеллектуальных идеалистов.
Когда Маск и Альтман представили OpenAI, они также описали проект как способ нейтрализовать угрозу вредоносного икусственного сверхразума. Конечно, такой сверхразум может появиться из технологий, создаваемых OpenAI, но они настаивают на том, что любая угроза будет нивелирована тем, что технология будет общедоступной. «Мы считаем очень вероятным то, что множество ИИ смогут предотвратить единичные плохие намерения», — говорит Альтман.
Но не все в отрасли купились на это. Ник Бостром, профессор философии Оксфордского университета, предупреждавший, как и Маск, об опасностях ИИ, указывает на то, что в случае распространения исследований без ограничений, их могут злонамеренно использовать еще до того, как подтвердится их безопасность. «Если бы у вас была кнопка, которая могла бы делать плохие вещи миру, вы бы не захотели давать ее каждому», — говорит Бостром. С другой стороны, если OpenAI решит задерживать результаты исследований, чтобы уберечь их от «плохих парней», Бострому интересно, чем же этот проект отличается от Google и Facebook.
69