⚡️1 лауреат Нобелевской +3 лауреата премии Тьюринга
написали статью об управлении рисками ИИ
Свежая статья вышла сегодня под названием «Управление экстремальными рисками ИИ в условиях быстрого прогресса».
Вот основные моменты:
1. Компании участвуют в гонке за создание универсальных систем искусственного интеллекта(AGI), которые соответствуют/ превосходят способности человека в большинстве когнитивных работ.
2. ИИ-чипы становятся в 1,4 раза более экономичными, а алгоритмы обучения ИИ в 2,5 раза более эффективными с каждым годом.
3. Нет никакой фундаментальной причины, чтобы прогресс ИИ замедлялся/ останавливался на человеческом уровне.
4. ИИ уже превзошел человеческие способности в узких областях, таких как игра в го прогнозирование того, как сворачиваются белки.
5. Мы точно не знаем, как будет развиваться будущее ИИ.
Тем не менее, мы должны серьезно отнестись к возможности того, что очень мощные AGI, которые превосходят человеческие способности во многих критически важных областях, будут разработаны в течение этого десятилетия или следующего.
6. Мы ожидаем значительного увеличения развертывания ИИ, возможностей и рисков. При тщательном управлении и справедливом распределении ИИ может помочь человечеству вылечить болезни, повысить уровень жизни и защитить экосистемы. Возможности огромны.
7. Но наряду с этим есть и крупномасштабные риски.
Системы ИИ угрожают усилить социальную несправедливость, подорвать социальную стабильность, обеспечить широкомасштабную преступную деятельность и облегчить автоматизированную войну, индивидуальные массовые манипуляции и широко распространенное наблюдение.
8. Как только автономные системы ИИ будут преследовать нежелательные цели, мы не сможем держать их под контролем.
Что предлагают ученые?
- призывают частный бизнес и госсектор выделить 1/3 своего бюджета на НИОКР на решение проблем НИОКР и обеспечение безопасности и этического использования ИИ.
- нужны национальные институты и международное управление для обеспечения соблюдения стандартов, которые предотвращают безрассудство и злоупотребление ИИ.
- нужны меры управления, которые подготовят к внезапным прорывам ИИ, будучи политически осуществимыми, несмотря на разногласия и неопределенность в отношении сроков ИИ. Ключевым моментом являются политики, которые автоматически запускаются, когда ИИ достигает определенных этапов возможностей.
- регуляторы могут и должны требовать, чтобы разработчики frontier AI предоставляли внешним аудиторам на месте, всеобъемлющий («white-box») и точно настраивающий доступ с самого начала разработки модели
- нужны строгие методы для привлечения и оценки возможностей ИИ и прогнозирования их перед обучением.
- нужно научиться оценивать не только опасные возможности, но и риски в общеском контексте, со сложными взаимодействиями и уязвимостями.
- нужны инструменты для обнаружения и защиты от угроз с помощью ИИ, таких как крупномасштабные операции влияния, биологические риски и кибератаки. Однако, по мере того, как системы искусственного интеллекта становятся более способными, они в конечном итоге смогут обойти созданную человеком защиту. Чтобы обеспечить более мощную защиту на основе ИИ, сначала нужно научиться делать системы ИИ безопасными и согласованными.
Show more ...