News Sci/Tech Сооснователь Google DeepMind: Как обезопасить ИИ и сохранить человечество
0
Искусственный интеллект

Published :

Сооснователь Google DeepMind: Как обезопасить ИИ и сохранить человечество

21 сентября 2023, 16:27

Слишком быстрое развитие искусственного интеллекта вызвало беспокойство, что однажды он станет сильнее людей, а его цели разойдутся с нашими — и тогда он будет угрожать существованию цивилизации.

Избегаем фатального развития

Сооснователь DeepMind, Мустафа Сулейман, предложил способ избежать фатального развития событий. Для этого разработчикам следует лишить искусственный интеллект некоторых базовых способностей, например, к самосовершенствованию. Нельзя позволять ИИ самостоятельно обновлять свой код без контроля. Эту деятельность можно даже лицензировать, подобно работе с возбудителями сибирской язвы или ядерными материалами.

Установление границ

Сулейман подчеркивает важность установления границ, которые ИИ не должен переходить. Эти границы должны обеспечивать безопасность на всех этапах работы ИИ: от программного кода до взаимодействия с другими системами и людьми, а также мотивов и целей компаний-разработчиков.

Регулирование ИИ

В целом Сулейман считает, что ИИ-сферу можно эффективно регулировать, и не верит в сценарий с уничтожением людей. Перед нами стоит множество более практических вопросов в области искусственного интеллекта, включая приватность, предвзятости, распознавание лиц и модерацию ИИ-контента в сети.

  • Reactions

    0
    0
    0
    0
    0
    0

    Your email address will not be published. Required fields are marked *