• Home 2
  • Home 3
  • Home 4
  • Home 5
  • Horizontal Slider Posts
  • Info right list
  • Justified slider
  • Landing
  • Left sidebar
  • Lifestyle Blog
  • List standard
  • Magazine Grid
  • Main Home
  • Masonry list
  • Members
  • Minimalistic Magazine
  • My account
  • My account
  • No sidebar
  • Our Story
  • Our Team
  • Press
  • Right sidebar
  • Sample Page
  • sd
  • Shop
  • Shop 2 Columns
  • Shop 3 Columns
  • Shop 4 Columns
  • Shop list
  • Simple list
  • Thumbnail list
  • Wide list
  • Активность
  • Блог
    • ГРАЖДАНСКИЙ ЭКЗАМЕН-2022. КУЛЬТУРА. НАСЛЕДИЕ. ПОБЕДА
    • Гражданское участие: муниципальный аспект. Роль местных сообществ в обсуждении и реализации социально-значимых инициатив
  • Владимир. Гражданский экзамен-2020. Поправки в Конституцию
  • Войти
  • Выйти
  • Главная
  • Гражданский форум Рунета
  • ГРАЖДАНСКИЙ ЭКЗАМЕН -2021. НАУКА – ТЕХНОЛОГИИ – ПОБЕДА
  • Гражданский экзамен-2020. Философия. Обществознание. Страноведение. К Дню России 12 июня
  • Екатеринбург. Гражданский экзамен-2020. Поправки в Конституцию
  • Инициаторы проекта
  • Конституция Российской Федерации. Полный текст со всеми поправками
  • Контакты
  • Личный кабинет
  • Мониторинг
  • Новости проекта
  • Об интеллектуальной платформе “Гражданский экзамен”
  • Политика в отношении обработки персональных данных
  • Получение сертификата
  • Пользователи
  • Пользователь
  • Пример страницы
  • Сброс пароля
  • Сдать экзамен
  • Сокоординаторы платформы
  • Учётная запись
  • Форма публикации
  • Хартия Рунета
  • Экзамен
  • Экспертный совет — 2019-2022
  • Экспертный совет — 2023
  • Slide Anything Popup Preview
Понедельник, 20 марта, 2023
  • Войти
  • Регистрация
No Result
Показать все результаты
Гражданский экзамен. Интеллектуальная платформа
Гражданский экзамен. Интеллектуальная платформа
  • Главная
  • О платформе
    • Новости проекта
    • Инициаторы проекта
    • Сокоординаторы платформы
    • Экспертный совет
      • Экспертный совет — 2023
      • Экспертный совет — 2019-2022
  • Гражданская дискуссия
  • Гражданская философия
  • Гражданский экзамен
  • Контакты
  • Главная
  • О платформе
    • Новости проекта
    • Инициаторы проекта
    • Сокоординаторы платформы
    • Экспертный совет
      • Экспертный совет — 2023
      • Экспертный совет — 2019-2022
  • Гражданская дискуссия
  • Гражданская философия
  • Гражданский экзамен
  • Контакты
No Result
Показать все результаты
Гражданский экзамен. Интеллектуальная платформа
No Result
Показать все результаты
Главная В мире

Папа Римский предупредил об опасностях искусственного интеллекта

by Сергей Волобуев
3 года назад
в В мире, Мониторинг
0 0
0
Папа Римский предупредил об опасностях искусственного интеллекта

Папа Римский Франциск призвал техкомпании быть осторожными с развитием искусственного интеллекта. Он считает, что неправильный подход к технологиям может иметь очень неприятные последствия для всех людей.

В Ватикане прошла конференция с участием представителей компаний из Кремниевой долины, в частности Facebook, Mozilla и Western Digital, специалистов по компьютерным технологиям, католической этике, государственных органов и инвестиционных банков.

Материалы конференции будут использованы для подготовки папской энциклики — письма Папы Римского членам католической церкви — о технологиях искусственного интеллекта. В 2015 г. после подобных встреч была издана известная энциклика Laudato Si, посвященная вопросам защиты окружающей среды и глобального потепления.

“Впечатляющие разработки в области технологий, особенно в сфере искусственного интеллекта, начинают оказывать все более существенное влияние на все сферы человеческой деятельности. Поэтому открытые и конкретные дискуссии на эту тему необходимы как никогда”, – передает агентство Reuters слова Папы Римского.

Франциск считает, что компании должны быть более осторожными: “Если так называемый технический прогресс человечества станет врагом общего блага, это приведет к жалкой регрессии к форме варварства, диктуемой законом сильнейшего”.

Папа Римский считает, что технологии нуждаются в теоретических и практических моральных принципах. В противном случае технология может быть использована в злонамеренных целях. Папа Франциск считает, что искусственный интеллект сможет “отравить” тему публичных дебатов, распространять ложные мнения и манипулировать миллионами людей одновременно. “Может даже существовать угроза учреждениям, которые должны гарантировать мирное сосуществование”, – предупредил он.

Технологическим компаниям важно с самого начала разработки своих новых продуктов рассматривать вопросы их неэтичного использования и иметь у себя группы специалистов, занимающихся этими вопросами, отметил на открытии конференции первый помощник главного юрисконсульта компании Facebook Гэвин Корн.

Использование искусственного интеллекта, позволяющего боевым системам самостоятельно выбирать и атаковать цели, вызвало в последние годы этические споры. Критики предупредили, что это поставит под угрозу международную безопасность и ознаменует собой третью революцию в войне после пороха и атомной бомбы. К тому же рано или поздно автономные боевые системы попадут в руки террористов, которые смогут их с легкостью перепрограммировать на уничтожение других целей.

Amazon, Microsoft и Intel входят в число ведущих технологических компаний, подвергающих мир риску из-за разработки роботов-убийц, согласно отчету, в котором ведущие игроки отрасли высказались о своей позиции в отношении смертоносного автономного оружия.

Нидерландская неправительственная организация Pax классифицировала 50 компаний по трем критериям: разрабатывают ли они технологии, которые могут иметь отношение к смертоносному ИИ, работают ли они над соответствующими военными проектами и взяли ли на себя обязательство воздерживаться от участия в них в будущем.

В общей сложности 22 компании относились к категории “средней степени обеспокоенности”, а 21 – к категории “высокой обеспокоенности”, в частности Amazon и Microsoft, которые участвуют в тендере на поставку облачной инфраструктуры для армии США на сумму $10 млрд по контракту Пентагона.

К числу других компаний, входящих в группу высокого риска, относится компания Palantir, основанная при поддержке ЦРУ и получившая контракт на $800 млн на разработку системы искусственного интеллекта, “которая может помочь солдатам анализировать зону боевых действий в режиме реального времени”.

Развитие искусственного интеллекта в военных целях вызвало дебаты и протесты в отрасли: в прошлом году Google отказалась продлить контракт с Пентагоном под названием Project Maven, который использовал машинное обучение для различения людей и объектов при использовании военных дронов.

В апреле Европейский союз опубликовал руководство о том, как компании и правительства должны разрабатывать ИИ, в том числе о необходимости человеческого контроля, недискриминационной работы в интересах общества и окружающей среды и соблюдения конфиденциальности. Все участники дискуссии опасаются, что дальнейшие разработки в этой сфере могут спровоцировать новую гонку вооружений. Эксперты убеждены, что машине нельзя доверять решение, будет ли человек жить или умрет.

Источник

Фото

Сергей Волобуев

Сергей Волобуев

Next Post
Маринэ Восканян: “Новые технологии и новые формы дискриминации”

Маринэ Восканян: "Новые технологии и новые формы дискриминации"

Добавить комментарий Отменить ответ

Ваш адрес email не будет опубликован. Обязательные поля помечены *

© Copyright Qodeinteractive

© 2019-2023 Гражданский экзамен. Интеллектуальная платформа.

No Result
Показать все результаты
  • Главная
  • О платформе
    • Новости проекта
    • Инициаторы проекта
    • Сокоординаторы платформы
    • Экспертный совет
      • Экспертный совет — 2023
      • Экспертный совет — 2019-2022
  • Гражданская дискуссия
  • Гражданская философия
  • Гражданский экзамен
  • Контакты

© 2019-2023 Гражданский экзамен. Интеллектуальная платформа.

Добро пожаловать!

Войти через Facebook
Войти через Google
или

Войдите в свою учетную запись

Забыли пароль? Зарегистрироваться

Создать новый профиль

Зарегистрироваться через Facebook
Зарегистрироваться через Google
или

Заполните форму для регистрации

Все поля обязательны для заполнения Авторизоваться

Получить свой пароль

Пожалуйста, введите ваше имя пользователя или адрес электронной почты, чтобы сбросить пароль.

Авторизоваться

Add New Playlist