Наши клиенты
Пентагоном приняты этические принципы для искусственного интеллекта в вооружениях
Искусственный интеллект должен быть "ответственным", "соразмерным", "понятным", "надежным" и "управляемым".
Надежным искусственный интеллект должен стать, если ему придать "хорошо очерченные функции", а также постоянно испытывать в ходе разработки и эксплуатации.

Принцип ответственности предполагает "должные уровни здравого смысла и осторожности" при разработке боевых машин.
Управляемостью военные США назвали принцип, когда у живых операторов в любом случае сохранится возможность отключить боевые машины, которые "продемонстрируют незапланированное поведение".
Под соразмерностью в Пентагоне понимают "необходимые шаги для минимизации неумышленной предвзятости" боевых машин.

Под понятным искусственным интеллектом подразумевается то, что военные будут владеть необходимыми им технологиями и оперативными умениями, обеспечивать прозрачность процедур и документации, пишут РИА новости.
После 15-месячного периода выработки этики боевых машин рекомендации переданы министру обороны.
03.03.2020





























-120x120.png)


-120x120.png)



-120x120.jpg)



-120x120.png)

-120x120.png)








