Сотницы определений искусственного интеллекта

22
18
20
22
24
26
28
30

Is it ethical to create artificial intelligence that could have feelings?

Этично ли привлекать ИИ к общению с (потенциально опасным для ИИ и./или организации) неизвестным пользователем?

Этично ли выпускать ИИ в социальную среду? Опасен ли ИИ для социальной среды — манипулирование, пси-шок, финансовые операции и т. д. и т.п.?

Это частный вопрос общего вопроса:

Угрозы ИИ для человечества? Опасности ИИ для человечества?

см. ниже.

Would it be unethical to test artificial intelligence on a dating application, such as having AI respond to unknowing users?

Должен ли ИИ иметь гражданские права?

Сможет ли ИИ добиться гражданских прав?

Совместима ли легальная система ИИ, аналогично языковая система с человеческими?

Should an AI have any legal right?

Should advanced AI be given rights?

Чем может быть полезен ИИ в юридической сфере.

В символьно-логических вопросах вся область принадлежит ИИ, и в перспективе вся юриспруданция передейт в ведение ИИ.

How can AI help legal experts?

Если ИИ запустит ядерные ракеты, — как распределится ответственность между ИИ и его создателем?

Будет ли ИИ третьей стороной в ядерной войне (точнее четвертой: гражданское правительство — генералы геноцидники своего народа — враги геноцидники гоев — ИИ …)?

Существует целый спектр назначений атомного оружия (АО) — средство тотальной войны, устрашения, тактическое средство etc. Существуют также спектры сценариев разворачивания войны/угроз АО. ИИ может создать, сотворить свою теорию атомной войны — ее разворачивания и ведения боевых действий. Решение которое ставить развитие событий на рельсы неизбежной истребительной войны скорее всего будут приняты в хода разворачивания ситуации.

Эту проблему следует предварить анализом разворачивания I Мировой войны.

А вообще суть выразил БГ «они едет и пьют нашу кровь». Перед кем ответственность, перед народом? Всё это враги — пришельцы существует только для геноцида Белой Рассы.