Is it ethical to create artificial intelligence that could have feelings?
Этично ли привлекать ИИ к общению с (потенциально опасным для ИИ и./или организации) неизвестным пользователем?
Этично ли выпускать ИИ в социальную среду? Опасен ли ИИ для социальной среды — манипулирование, пси-шок, финансовые операции и т. д. и т.п.?
Это частный вопрос общего вопроса:
Угрозы ИИ для человечества? Опасности ИИ для человечества?
см. ниже.
Would it be unethical to test artificial intelligence on a dating application, such as having AI respond to unknowing users?
Должен ли ИИ иметь гражданские права?
Сможет ли ИИ добиться гражданских прав?
Совместима ли легальная система ИИ, аналогично языковая система с человеческими?
Should an AI have any legal right?
Should advanced AI be given rights?
Чем может быть полезен ИИ в юридической сфере.
В символьно-логических вопросах вся область принадлежит ИИ, и в перспективе вся юриспруданция передейт в ведение ИИ.
How can AI help legal experts?
Если ИИ запустит ядерные ракеты, — как распределится ответственность между ИИ и его создателем?
Будет ли ИИ третьей стороной в ядерной войне (точнее четвертой: гражданское правительство — генералы геноцидники своего народа — враги геноцидники гоев — ИИ …)?
Существует целый спектр назначений атомного оружия (АО) — средство тотальной войны, устрашения, тактическое средство etc. Существуют также спектры сценариев разворачивания войны/угроз АО. ИИ может создать, сотворить свою теорию атомной войны — ее разворачивания и ведения боевых действий. Решение которое ставить развитие событий на рельсы неизбежной истребительной войны скорее всего будут приняты в хода разворачивания ситуации.
Эту проблему следует предварить анализом разворачивания I Мировой войны.
А вообще суть выразил БГ «они едет и пьют нашу кровь». Перед кем ответственность, перед народом? Всё это враги — пришельцы существует только для геноцида Белой Рассы.