Matt salue la conscience confuse et terrifiee de “Greta cookie”. Cela explique qu’elle n’est jamais reellement Greta, mais plutot une copie numerique en conscience de Greta, appelee cookie, concue pour controler domicile intelligente et le calendrier de Greta, garantissant que bien est parfait pour la authentique Greta. Matt cree ensuite votre corps virtuel Afin de la copie virtuel de Greta et la place dans une salle blanche simulee ne contenant pas grand chose d’autre qu’un panneau de commande. Notre copie refuse d’accepter qu’elle n’est jamais un individu reelle et rejette de devenir forcee de devenir l’esclave des desirs de Greta. La ti?che de Matt consiste a briser la volonte des copies numeriques par la torture, afin qu’ils se soumettent a une vie de servitude envers leurs vrais homologues.
Sur la base de l’histoire envisagee, serait-il immoral d’asservir la propre esprit simule sur une puce une taille d’un haricot Afin de toutes vos propres desirs contre la volonte d’une copie virtuel de vous-meme concernant la longueur de vie ? Et pourquoi?
D’une part, votre pourrait etre immoral, car l’atmosphi?re simule a sa propre conscience de soi et le propre concept de libre arbitre, et il va enregistrer une douleur emotionnelle. D’un autre cote votre ne sera nullement immoral, parce qu’il lui manque un corps physique (a la fin c’est juste un bout de code), ainsi, tu te dis que tu le possedes, parce que c’est juste une copie de ton propre esprit (et quand tu possedes quelque chose, tu peux faire votre que tu veux).
Marko Bakic
La plupart des theories morales dictent que Notre preoccupation morale envers une entite donnee est justifiee si et seulement si l’entite est sensible , et cela signifie qu’elle a la capacite de ressentir Plusieurs qualia (experiences subjectives tel la sensation distincte d’epuisement due a l’esclavage, entre autres).
Or le sujet de savoir si une entite est sensible, ou plus largement s’il est meme possible de montrer qu’elle l’est, est votre probleme en suspens dans la philosophie de l’esprit. Recherchez l’experience de pensee d’une chambre chinoise de Searle et toutes ses variantes pour voir la profondeur en difficulte avec cette question.
En resume — le sujet de savoir quand il reste moralement acceptable d’asservir une simulation de votre propre esprit est sans reponse pour autant que nous puissions en juger. Repondre « oui » n’est pas justifie, car votre simulation pourra etre sensible et avoir une importance morale egale, et repondre « non » n’est nullement non plus justifie car la simulation va ne pas etre sensible, auquel cas vous perdriez de nombreux potentiel productivite, que bon nombre de theories morales decourageraient. Cela vaudrait peut-etre plus rester agnostique concernant cette question, via principe, car la difficulte unique de questions comme celle-ci semble indiquer que nous n’aurons peut-etre jamais de reponse.
proche
Naturellement, il n’y a aucune preuve de toute facon et donc la seule reponse a votre question pourrait i?tre de vous diriger vers toute la litterature une philosophie de l’esprit.
En dehors de cela, on ne est en mesure de exploiter la question que tel une opportunite d’exprimer une opinion personnelle – la mienne dit que les mecs qui croient que le calcul pourra etre conscient au sens le plus complet expriment 1 aveuglement mysterieux a la nature fondamentale une conscience.
Etant donne que c’est mon opinion, j’ai pense que je pourrais autant exprimer la facon dont je pense que le scenario interessant que vous avez propose doit etre compris.
Combien de fois avez-vous pleure dans 1 personnage, humain ou meme animal, qui meurt dans un livre ou dans un film, ou aussi dans un jeu video ?
Pourtant, combien de fois avez-vous cru que ce personnage fictif est en fait 1 etre sensible qui possi?de reellement connu le malheur ?
Claque que la scene decrite dans votre question soit emotionnellement engageante, voire horrible, ne veut pas dire qu’elle apparai®t comme quelque chose de sensiblement different d’un jeu video sophistique.
Dans votre “jeu”, la ti?che de Matt est de gagner. Il n’est nullement surprenant que l’agent simule agisse comme quand il s’agissait tout d’un veritable humain, avec toute la complexite et l’ingeniosite que cela implique. Considere tel 1 “jeu”, i§a va etre un defi intellectuel et meme emotionnel Afin de Matt, mais neanmoins, esperons-le, Matt ne s’embrouille jamais, prenant le jeu pour une personne reelle.
Une activite tel celui de Matt peut meme avoir des consequences morales, mais jamais du genre auquel vous vous attendez naturellement. Supposons qu’il existe un genre de films de fiction entierement consacres au viol, a la torture et au meurtre brutal d’innocents. Que penseriez-vous de quelqu’un qui devient progressivement accro a de tels films ?
Encore une fois, bien ce qui precede suppose que la simulation est une simulation calculee, le concept central proprement dit etant le calcul et sa portee.
Isaacson
Si vous considerez la premiere presomption tel vraie, d’apres laquelle “une copie numerique une conscience de Greta” peut etre faite, alors vous supposez intrinsequement 1 monde dans lequel bien et cela reste “la conscience de Greta” est reductible au code si ce n’etait pas le cas, aussi Greta cookie ne serait pas du tout une copie d’la conscience de Greta, mais une copie des parties de celle-ci, il en manque d’autres.
Donc, dans un monde ou une telle chose reste possible, i§a ne sera jamais justifie de dire “a la fin votre n’est qu’un bout de code” parce que c’est tout votre que n’importe qui reste, le code d’la Greta originale est transporte via votre ordi fera de cellules, que du cookie Greta dans votre ordinateur compose de puces de silicium.
Revenant au monde vrai, nous n’attribuons aucun droits a toutes les entites sur la base de leurs composants fondamentaux, personne ne savait rien du fonctionnement du cerveau di?s qu’il est devenu tabou de torturer les individus. Nous avons attribue des droits uniquement au motif que c’etaient des choses que les gens semblaient desirer et ressentaient une douleur emotionnelle lorsqu’ils etaient prives. Il va suffire donc que le cookie Greta manifeste un desir de liberte et une douleur emotionnelle lorsqu’il en est prive pour qu’il soit moral de lui accorder de tels droits. Sans cette regle, nous effectuons une retro-ingenierie de notre moralite pour pretendre qu’elle est basee dans des connaissances que nous n’avions tout simplement jamais i l’instant ou elle evoluait.
Notre morale a evolue pour repondre a toutes les renseignements recues par nos sens et ne point y repondre provoque une douleur psychologique qui nous affecte a Notre fois maintenant et dans le futur. Considerez ce que Matt pourrait faire Afin de continuer a torturer Greta Cookie malgre ses supplications Afin de qu’il arrete. Que se passerait-il si le futur Matt se retrouvait aussi dans une situation ou il lui serait utile de torturer un individu reelle, serait-il bien revolte a l’idee de le faire ?