@pemile
Non, le résultat de sortie d’une IA n’est pas un chemin réversible
analysable, et cette IA tueuse se sert d’une caméra pour choisir sa
cible.
j’ai déjà répondu en écrivant
Seule la complexité du programme avec le principe d’itération (dont il
faut encore considérer celui de fractalisation pour aller plus loin),
augmenté s’il y a des ordres contradictoires, peut provoquer une action
non prévu, parce que l’IA a toujours besoin de hiérarchiser les ordres,
c’est une nécessité physique indépassable
Bon, je suppose que tu sais ce qu’est une itération !
pour finir, ce que tu écris est absurde, en effet, si le résultat de l’IA tueuse n’est pas analysable, cela veut dire qu’elle tue au hasard, donc, quelle peut tuer un enfant, une femme enceinte ou un vieillard avec autant de probabilité que de tuer un terroriste.
C’est totalement absurde et contraire au but visé. Et a pour seule conséquence, de revoir la copie du programme de l’IA. Sauf si le but est effectivement de tuer sans distinction si ce n’est par exemple de se trouver au mauvais endroit.
je n’ai jamais étudié comment est programmé l’IA, mais connaissant le principe de causalité dans ses fondements, je sais pertinemment que cela repose sur ce qui fait la réalité physique, c’est à dire, le principe de récurrence (définition de l’ordre premier, directeur qu’une IA doit absolument déterminer) et l’itération et dont je ne sais pas ce qu’il en est du troisième principe fondamental qu’est la fractale.
Mais encore une fois, une IA tout comme n’importe quelle machine qui ne fait pas ce qu’on attend d’elle est une machine à corriger ou à mettre à la casse. Maintenant, si tu aime une machine qui fait le contraire de ce que tu veux, ben, c’est que t’as atteint l’état de sénilité !