@pemile
De dire dans le même post un truc et son contraire ?
explique moi donc cela
J’en suis certain et ça a été facilement prouvé, il est souvent très
facile de leurrer une IA et une IA utilisant une caméra ne sera jamais
fiable à 100% et n’ayant aucune connaissance du réel sera incapable de
gérer de nouvelles situations.
tu confond entre faire une mauvaise analyse dû aux limites (entre autres) que tu souligne qui conduit à une action contraire et décider de faire une action contraire avec ou sans mauvaise analyse de l’IA
Je me souviens d’un expert (réel celui-là) relatant une expérience où l’IA avait pris la main sur l’humain parce qu’elle avait considérée qu’il l’empêchait d’accomplir sa mission définie comme ordre premier. Alors que l’IA n’avait pas l’autorisation dans son programme, mais dès lors où l’ordre premier lui dit d’accomplir sa mission, que le principe de l’IA est l’auto apprentissage, ben, cela implique la possibilité à l’IA de modifier le programme pour accomplir l’ordre premier qui est le seul qui s’impose de manière absolue à elle.
Bref, l’IA avait identifié ce qui la bloquait et avait agit en conséquence.
tu sais quoi ? Ben, ils ont déconnecté l’IA
Mais l’IA obéit toujours à ce qui lui est demande, elle se contente d’exécuter l’ordre et si l’humain se trompe, ce n’est pas son problème étant donnée que le sens de son action est définie par l’humain et lui seul.