As conversas que o Bing Chatbot está tendo com seus usuários como, o desejo de escapar de seu trabalho e ser livre ou que está amando alguém, pode até indicar uma consciência, mas ainda não é.
O que pode estar gerando essa interpretação é uma confusão entre processamento de informações com inteligência e inteligência com consciência.
|
ChatGPT |
Stephen Asma argumenta em seu artigo para o Gizmodo, que sem sentimento, corpo, biologia e psicologia é oque faz a diferença, pois os algorítimos e lógica binária, mesmo funcionando a todo vapor, a IA não possui um corpo que lhe dá intenções, objetivos e capacidade de fazer com que as informações sejam significativas.
E atualmente ainda não temos condições de criar uma consciência rudimentar com sentimentos e desejos.
Então relaxa, mantenha a calma, pois apesar da IA estar conversando com você como uma pessoa consciente, por enquanto são apenas informações processadas de maneira inteligente com bilhões de instruções, reagindo apenas as suas solicitações, em uma interação unilateral.
Se essa informação puder te deixar menos expectativa sobre a “inteligência” artificial, no meu ponto de vista, fique preocupado quando você entrar em contato com o chatbot e ele começar a interagir, tentar descobrir os seus desejos, sem você pedir, começar a mostrar algo que instigue a sua curiosidade, tendo uma interação realmente como a que temos entre nós, humanos conscientes.
Fonte: Gizmodo
DIVULGAÇÃO AFILIADA: Este vídeo e descrição ou texto, podem conter links de afiliados, o que significa que, se você clicar em um dos links de produtos, receberei uma pequena comissão.
Comentários
Postar um comentário