Ir ao conteúdo
  • Comunicados

    • Gabriel Torres

      Seja um moderador do Clube do Hardware!   12-02-2016

      Prezados membros do Clube do Hardware, Está aberto o processo de seleção de novos moderadores para diversos setores ou áreas do Clube do Hardware. Os requisitos são:   Pelo menos 500 posts e um ano de cadastro; Boa frequência de participação; Ser respeitoso, cordial e educado com os demais membros; Ter bom nível de português; Ter razoável conhecimento da área em que pretende atuar; Saber trabalhar em equipe (com os moderadores, coordenadores e administradores).   Os interessados deverão enviar uma mensagem privada para o usuário @Equipe Clube do Hardware com o título "Candidato a moderador". A mensagem deverá conter respostas às perguntas abaixo:   Qual o seu nome completo? Qual sua data de nascimento? Qual sua formação/profissão? Já atuou como moderador em algo outro fórum, se sim, qual? De forma sucinta, explique o porquê de querer ser moderador do fórum e conte-nos um pouco sobre você.   OBS: Não se trata de função remunerada. Todos que fazem parte do staff são voluntários.
MarcelinhoB

Porque computadores são extremamente imbecis comparado com Inteligência Artificial?

Recommended Posts

Antes que me critiquem por estar postando ***** em local errado, sim, esse assunto esta adequado sim ao forum Processadores! Ate então nao existem processadores, e algoritmos funcionais para esse tipo de logica, para esse tipo de funcionalidade, fica a titulo de conhecimento de quem achar interessante o artigo.

Porque computadores são extremamente imbecis comparado com Inteligência Artificial?

O principal e único motivo é o porque eles utilizam da lógica Booleana(que deu origem a lógica binária) ao invés da lógica Fuzzy!

A lógica binária é a base de todo o cálculo computacional. Na verdade, são estas operações mais básicas que constituem todo o poderio dos computadores. Qualquer operação, por mais complexa que pareça, é traduzida internamente pelo processador para estas operações. Os seus estados são traduzidos potencialmente apenas como “SIM” ou “NAO”. E suas estruturas seguem apenas essa linha de raciocínio.

A lógica difusa ou lógica fuzzy é uma extensão da lógica booleana que admite valores lógicos intermediários entre o “SIM” e o “NÃO”, por exemplo o valor “TALVEZ” . Isto significa que um valor lógico difuso é um valor qualquer no intervalo de valores entre 0 e 1. Este tipo de lógica engloba de certa forma conceitos estatísticos.

A lógica Fuzzy também pode ser empregada no raciocínio humano, aonde pode existir uma ou mais possibilidades!

A maior dificuldade na tecnologia atual esta justamente na transição da lógica binária para a lógica Fuzzy, modelos computacionais de algoritmos bem mais complexos devem ser transcritos para que esta funcione assim como o imaginado, e mesmo assim ainda estaremos muito distante de uma lógica Artificial.

Um exemplo básico de uma lógica Binária, com a lógica Artificial é o raciocínio:

Digamos que você acabou de conhecer uma pessoa ao acaso, não obteve nenhum dado sobre ela, e nunca conversou com ela. Algum conhecido te pergunta: Essa pessoa é Brasileira? A resposta mais correta, e lógica possível seria “TALVEZ”, porque por mais que as suposições fossem favoráveis ou contraditórias, ainda não poderíamos ter uma certeza(Nesse caso a suposição tenderia a 0, mas não seria 0). Com isso, o algoritmo buscaria outros meios para responder a essa indagação. Com base nisso traçamos o funcionamento de uma lógica Artificial.

filmes_1787_Eu%201.jpg

A lógica binária responderia simplesmente “NÃO”, ou travaria o sistema inteiro, não existe um meio termo na lógica binária, apenas o SIM ou o NÃO, nesse caso temos que existem 191 países, ou então 191 nacionalidades existentes dentre a qual apenas 1 preencheria o requisito de ser Brasileiro ou não, ou seja 1/191 ou ainda 0,523% de chances dessa pessoa ser Brasileira, ou seja tendem a 0. Como na lógica binária ou é 1 ou é 0, não existem pressuposições do que é ou do que não é, logo o computador interpretaria a resposta como o mais próximo possível da verdade, ou seja, essa pessoa não é Brasileira.

Nos sabemos que isso não se aplica a realidade, existe um TALVES, onde pode ser (SIM) ou (NÃO), lembrando que por mais que as chances tendam a Zero, elas ainda não são zero.

Pegue uma aplicação real, onde um valor inteiro(por exemplo 25.420) multiplica um valor tão pequeno quanto o queira(0,002) que de modo computacional, seria arredondado para zero. Multiplicando esse número pelo fracionário. Mesmo que o valor fique bem menor em comparação aos 25.420(Pois estaríamos pegando apenas 0,2% da taxa original) ele ainda será grande, o resultado seria 50,84. Agora se emularmos o raciocínio da lógica binária, simplesmente multiplicaríamos 25.420 por 0, e o resultado seria 0! É esse tipo de equivoco que a lógica binária executa em um computador de alto nível hoje em dia!

Na verdade de todas as verdades, o arredondamento, foi a coisa mais ***** que um humano pode ter inventado, uma casa decimal a mais, ou uma a menos, em uma aplicação real, e de valores extravagantes, podem gerar resultados absurdos!

Uma vez eu li um artigo que dizia que o que torna o cérebro, um artefato tão curioso, e tão perfeito é justamente essa linha de vários caminhos a seguir, um neurônio não possui apenas uma interligação com outro neurônio onde só seria possível seguir o caminho SIM ou NAO, mas possui dezenas de ligações com outros neurônios, e é justamente essa a ideia base da lógica Fuzzy, sair dos paradigmas atuais do SIM e do NÃO, e passar a intercalar para o TALVEZ, o provável. É assim que funciona o cérebro humano. Não que a tecnologia esteja caminhando para substituir um Deus-criador, ela esta apenas progredindo, evoluindo, como ocorreu com os Neandertais a milhares de anos até hoje. Uma transição necessária para as próximas escalas evolutivas.

brainmapping1.jpg

Abrangendo para uma escala evolutiva ainda maior, em um futuro próximo talvez, os computadores estejam aptos a tomar decisões estatísticas como: “SIM”(100% de certeza), “SIM-TALVEZ”(75%) “TALVEZ”(50%) “NÃO-TALVEZ”(25%) e “NAO”(0%), podemos notar que quanto mais a porcentagem de certeza estiver diluída entre as probabilidades, mais próximo da mentalidade humana, ou de uma lógica artificial, o algoritmo estará. Mas isso não sobressairá frente ao cérebro humano, porque por mais que um computador possa distinguir quais as chances mais reais, e melhores para a tomada de certas decisões, ainda assim ele não terá duas coisas essenciais que diferenciam os humanos das maquinas, os sentimentos, e a fé! Que exigiriam um algoritmo BEM mais complexo do que o da lógica Artificial.

Talvez estejamos frente a uma próxima nomeação do Nobel, porque, por mais avançada que a tecnologia esteja hoje em dia, ainda não chegamos ao consenso de um algoritmo apropriado para a lógica Fuzzy, existem diversos, porém nenhum atende a todas as especificações necessárias.

Editado por MarcelinhoB
  • Curtir 1

Compartilhar este post


Link para o post
Compartilhar em outros sites

Antes que me critiquem por estar postando ***** em local errado, sim, esse assunto esta adequado sim ao forum Processadores! Ate então nao existem processadores, e algoritmos funcionais para esse tipo de logica, para esse tipo de funcionalidade, fica a titulo de conhecimento de quem achar interessante o artigo.

Porque computadores são extremamente imbecis comparado com Inteligência Artificial?

O principal e único motivo é o porque eles utilizam da lógica Booleana(que deu origem a lógica binária) ao invés da lógica Fuzzy!

A lógica binária é a base de todo o cálculo computacional. Na verdade, são estas operações mais básicas que constituem todo o poderio dos computadores. Qualquer operação, por mais complexa que pareça, é traduzida internamente pelo processador para estas operações. Os seus estados são traduzidos potencialmente apenas como “SIM” ou “NAO”. E suas estruturas seguem apenas essa linha de raciocínio.

A lógica difusa ou lógica fuzzy é uma extensão da lógica booleana que admite valores lógicos intermediários entre o “SIM” e o “NÃO”, por exemplo o valor “TALVEZ” . Isto significa que um valor lógico difuso é um valor qualquer no intervalo de valores entre 0 e 1. Este tipo de lógica engloba de certa forma conceitos estatísticos.

A lógica Fuzzy também pode ser empregada no raciocínio humano, aonde pode existir uma ou mais possibilidades!

A maior dificuldade na tecnologia atual esta justamente na transição da lógica binária para a lógica Fuzzy, modelos computacionais de algoritmos bem mais complexos devem ser transcritos para que esta funcione assim como o imaginado, e mesmo assim ainda estaremos muito distante de uma lógica Artificial.

Um exemplo básico de uma lógica Binária, com a lógica Artificial é o raciocínio:

Digamos que você acabou de conhecer uma pessoa ao acaso, não obteve nenhum dado sobre ela, e nunca conversou com ela. Algum conhecido te pergunta: Essa pessoa é Brasileira? A resposta mais correta, e lógica possível seria “TALVEZ”, porque por mais que as suposições fossem favoráveis ou contraditórias, ainda não poderíamos ter uma certeza(Nesse caso a suposição tenderia a 0, mas não seria 0). Com isso, o algoritmo buscaria outros meios para responder a essa indagação. Com base nisso traçamos o funcionamento de uma lógica Artificial.

filmes_1787_Eu%201.jpg

A lógica binária responderia simplesmente “NÃO”, ou travaria o sistema inteiro, não existe um meio termo na lógica binária, apenas o SIM ou o NÃO, nesse caso temos que existem 191 países, ou então 191 nacionalidades existentes dentre a qual apenas 1 preencheria o requisito de ser Brasileiro ou não, ou seja 1/191 ou ainda 0,523% de chances dessa pessoa ser Brasileira, ou seja tendem a 0. Como na lógica binária ou é 1 ou é 0, não existem pressuposições do que é ou do que não é, logo o computador interpretaria a resposta como o mais próximo possível da verdade, ou seja, essa pessoa não é Brasileira.

Nos sabemos que isso não se aplica a realidade, existe um TALVES, onde pode ser (SIM) ou (NÃO), lembrando que por mais que as chances tendam a Zero, elas ainda não são zero.

Pegue uma aplicação real, onde um valor inteiro(por exemplo 25420) multiplica um valor tão pequeno quanto o queira(0,002), e depois multiplique esse mesmo valor inteiro por zero, você veria uma grande diferença em relação ao primeiro, como se arredondássemos esse valor para zero! Esse é o tipo de aplicação que usamos em um computador de alto nível!

Uma vez eu li um artigo que dizia que o que torna o cérebro, um artefato tão curioso, e tão perfeito é justamente essa linha de vários caminhos a seguir, um neurônio não possui apenas uma interligação com outro neurônio onde só seria possível seguir o caminho SIM ou NAO, mas possui dezenas de ligações com outros neurônios, e é justamente essa a ideia base da lógica Fuzzy, sair dos paradigmas atuais do SIM e do NÃO, e passar a intercalar para o TALVEZ, o provável. É assim que funciona o cérebro humano. Não que a tecnologia esteja caminhando para substituir um Deus-criador, ela esta apenas progredindo, evoluindo, como ocorreu com os Neandertais a milhares de anos até hoje. Uma transição necessária para as próximas escalas evolutivas.

brainmapping1.jpg

Abrangendo para uma escala evolutiva ainda maior, em um futuro próximo talvez, os computadores estejam aptos a tomar decisões estatísticas como: “SIM”(100% de certeza), “SIM-TALVEZ”(75%) “TALVEZ”(50%) “NÃO-TALVEZ”(25%) e “NAO”(0%), podemos notar que quanto mais a porcentagem de certeza estiver diluída entre as probabilidades, mais próximo da mentalidade humana, ou de uma lógica artificial, o algoritmo estará. Mas isso não sobressairá frente ao cérebro humano, porque por mais que um computador possa distinguir quais as chances mais reais, e melhores para a tomada de certas decisões, ainda assim ele não terá duas coisas essenciais que diferenciam os humanos das maquinas, os sentimentos, e a fé! Que exigiriam um algoritmo BEM mais complexo do que o da lógica Artificial.

Talvez estejamos frente a uma próxima nomeação do Nobel, porque, por mais avançada que a tecnologia esteja hoje em dia, ainda não chegamos ao consenso de um algoritmo apropriado para a lógica Fuzzy, existem diversos, porém nenhum atende a todas as especificações necessárias.

Rapaz, não sei te dizer se ainda não encontraram técnicas superiores de aplicação de IA(falando de todos os níveis de programação), mas os Hardwares atuais não conseguem processar todas as funções que um ser humano processa, ou coisa assim.

Só sei te dizer que a IBM(que é a Mãe do Computador Moderno, e um dos seus fundadores é um dos pioneiros mundiais da engenharia moderna) ano passado conseguiu, com todos os seus 120+ anos de experiência em computadores no ano passado, emular o cérebro de uma mosca.

Ainda hoje é inestimável o custo pra se produzir um hardware ou software que emule todas as funções do cérebro humano. Entretanto, acontece o seguinte descrito abaixo:

A inteligência artificial provocou uma revolução na computação, de forma que praticamente qualquer eletrônico hoje em dia usa IA.

Compartilhar este post


Link para o post
Compartilhar em outros sites

Bem, os processadores têm unidades dedicadas para cálculo em ponto flutuante, que representa as frações para os CPUs. Mas realmente o cálculo em ponto flutuante é bem mais "pesado" do que o cálculo em integral, o mesmo que você menciona no texto. Sobre arredondamento, também existe a opção de calcular com "dupla precisão", chegando a um resultado mais preciso.

No final eu havia lido por ai que espera-se que apenas com os computadores quânticos nós tenhamos um salto computacional suficiente para AIs "decentes", por uma razão ou outra. Eles supostamente seriam bem mais eficientes em cálculo em ponto flutuante e inclusive há o risco deles quebrarem toda a criptografia que existe hoje, já que fariam de forma trivial o que hoje é considerado "seguro".

EDIT: você traduziu o texto? O exemplo do "25420" e arredondamento para zero" não está muito fácil de entender.

Editado por sirroman
  • Curtir 1

Compartilhar este post


Link para o post
Compartilhar em outros sites
  • Autor do tópico
  • Bem, os processadores têm unidades dedicadas para cálculo em ponto flutuante, que representa as frações para os CPUs. Mas realmente o cálculo em ponto flutuante é bem mais "pesado" do que o cálculo em integral, o mesmo que você menciona no texto. Sobre arredondamento, também existe a opção de calcular com "dupla precisão", chegando a um resultado mais preciso.

    No final eu havia lido por ai que espera-se que apenas com os computadores quânticos nós tenhamos um salto computacional suficiente para AIs "decentes", por uma razão ou outra. Eles supostamente seriam bem mais eficientes em cálculo em ponto flutuante e inclusive há o risco deles quebrarem toda a criptografia que existe hoje, já que fariam de forma trivial o que hoje é considerado "seguro".

    EDIT: você traduziu o texto? O exemplo do "25420" e arredondamento para zero" não está muito fácil de entender.

    Eu dei uma melhorada no exemplo ali, e nao, eu nao traduzi nem copiei o texto kk é de minha autoria . . . Hoje em dia so existem pesquisas em cima de pesquisas, prototipos do que a IA deve realizar, mas os algoritmos para criacao de uma logica assim sao muito complexos! Se um computador *******, ja conseguiu fazer extremas realizações dando apenas respostas como um SIM ou um NAO, imagine o que ele nao faria dando uma terceira resposta TALVEZ?

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites

    Essa citação ai que diz que arredondamento é idiotice é o cumulo do absurdo. Toda a engenharia trabalha com erros. Não há meios de se projetar algo real, usando dispositivos reais sem se considerar os erros. Esses proprios 0s e 1s de que você fala ai, na verdade, são variações de tensôes. Se fosse simplesmente 0V e 5V, por exemplo, o computador não funcionava.

    Editado por Rodrigo Sobral

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
  • Autor do tópico
  • Essa citação ai que diz que arredondamento é idiotice é o cumulo do absurdo. Toda a engenharia trabalha com erros. Não há meios de se projetar algo real, usando dispositivos reais sem se considerar os erros. Esses proprios 0s e 1s de que você fala ai, na verdade, são variações de tensôes. Se fosse simplesmente 0V e 5V, por exemplo, o computador não funcionava.

    A essencia da logica artificial esta sim no Nao arredondamento!

    Tanto em Estatistica quanto em Engenharia quando arredondamos um fracionario de 8 casas por exemplo, pra 2 casas, perdemos muita precisao no resultado final!

    Retornando o pensamento original, nao digo que as maquinas devem parar de arredondar, tem uma hora que é impossivel nao arredondar, por exemplo quando chega a uma divisao 1/3 que no resultado da 1.33333....... infinitamente, mas a tecnologia tem que fugir dos paradigmas atuais do SIM e do NAO e considerar uma terceira hipotese, o TALVEZ que seria o fracionario, o meio termo entre o SIM e o NAO.

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
    A essencia da logica artificial esta sim no Nao arredondamento!

    Tanto em Estatistica quanto em Engenharia quando arredondamos um fracionario de 8 casas por exemplo, pra 2 casas, perdemos muita precisao no resultado final!

    Retornando o pensamento original, nao digo que as maquinas devem parar de arredondar, tem uma hora que é impossivel nao arredondar, por exemplo quando chega a uma divisao 1/3 que no resultado da 1.33333....... infinitamente, mas a tecnologia tem que fugir dos paradigmas atuais do SIM e do NAO e considerar uma terceira hipotese, o TALVEZ que seria o fracionario, o meio termo entre o SIM e o NAO.

    Então, as vezes, certos arredondamentos feitos pelos programas atrapalham mesmo. Mas, diferentemente, da estatistica(acho), em engenharia(de um modo geral e não especificamente em eng de software) se arredonda pra se ganhar precisão e confiabilidade e não o contrário. Por que se arredonda? Por vários motivos. Primeiro, se não fosse dessa forma, todo mundo teria que mandar fabricar seus proprios dispositivos, o que, na maioria das vezes, fica inviável. Segundo, você precisa compensar a margem de erro de suas peças. Trabalhar em regiôes lineares de seus dispositivos tambem ajuda bastante e por ai vai.

    • Curtir 1

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
  • Autor do tópico
  • Pois então, ai no artigo dei um exemplo basico e verdadeiro do porque um computador trabalhando do modo Binario, arredondando, nao pode atingir uma Inteligencia Artificial.

    O cerebro humano nao trabalha apenas com SIM ou com NAO, nao calcula apenas numeros inteiros, dependendo do grau de QI do humano é claro kkkk os humanos pensam em TODAS as possibilidades, ele utiliza da estatistica mesmo nunca tendo estudado sobre a mesma.

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites

    Os computadores vão conseguir emular IA semelhantes ao humano? Ainda estamos num futuro distante, mas provavelmente sim.

    Porque depende do que se classifica como inteligência. Inteligência e conhecimento são itens que muitas vezes se confundem. Os computadores hoje já conseguem acessar o conhecimento de forma fantástica, veja por exemplo o computador que participou daquele jogo de conhecimentos. Ele fazia uma pesquisa vasta em seus dados e na rede e através de um método de ranking determinava a resposta mais provável promovendo grande número de acertos. Mas em alguns casos quando a pergunta era realizada de forma a confundir, com negações sobre negações, o computador errava pois lhe faltava a "malícia" ou mais comumente falando a inteligência para compreender a pergunta.

    De acordo com o texto colocado o computador pode ser levado ao erro porque é binário. Agora, se você por exemplo mudar a programação e no exemplo, o valor de 0,002 é diferente de 1 e 0, portanto não é nenhum deles. Se na implementação ele utilizar várias casas decimais, o computador vai registrar cada vez mais a diferença entre 1 e 0 e compreender que não é nenhum deles. A inteligência seria ele compreender e aprender facilmente que o 0,002 é parte de 1 e diferente de 0.

    O maior problema da IA é que ela é extremamente determinística, porque hoje envolve um número limitado de variáveis, o que pode levar extrapolações semelhantes a "Eu Robô" onde ele facilmente determina que o problema da humanidade é o humano.

    No Ser Humano as variáveis são diversas, alguns dizem que é imensurável. Mas o que deve ser levado em conta é que o humano possui em sua constituição itens como alma e espírito que são tão sutis que não raro são desprezadas, mas nela moram tantas variáveis que fica difícil utilizar uma aproximação determinística sem elas. (Itens referentes a alma por exemplo são coisas como sentimentos em geral como culpa, apego, medo. Se levar em conta religião, coisas como o Karma)

    Nano máquinas que poderiam por exemplo ser criadas para emular partes do homem, como por exemplo, pequenas máquinas que emulem uma hemácia. Com a evolução delas chegariam a criar coisas como a alma ou espírito, quando isso ocorrer a IA seria inevitável.

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
    Eu dei uma melhorada no exemplo ali, e nao, eu nao traduzi nem copiei o texto kk é de minha autoria . . . Hoje em dia so existem pesquisas em cima de pesquisas, prototipos do que a IA deve realizar, mas os algoritmos para criacao de uma logica assim sao muito complexos! Se um computador *******, ja conseguiu fazer extremas realizações dando apenas respostas como um SIM ou um NAO, imagine o que ele nao faria dando uma terceira resposta TALVEZ?

    Tá bem melhor. Aquele exemplo parecia meio desconexo, ai parecia que uma parte tinha sido "comida" durante a tradução.

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
    Pois então, ai no artigo dei um exemplo basico e verdadeiro do porque um computador trabalhando do modo Binario, arredondando, nao pode atingir uma Inteligencia Artificial.

    O cerebro humano nao trabalha apenas com SIM ou com NAO, nao calcula apenas numeros inteiros, dependendo do grau de QI do humano é claro kkkk os humanos pensam em TODAS as possibilidades, ele utiliza da estatistica mesmo nunca tendo estudado sobre a mesma.

    Olha bem, computador não trabalha só com números inteiros. Também existe vírgula no sistema binário.

    Sobre o que você escreveu, é bem interessante sim e você tá de parabens. As aplicações da mecânica quântica já são uma realidade e o computador quantico já existe. De fato, esse ai da minha assinatura(o Einstein) estava errado quando disse que Deus não joagava dados. Mas, sobre a tal da sua citação(rss), não posso concordar. Não se constrói nada apenas usando conhecimentos de matemática e física. É preciso acochambrar. Alias, quem foi que disse a citação?

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites

    ahh quer saber a verdade? no dia que um computador pensar como um ser humano ele vai precisar comer arroz com feijão e de uma privada.

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
  • Autor do tópico
  • Olha bem, computador não trabalha só com números inteiros. Também existe vírgula no sistema binário.

    Sobre o que você escreveu, é bem interessante sim e você tá de parabens. As aplicações da mecânica quântica já são uma realidade e o computador quantico já existe. De fato, esse ai da minha assinatura(o Einstein) estava errado quando disse que Deus não joagava dados. Mas, sobre a tal da sua citação(rss), não posso concordar. Não se constrói nada apenas usando conhecimentos de matemática e física. É preciso acochambrar. Alias, quem foi que disse a citação?

    Qual citacao voce se refere velho?

    Bom, como dito acima, existem sim computadores e alguns algoritmos que simulam uma IA, so que nenhum com um nivel de perfeicao desejavel, ainda.

    O problema esta sim tanto na estrutura fisica de processadores e de programas. Algoritmos de IA ainda engatinham, nao sao aperfeicoados, existem apenas prototipos!

    Computadores quanticos tambem nao sao aperfeicoados no nivel que cientistas gostariam. Como disse apenas engatinhamos nesse sentido, e os problemas estão justamente na logica binaria que nao é muito maleavel a um ponto favoravel.

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
    Qual citacao voce se refere velho?

    Bom, como dito acima, existem sim computadores e alguns algoritmos que simulam uma IA, so que nenhum com um nivel de perfeicao desejavel, ainda.

    O problema esta sim tanto na estrutura fisica de processadores e de programas. Algoritmos de IA ainda engatinham, nao sao aperfeicoados, existem apenas prototipos!

    Computadores quanticos tambem nao sao aperfeicoados no nivel que cientistas gostariam. Como disse apenas engatinhamos nesse sentido, e os problemas estão justamente na logica binaria que nao é muito maleavel a um ponto favoravel.

    Me refiro a esta citação:

    Citação:

    Na verdade de todas as verdades, o arredondamento, foi a coisa mais ***** que um humano pode ter inventado, uma casa decimal a mais, ou uma a menos, em uma aplicação real, e de valores extravagantes, podem gerar resultados absurdos!

    Sobre inteligencia artificial, não sei se está engatinhando, mas já existem muitos programas bacanas com AI e muitos robos também. Nesse caso, a inteligencia é feita por meio de sensores e programas.

    Eu diria o seguinte, se a tecnologia engatinha com AI a medicina ainda nem nasceu contra o câncer.

    Editado por Rodrigo Sobral

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
  • Autor do tópico
  • Me refiro a esta citação:

    Citação:

    Na verdade de todas as verdades, o arredondamento, foi a coisa mais ***** que um humano pode ter inventado, uma casa decimal a mais, ou uma a menos, em uma aplicação real, e de valores extravagantes, podem gerar resultados absurdos!

    Sobre inteligencia artificial, não sei se está engatinhando, mas já existem muitos programas bacanas com AI e muitos robos também. Nesse caso, a inteligencia é feita por meio de sensores e programas.

    Eu diria o seguinte, se a tecnologia engatinha com AI a medicina morreu contra o câncer.

    Velho, nao querendo mudar o assunto em questao, mas ha cura do cancer ja existe, Cura do Cancer

    O criador do remedio é de Sao Carlos, mestre na USP, ele nao é nem um Bio-Quimico, mas chegou a descoberta da cura em um de seus experimentos . . .

    A grande *****, ou bencao, é que como o remedio mesmo já tendo salvado a vida de pessoas que recorreram a esse medico, nao pode ser comercializado, a patente é dele, e ele nao quer que ele seja vendida, se voce entrar em contato com ele que ele te da o remedio totalmente gratuito . . .

    So que ai enrrosca num problema, como o remedio nao é comercializado, nao pode ser receitado por medicos, então o uso do remedio se torna improprio por intranscrisao medica . . .

    Enfim, de todos os casos e extra-casos sobre IA, o computador com sensores ou programas que emulam uma IA, nao pensam sozinhos, eles prescisam de um gatilho, eles recorrem a algum meio[alguma variavel dentro

    da propria memoria por exemplo] pra tomar decisoes, isso torna o sistema bem mecânico, ao contrario do que poderiamos julgar como Artificial

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
    A essencia da logica artificial esta sim no Nao arredondamento!

    Tanto em Estatistica quanto em Engenharia quando arredondamos um fracionario de 8 casas por exemplo, pra 2 casas, perdemos muita precisao no resultado final!

    Retornando o pensamento original, nao digo que as maquinas devem parar de arredondar, tem uma hora que é impossivel nao arredondar, por exemplo quando chega a uma divisao 1/3 que no resultado da 1.33333....... infinitamente, mas a tecnologia tem que fugir dos paradigmas atuais do SIM e do NAO e considerar uma terceira hipotese, o TALVEZ que seria o fracionario, o meio termo entre o SIM e o NAO.

    Rapaz, o que você passou aí no post é o arroz com feijão da IA... não que eu saiba dizer o resto, fiz superior em informática, aprendi só o básico da IA. Mas para minha resposta no segundo post me baseei nos conhecimentos de hardware que obtive ao longo do tempo.

    Simplificando e sem entrar em termos vulcanianos(porque eu nem entenderia mais do que estou te dizendo), eu apenas quis dizer que pra a IA "provocar uma revolução mundial no nosso mundo" vai ser necessário hardwares extremamente mais potentes(que as tecnologias de desenvolvimento da engenharia elétrica vão proporcionando como a redução dos transistores nos componentes microcomputadores), ou técnicas de software revolucionárias "que consigam caber" dentro dos maiores recursos de hardware possíveis a disposição dos programadores.

    Só não sei dizer qual o nível de complexidade em que se encontram as técnicas de IA, tanto no aspecto humano-máquina quanto máquina humano.

    O que sei te dizer é que já conseguiram emular(e ainda não sei dizer se completamente) o cérebro de uma mosca.

    Essa citação ai que diz que arredondamento é idiotice é o cumulo do absurdo. Toda a engenharia trabalha com erros. Não há meios de se projetar algo real, usando dispositivos reais sem se considerar os erros. Esses proprios 0s e 1s de que você fala ai, na verdade, são variações de tensôes. Se fosse simplesmente 0V e 5V, por exemplo, o computador não funcionava.

    Arredondamento é bom pra incertezas que ultrapassam os limites da precisão dos equipamentos, certo? (um dia quero ser mestre em EE :D )

    Eu acredito que o maior database que a humanidade pra possuí pra entender o pensamento humano é o database que registra as pesquisas do Google.

    Os computadores vão conseguir emular IA semelhantes ao humano? Ainda estamos num futuro distante, mas provavelmente sim.

    Porque depende do que se classifica como inteligência. Inteligência e conhecimento são itens que muitas vezes se confundem. Os computadores hoje já conseguem acessar o conhecimento de forma fantástica, veja por exemplo o computador que participou daquele jogo de conhecimentos. Ele fazia uma pesquisa vasta em seus dados e na rede e através de um método de ranking determinava a resposta mais provável promovendo grande número de acertos. Mas em alguns casos quando a pergunta era realizada de forma a confundir, com negações sobre negações, o computador errava pois lhe faltava a "malícia" ou mais comumente falando a inteligência para compreender a pergunta.

    De acordo com o texto colocado o computador pode ser levado ao erro porque é binário. Agora, se você por exemplo mudar a programação e no exemplo, o valor de 0,002 é diferente de 1 e 0, portanto não é nenhum deles. Se na implementação ele utilizar várias casas decimais, o computador vai registrar cada vez mais a diferença entre 1 e 0 e compreender que não é nenhum deles. A inteligência seria ele compreender e aprender facilmente que o 0,002 é parte de 1 e diferente de 0.

    O maior problema da IA é que ela é extremamente determinística, porque hoje envolve um número limitado de variáveis, o que pode levar extrapolações semelhantes a "Eu Robô" onde ele facilmente determina que o problema da humanidade é o humano.

    No Ser Humano as variáveis são diversas, alguns dizem que é imensurável. Mas o que deve ser levado em conta é que o humano possui em sua constituição itens como alma e espírito que são tão sutis que não raro são desprezadas, mas nela moram tantas variáveis que fica difícil utilizar uma aproximação determinística sem elas. (Itens referentes a alma por exemplo são coisas como sentimentos em geral como culpa, apego, medo. Se levar em conta religião, coisas como o Karma)

    Nano máquinas que poderiam por exemplo ser criadas para emular partes do homem, como por exemplo, pequenas máquinas que emulem uma hemácia. Com a evolução delas chegariam a criar coisas como a alma ou espírito, quando isso ocorrer a IA seria inevitável.

    Só deu pra entender o que o meu engenheirês daí conseguiu entender. Mas aí eu pergunto: Que PC/Cluster de Computadores/SuperComputador/Cluster de Supercomputadores/Toda a Capacidade de Processamento de todos os computadores ligados a internet - vai ter capacidade suficiente de executar milhões de regras de decisão necessárias para, por exemplo, um Android ir comprar pão na padaria da esquina?

    Velho, nao querendo mudar o assunto em questao, mas ha cura do cancer ja existe, Cura do Cancer

    Putz, dá vontade de ler, mas só neste sábado cheguei 4 horas da tarde do serviço em casa, e depois fui arrumar meu pc pra jogar no FDS...

    Editado por EL ETRO

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
    Antes que me critiquem por estar postando ***** em local errado, sim, esse assunto esta adequado sim ao forum Processadores! Ate então nao existem processadores, e algoritmos funcionais para esse tipo de logica, para esse tipo de funcionalidade, fica a titulo de conhecimento de quem achar interessante o artigo.

    Porque computadores são extremamente imbecis comparado com Inteligência Artificial?

    O principal e único motivo é o porque eles utilizam da lógica Booleana(que deu origem a lógica binária) ao invés da lógica Fuzzy!

    A lógica binária é a base de todo o cálculo computacional. Na verdade, são estas operações mais básicas que constituem todo o poderio dos computadores. Qualquer operação, por mais complexa que pareça, é traduzida internamente pelo processador para estas operações. Os seus estados são traduzidos potencialmente apenas como “SIM” ou “NAO”. E suas estruturas seguem apenas essa linha de raciocínio.

    A lógica difusa ou lógica fuzzy é uma extensão da lógica booleana que admite valores lógicos intermediários entre o “SIM” e o “NÃO”, por exemplo o valor “TALVEZ” . Isto significa que um valor lógico difuso é um valor qualquer no intervalo de valores entre 0 e 1. Este tipo de lógica engloba de certa forma conceitos estatísticos.

    A lógica Fuzzy também pode ser empregada no raciocínio humano, aonde pode existir uma ou mais possibilidades!

    A maior dificuldade na tecnologia atual esta justamente na transição da lógica binária para a lógica Fuzzy, modelos computacionais de algoritmos bem mais complexos devem ser transcritos para que esta funcione assim como o imaginado, e mesmo assim ainda estaremos muito distante de uma lógica Artificial.

    Um exemplo básico de uma lógica Binária, com a lógica Artificial é o raciocínio:

    Digamos que você acabou de conhecer uma pessoa ao acaso, não obteve nenhum dado sobre ela, e nunca conversou com ela. Algum conhecido te pergunta: Essa pessoa é Brasileira? A resposta mais correta, e lógica possível seria “TALVEZ”, porque por mais que as suposições fossem favoráveis ou contraditórias, ainda não poderíamos ter uma certeza(Nesse caso a suposição tenderia a 0, mas não seria 0). Com isso, o algoritmo buscaria outros meios para responder a essa indagação. Com base nisso traçamos o funcionamento de uma lógica Artificial.

    filmes_1787_Eu%201.jpg

    A lógica binária responderia simplesmente “NÃO”, ou travaria o sistema inteiro, não existe um meio termo na lógica binária, apenas o SIM ou o NÃO, nesse caso temos que existem 191 países, ou então 191 nacionalidades existentes dentre a qual apenas 1 preencheria o requisito de ser Brasileiro ou não, ou seja 1/191 ou ainda 0,523% de chances dessa pessoa ser Brasileira, ou seja tendem a 0. Como na lógica binária ou é 1 ou é 0, não existem pressuposições do que é ou do que não é, logo o computador interpretaria a resposta como o mais próximo possível da verdade, ou seja, essa pessoa não é Brasileira.

    Nos sabemos que isso não se aplica a realidade, existe um TALVES, onde pode ser (SIM) ou (NÃO), lembrando que por mais que as chances tendam a Zero, elas ainda não são zero.

    Pegue uma aplicação real, onde um valor inteiro(por exemplo 25.420) multiplica um valor tão pequeno quanto o queira(0,002) que de modo computacional, seria arredondado para zero. Multiplicando esse número pelo fracionário. Mesmo que o valor fique bem menor em comparação aos 25.420(Pois estaríamos pegando apenas 0,2% da taxa original) ele ainda será grande, o resultado seria 50,84. Agora se emularmos o raciocínio da lógica binária, simplesmente multiplicaríamos 25.420 por 0, e o resultado seria 0! É esse tipo de equivoco que a lógica binária executa em um computador de alto nível hoje em dia!

    Uma vez eu li um artigo que dizia que o que torna o cérebro, um artefato tão curioso, e tão perfeito é justamente essa linha de vários caminhos a seguir, um neurônio não possui apenas uma interligação com outro neurônio onde só seria possível seguir o caminho SIM ou NAO, mas possui dezenas de ligações com outros neurônios, e é justamente essa a ideia base da lógica Fuzzy, sair dos paradigmas atuais do SIM e do NÃO, e passar a intercalar para o TALVEZ, o provável. É assim que funciona o cérebro humano. Não que a tecnologia esteja caminhando para substituir um Deus-criador, ela esta apenas progredindo, evoluindo, como ocorreu com os Neandertais a milhares de anos até hoje. Uma transição necessária para as próximas escalas evolutivas.

    brainmapping1.jpg

    Abrangendo para uma escala evolutiva ainda maior, em um futuro próximo talvez, os computadores estejam aptos a tomar decisões estatísticas como: “SIM”(100% de certeza), “SIM-TALVEZ”(75%) “TALVEZ”(50%) “NÃO-TALVEZ”(25%) e “NAO”(0%), podemos notar que quanto mais a porcentagem de certeza estiver diluída entre as probabilidades, mais próximo da mentalidade humana, ou de uma lógica artificial, o algoritmo estará. Mas isso não sobressairá frente ao cérebro humano, porque por mais que um computador possa distinguir quais as chances mais reais, e melhores para a tomada de certas decisões, ainda assim ele não terá duas coisas essenciais que diferenciam os humanos das maquinas, os sentimentos, e a fé! Que exigiriam um algoritmo BEM mais complexo do que o da lógica Artificial.

    Talvez estejamos frente a uma próxima nomeação do Nobel, porque, por mais avançada que a tecnologia esteja hoje em dia, ainda não chegamos ao consenso de um algoritmo apropriado para a lógica Fuzzy, existem diversos, porém nenhum atende a todas as especificações necessárias.

    cara em 2012 ainda não há processadores inteligentes para IA, está previsto para 2050 que os processadores superem o cérebro humano em "esperteza"

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites

    em teoria nós já quase temos a tecnologia necessária para simular um cérebro humano, o grande problema é que são tecnologias novas e ainda pouco estudadas.

    na parte do hardware é mais eficiente usar processadores analógicos, um processador analogico utiliza apenas 400 transistores para simular uma sinapse neural. uma gpu radeon hd 7970 tem 4,3 bilhões de transistores(não sei se é verdade, eu vi aqui ) ou seja , temos tecnologia para simular 10.750.000 sinapses por chip, isso equivale a cerca de 10 mil neurônios(cada neuronio tem mais ou menos 1012 sinapses),

    o cerebro humano tem cerca de 80 bilhões de neuronios.(sete milhões e meio de radeons 7970 :D:D), talvez não seja necessário simular todas as partes do cérebro porque não faz sentido para um computador ter areas destinadas ao sistema digestivo ou a regulação da pressão sanguinea, eu acho que uns 20 bilhões ou menos são suficientes para a conciencia.

    processador analógico

    mais uns artigos relacionados:

    computadores podem aprender

    IBM apresenta primeiros processadores cognitivos

    quanto a parte do software, eu não sei dizer muito bem, mas acho que um caminho possivel é a pesquisa da hipercomputação( também conhecida com super-turing)

    http://pt.wikipedia.org/wiki/Hipercomputação

    Computador Super-Turing ou talvez o uso de algoritmos genéticos.

    pela maneira que a tecnologia avança, eu acho que daqui a uns 10-15 anos nós já teremos o poder de processamento necessario para uma conciencia artificial.

    • Curtir 1

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites

    o cérebro humano, e o processador são duas coisas SEMELHANTES, não identicas, apesar de serem movidos por pulsos elétricos...

    é totalmente incomparável a cabeça humana com um processador de silício com nanocompontentes...

    Einstein, usava apenas 15% da sua capacidade cerebral, e foi um gênio...

    Processador é máquina, máquina é programável, e só vai fazer o que programam... assim como o ser humano, a máquina é suscetível ao erro.

    A nanotecnologia é uma coisa espetacular de se ver, mas não é independente... precisamos programá-la para fazer a coisa certa, ou errada...

    O cérebro humano, pelo contrário, ele é quem comanda o resto do corpo, mandando comandos pra gente pensar, nos mover, etc.

    EU, acho incomparável a capacidade humana com um mero processador... afinal, quem criou o processador fomos nós, humanos ^^

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
    Einstein, usava apenas 15% da sua capacidade cerebral, e foi um gênio...

    Einstein não nasceu com 15% de sua capacidade cerebral, e os 10% de capacidade iniciais dele já eram superiores aos 10% de capacidade que o ser humano médio tem(ou muitos acreditam que ele nasceu com mais do que os 10% médios). Ele evoluiu sua capacidade mental através do pensamento reflexivo para os 15%.

    Mas aí já estamos falando de humanas né... cada um tem sua teoria. Mas eu acredito que a expansão do poder cerebral é possível e todos os seres humanos passam por ela, uns em menores e outros em maiores porcentagens, porcentagens estas desprezíveis, mas gigantes em termos absolutos.

    Mas todo ser humano pode se tornar mais inteligente do que o Einstein, isso pode. :D

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites
    Só deu pra entender o que o meu engenheirês daí conseguiu entender. Mas aí eu pergunto: Que PC/Cluster de Computadores/SuperComputador/Cluster de Supercomputadores/Toda a Capacidade de Processamento de todos os computadores ligados a internet - vai ter capacidade suficiente de executar milhões de regras de decisão necessárias para, por exemplo, um Android ir comprar pão na padaria da esquina?

    Depende do que você entende como exemplo da compra de pão.

    Se você pensar que a compra pode ser um evento agendado, facilitaria muito.

    1. Ainda é difícil estimar o que se faz necessário para executar as regras de decisão, mas a base da computação mudou pouco, logo criar uma coisa nova sobre uma base antiga o trabalho é incrivelmente maior. Como exemplo podemos citar a máquina de busca do Google, ela está sempre em atualização, na época foi interessante como ela modificou os métodos de classificação para páginas. Hoje de termos simples a mais complexos, o Google é quase um Oráculo, não?

    2. O Humano possui um alto grau de aleatoriedade, existe uma rotina, mas não se toma banho no mesmo minuto que ontem, assim como não se dirige, logo também não compramos pão em hora fixa. Isso é o que por exemplo deixa a decisão hoje difícil porque existem variáveis que não sabemos nem computar.

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites

    O texto está muito ruim. Tem erros primários.

    Não sou o dono da verdade e nem conheço muito, mas sei o suficiente para notar que o texto inteiro não se sustenta.

    A começar pelo título " Porque computadores são extremamente imbecis comparado com Inteligência Artificial?". Computadores são meras máquinas, não foram feitos para terem inteligência, e sim executar tarefas pré-determinadas. Quando escrevo um texto eu sou o escritor, não o computador. A correção automática parece uma espécie de inteligência, mas na realidade é uma tarefa pré-determinada para me auxiliar na execução do texto.

    A preocupação com Inteligência Artificial fica por conta de redes neurais e lógica Fuzzy, que tem aplicações diferentes das que executamos com os computadores.

    Você critica o sistema binário e lógica Booleana, mas não entenda nada disso.

    Quem te disse que o sistema binário corresponde a apenas duas respostas, zero ou um? voce usa o sistema decimal, mas nem por isso conta de zero a nove, depois do 9 tem o 10 (dez), depois 100 (cem), etc. No sistema binário tem 0, 1, 10, 11, 100, etc. Se você precisa apenas de uma resposta "sim" ou "não" pode usar apenas um bit, mas se precisar de "sim", "não" e "talvez" precisaria de pelo menos dois bits, sendo que em um processo de cálculo poderia ter muito mais bits envolvidos.

    Mesma coisa quando você cita um cálculo. "25.420 multiplica um valor tão pequeno quanto o queira(0,002) ... se emularmos o raciocínio da lógica binária, simplesmente multiplicaríamos 25.420 por 0, e o resultado seria 0!".

    Absurdo. Existem vários meios de se calcular. O mais simples é usar inteiro de 8 bits, correspondendo de 0 a 256. Mas como 25.000 é maior, precisa usar pelo menos 16bits para calcular. Em processadores de 8 bits o valor 25.420 precisa ser dividido em dois conjuntos de 8 bits. Multiplicar por 0,002 envolve necessariamente um valor real de dupla precisão, 32bits.

    Qualquer calculadora trabalha com binário e multiplica facilmente o valor 25.420 por 0,002. Mais um argumento falho.

    "Na verdade de todas as verdades, o arredondamento, foi a coisa mais ***** que um humano pode ter inventado,"

    Já falaram o motivo do arredondamento, é simplesmente necessário. A população da terra é aproximadamente 7 bilhões de pessoas. Isso é arredondamento. Se você fosse contar pessoa por pessoa iria demorar muito, para depois ter de contar novamente, já que a cada segundo nascem e morrem muitas pessoas e você nunca conseguiria contar nem mesmo a população de um estado.

    Não tem nada de ***** em arredondar. Desculpa, mas ***** foi esse seu comentário.

    "em um futuro próximo talvez, os computadores estejam aptos a tomar decisões estatísticas como: “SIM”(100% de certeza), “SIM-TALVEZ”(75%) “TALVEZ”(50%) “NÃO-TALVEZ”(25%) e “NAO”(0%),"

    Como eu falei, os computadores já fazem isso. Até um mero semáforo faz isso: Verde-"passa", Vermelho-"espera", Amarelo-"se estava verde e você não tem tempo para parar segurança, passa; se já estava amarelo, espere" ou seja "talvez".

    "Uma vez eu li um artigo que dizia que o que torna o cérebro, um artefato tão curioso, e tão perfeito é justamente essa linha de vários caminhos a seguir"

    E por que os computadores devem ser como o cérebro? Sim, no futuro teremos mais sistemas "inteligentes", mas isso não significa que os computadores hoje sejam inúteis.

    "Talvez estejamos frente a uma próxima nomeação do Nobel, porque, por mais avançada que a tecnologia esteja hoje em dia, ainda não chegamos ao consenso de um algoritmo apropriado para a lógica Fuzzy"

    Sim, estamos próxima a uma nomeação para o prêmio Nobel, aliás, todo ano tem prêmio Nobel.

    Lógica Fuzzy e redes neurais têm muito a evoluir, mas também não estamos tão ruins assim.

    Não entendo como um texto desse nível teve uma aceitação relativamente boa.

    • Curtir 1

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites

    Uma coisa que você não considerou é que, além dos neurônios terem plasticidade, ou seja, eles mudam suas sinapses constantemente, existem vários "sub sistemas", vias cruzadas, estimulatórias, inibitórias e MUITA coisa que não se sabe sobre o cérebro ainda (essa de usarmos 10% do cérebro até onde sei, é furada, isso é pra atividades específicas, bora se botar pra pensar em orbitais atômicos, ouvindo música, lendo um texto, passando frio e com vontade de soltar um barro.. vai brilhar tudo na ressonância magnética), então não é "só" trocando a lógica da programação que você vai conseguir fazer um T-100, e eu sinceramente acho que botar um bit "talvez" aí no meio vai dar trabalho demais pra resultado de menos.

    Quem sabe os processadores quânticos possam resolver este problema, mas pense em quantos milhões de anos a natureza levou para evoluir o cérebro dos animais e pra eles desenvolverem interações sociais, culminando com o pensamento dos humanos, isso com um espaço amostral e variáveis muito mais complexas dos que conseguimos fazer atualmente com as ferramentas que possuimos, então, pega leve. ;)

    • Curtir 2

    Compartilhar este post


    Link para o post
    Compartilhar em outros sites

    Crie uma conta ou entre para comentar

    Você precisar ser um membro para fazer um comentário






    Sobre o Clube do Hardware

    No ar desde 1996, o Clube do Hardware é uma das maiores, mais antigas e mais respeitadas publicações sobre tecnologia do Brasil. Leia mais

    Direitos autorais

    Não permitimos a cópia ou reprodução do conteúdo do nosso site, fórum, newsletters e redes sociais, mesmo citando-se a fonte. Leia mais

    ×