Para usar a Internet é preciso ter inteligência real, nada artificial. Quando pesquisamos no Google ou em qualquer outro mecanismo de busca, temos que conseguir filtrar os resultados, caso contrário podemos acreditar que estamos morrendo ao pesquisar algo como “por que meu dente dói?” Desde que a IA entrou em cena para tirar nossas dúvidas, muita coisa mudou, mas outra parte importante permaneceu a mesma; Ainda temos que saber filtrar. E se você usar copiloto da Microsoft, arme-se com paciência.
Acontece que já se passou cerca de uma semana desde o Microsoft Copilot, diferente de bate-papo, chegou ao Google Play – está disponível na App Store há pouco menos tempo -. A mídia tecnológica demorou pouco para destacar que pode ser utilizada com GPT-4 e DALL-E 3, um prato doce demais para não dar pelo menos uma mordida. O ruim é que o que a Microsoft oferece tem pelo menos alguns pontos fracos.
Microsoft Copilot é preguiçoso e impreciso
Como quase todos eles, nosso relacionamento não poderia ter começado melhor. «Crie para mim uma foto de um gato em uma motocicleta», e eu a tenho em segundos; «Música de metal sobre espaguete de Natal», e aqui você tem o resultado. Eu ri, mas bem, a novidade. Perguntas são feitas, procure na internet, que é um dos pontos fortes do GPT-4, e do Boom!, aí está a resposta. Mas este copiloto é um pouco preguiçoso.
As as respostas são curtas, como os de quem sabe muito e se incomoda com suas dúvidas, e esse 1/30 não ajuda a pensar diferente. Se formos identificados, podem ser feitas 30 consultas por tópico ou chat, e isso não é suficiente se você não encontrar resposta. O ChatGPT da OpenAI também tem um limite, mas pode ignorá-lo depois de conversar com ele por uma hora. E quando ele começa a dar a mesma resposta como se bugueara e nada está progredindo? Bem, quando chegar a 30/30, adeus. E você não pode continuar o bate-papo.
O que há de inteligente em dar sempre a mesma resposta?
A palha que quebrou as costas do camelo foi precisamente aquela loops que uma IA não sabe identificar. Eles não sabem que estão sempre dando a mesma resposta; Se você perguntar algo e eles acharem que é a coisa certa a fazer, eles dirão novamente e, como não estão preocupados em perder tempo, tente.
A cena foi a seguinte: se alguém viu os screenshots que posto quando falo sobre algum software relacionado à música, saberá que gosto de metal. Estou ouvindo uma música chamada "Homage for Satan" do Deicide, grupo que ouço de vez em quando e do qual não sou fã. Não conheço os integrantes dos grupos e tudo mais, então vamos lá:
- "Quem fez o solo da música 'Homage for Satan' do Deicide?«Pergunto, esperando uma resposta rápida e procurando algo mais em YouTube Invejoso.
- "O solo de […] foi composto pelos guitarristas X e Y […]«Ele responde antes de perguntar se preciso de mais alguma coisa.
- "Hum, sim. Eu queria saber quem tocou, não quem compôs. Eu li que ele morreu?«Peço para ser mais preciso.
- "O […] solo foi composto pelos guitarristas X e Y […]. X morreu em 2018«, e volte se precisar de mais alguma coisa.
– Já um pouco irritado e me impedindo de escrever algo grosseiro, insisto: «Eu preciso de outra coisa, você não me disse quem jogou. Você quer dizer que um desempenha um papel e o outro o outro?".
- "O solo de […] foi composto pelos guitarristas X e Y […]"...
- "Mas quem jogou o quê?» já pensando em desligar o telefone virtualmente.
- "O solo de […] foi composto pelos guitarristas X e Y […]"...
– Fechando.
Copiloto Microsoft vs. Bate-papoGPT
Neste caso específico, depois de não descobrir nada com o Microsoft Copilot, quis experimentar como o ChatGPT fez. Primeiro perguntei quem tocava a música, sem dizer grupo, e ChatGPT teve uma de suas alucinações e me disse que era de “Behemoth”. Quando o corrigi, ele pediu desculpas, e aqui temos a primeira diferença. Aí ele me disse que só Owen tocava, quando na verdade Santolla tocava, resposta que ele confirmou quando perguntei diretamente se ele tocava os solos.
Então no final tive que procurar fotos dos integrantes do grupo e investigar usando um mecanismo de busca normal.
Em geral, se compararmos o Microsoft Copilot com o ChatGPT (3.5):
| copiloto da Microsoft | Bate-papoGPT (3.5) |
|---|---|
| É mais importante responder do que acertar | É mais importante responder do que acertar |
| Respostas curtas para economizar tempo | Respostas mais desenvolvidas, embora esperemos menos |
| Código justo, pode estar faltando | Código que você pede e o que não pede |
| Limite de 30 consultas | Existe um limite, mas é muito longo. |
| Encontre assuntos atuais na Internet | Banco de dados limitado |
Independentemente do que se utilize, e embora por vezes se perceba que se registaram alguns progressos, cabe aos utilizadores saber que informação nos é útil e que uso dela fazemos. O resto, delegar tanto, não é o mais inteligente.