Home » Artigos arquivados » Tecnologias “Engana trouxa”

Tecnologias “Engana trouxa”

Autor: Laércio Vasconcelos
Data: 18/mar/2008

Sinopse
Com certeza você já deve ter sofrido decepção com alguma nova tecnologia. Algumas vezes são apenas siglas criadas pelo marketing que acabam enganando milhões de pessoas.

Tecnologias “engana trouxa”

Calma, não vão me xingar! É só um artigo que fala sobre “tecnologias” que às vezes parecem ser uma coisa e são outra.

Qualquer nova tecnologia deve ter como objetivo o melhoramento. Quando um produto utiliza uma nova tecnologia, deve a princípio trazer benefícios para os seus usuários. É isso o que esperamos que ocorra, mesmo antes de entendermos do que se trata. Com certeza você já deve ter sofrido decepção com alguma nova tecnologia. Algumas vezes são apenas siglas criadas pelo marketing que acabam enganando milhões de pessoas.

Neste artigo vou citar e criticar várias “novas tecnologias” lançadas nos últimos anos, quase todas nas áreas de hardware e software. Algumas delas são até muito boas, mas para uma parcela pequena das pessoas, apesar de serem anunciadas como boas para todo mundo. Sei que vou criticar algumas tecnologias e receberei críticas de alguns leitores, contestando minha colocação. Lembro que estou falando genericamente, do benefício obtido por todos, e não necessariamente para certas aplicações.

Não sei o que significa, mas deve ser bom

Quando eu tinha menos de 10 anos, lembro de uma propaganda na TV que dizia: “Novo creme dental Colgate, agora com SMF”. Em não sabia o que era SMF, mas também não sabia o que eram muitas outras coisas, portanto entendi que aquilo devia ser uma coisa boa que colocaram na pasta de dente, talvez para os dentes ficarem mais limpos ou para melhorar o hálito, ou outra coisa qualquer. Tive curiosidade de ler na caixa do creme dental, e não estava explicado o que era SMF. Logo aprendi que todos os produtos são anunciados como contendo alguma substância, sem significado explicado normalmente com 3 letras, mas algumas vezes com mais (Pompom com Protex, protege o nenê…).

Avançando agora até 2003, lembram das propagandas da Intel nos intervalos da fórmula 1, que diziam “oferecimento, processadores Intel, agora com tecnologia Hyper-Threading”. Não tenho assistido muita TV ultimamente, então não citei algum exemplo mais recente, mas a idéia é a mesma. Uma tecnologia pode ser boa ou não, pode ser apenas um nome inventado, uma “abobrinha”, uma jogada de marketing, mas o grande público aceita, assimila, confia e acaba comprando, mesmo sem saber do que se trata. Como a maior parte dos esforços da Intel no Brasil estão no marketing, quem criou esse anúncio deve saber o que está fazendo.
HT é bom, mas podia não ser

Ainda para citar outro caso da Intel, lembro que quando foi lançado o Prescott (90 nm, todo aquele calor, desempenho um pouco mais baixo que o do Northwood), o pessoal que testa hardware no Brasil, como eu, Paulo Couto, Gabriel Torres & CIA não recebeu modelos para avaliação. Sem verbas para disponibilizar kits, mas com verba para pagar a anúncio da Veja com a foto do Luciano Huck com uma placa escrito “Eu mereço Intel”. Mas isso não é um artigo para falar mal da Intel, usei o exemplo apenas para ilustrar como a mensagem, seja por meio de uma celebridade, seja por meio de um nome ou sigla, é aceito como verdade pelo grande público. Não falo dos milhares de conhecedores da tecnologia, como os que visitam esse fórum, e sim dos mais de 10 milhões de pessoas que compraram computadores no Brasil no ano passado. Essas pessoas são bombardeadas por nomes e tecnologias que podem ser boas ou não. Mesmo quando uma tecnologia não é boa, o marketing pode usá-la para impressionar as pessoas e vender mais. Citarei agora alguns exemplos dentro da nossa área.

Alguns exemplos

Praticamente todas as tecnologias que descrevemos são anunciadas como benéficas para o grande público. Algumas vezes são do tipo “engana trouxa”, e outras vezes são benéficas apenas para alguns usuários.

Podem ser “engana trouxa”, em grau maior ou menor, por vários motivos. Pode ser por sugerir uma vantagem técnica que não existe ou induzir uma vantagem falsa. Em grau inofensivo, pode ser por induzir uma simples pegadinha – por exemplo, o que significa “TWAIN”? Pode indicar uma vantagem exclusiva mas que na verdade já faz parte de todos os produtos semelhantes. Pode ser uma tecnologia nova e promissora – e até boa – mas que depois cai em desuso ou não é um sucesso comercial. Pode ter um nome que sugere superioridade, mas sendo o produto na verdade inferior. Às vezes o problema não é culpa do fabricante – por exemplo, um produto que não fez sucesso. Às vezes é o próprio marketing que usa má fé.

Bus mouse – quando o mouse surgiu, existiam dois padrões: serial mouse e bus mouse. O segundo era acompanhado de uma placa de interface, uma espécie de COM3. O pessoal de vendas gostava de vender esse modelo, que era mais caro. Diziam que esse tipo de mouse tinha melhor performance (???) porque ficavam ligados direto no barramento…
Bus Mouse

Mouse de 9600 DPI – Se um mouse é movido cerca de 2,5 cm na mesa para a seta percorrer toda a tela no sentido horizontal, então a resolução do mouse é 1000 DPI (supondo uma tela de 1024×768). Creio que isso é suficiente para a maioria das pessoas. Se você prefere mover o mouse apenas 6 milímetros para fazer esse percurso, então o mouse deve operar com cerca de 4800 DPI. Se quer mover apenas 3 milímetros para isso, então o mouse deve operar a 9600 DPI. Creio que a maioria das pessoas deve achar desconfortável ver movimentos tão bruscos na tela correspondentes a distâncias na mesa na faixa de milímetros. Usar 1000 ou 1200 DPI é o normal para a maioria das pessoas, mas no início da era da “mousificação”, muitos modelos eram anunciados como tendo resoluções altas como 4800 ou 9600 DPI.

Resolução interpolada do scanner – Os scanners saíram de moda, mas quando as câmeras digitais não eram populares, muitas pessoas usavam o scanner para digitalizar fotografias em papel. O scanner tem duas resoluções: óptica (a verdadeira) e a interpolada. A resolução óptica era normalmente de 600 ou 1200 DPI. A interpolada podia chegar a 4800, 9600, 19200 DPI. O uso dessas resoluções não representa melhor qualidade de imagem. A imagem original em 600 ou 1200 DPI era simplesmente “esticada” pelo scanner, antes de ser enviadas ao computador. Mas muitas pessoas usavam a “resolução interpolada” como critério para escolher seu scanner. Detalhe: uma fotografia 3×4, digitalizada com 9600 DPI, resulta em quase 300 MB para serem transmitidos ao computador. Depois a imagem, que ficaria com cerca de 8000×12000 pixels, era comprimida normalmente em formato JPG, resultando em um arquivo de 10 a 30 MB. Não existe tanta informação assim em uma simples foto 3×4. A resolução interpolada é “engana trouxa”.

Zoom óptico e zoom digital – Agora que as câmeras digitais foram popularizadas, quase todo mundo sabe que o zoom óptico é melhor que o zoom digital. O óptico é real, a imagem é “esticada” sobre o CCD da câmera através de um sistema de lentes. O zoom digital é apenas o “esticamento” de um trecho da imagem, um processo similar ao da interpolação feita em um scanner. Mas para um iniciante, fica sempre a idéia de que o “digital é melhor”.

Placa de som de 32, 64, 128, 256, 512, 1024 bits – Essa também já saiu de moda, provavelmente em conseqüência da popularização do som onboard. Mas na época em que as placas de som avulsas eram muito vendidas, tanto os compradores quanto os vendedores faziam referência a esses termos. Conversa entre comprador e vendedor: – Tem placa de som de 512 bits? – Tenho essa de 512 bits, e essa outra de 1024 bits. Mas se o senhor achar caro, tenho essas aqui de 256 e 128 bits.

Em tempo, aquele era o número de notas musicais simultâneas, e não o número de bits. Na maioria dessas placas, o número de bits de áudio digitalizado era 16. Modelos mais avançados digitalizam com 20, 24 ou 32 bits, operam internamente com 32, mas geram o som final com 16.

Placa de som de 192 kHz – Desculpe, mas o ouvido humano só reconhece sons analógicos de até 20 kHz, que corresponde a digitalização de até 40 kHz (veja o exemplo dos CDs de áudio, com 44 kHz). Mas vou comprar uma placa de som de 192 kHz para o meu cachorro, que escuta ultrasom. Deixo aqui o espaço para os especialistas em áudio explicarem porque o som de 192 kHz é melhor (para todo mundo, ou só para alguns?).

Padrão TWAIN – O Piropo já explicou em uma coluna recente sobre o nome TWAIN, dado ao padrão dos dados de scanners e dispositivos de imagem. A padronização foi uma coisa muito boa, pois permitiu que qualquer programa gráfico reconheça qualquer scanner. Mas como o Piropo já explicou, “TWAIN” não é sigla alguma, muitos dizem brincando que é “Technology without an interesting name”. Aqui na verdade não tem trouxa. No máximo alguém pode ser considerado vítima de uma “pegadinha”, se pensar que TWAIN significa alguma sigla.
Consulte www.twain.org

Disquete virgem “vírus free” – Há alguns anos, caixas de disquetes novos, com 10 unidades, apresentavam a mensagem “vírus free”. Será que eles iam fabricando os disquetes e testando um a um para ver se nasceram com vírus? Mas era preciso informar, pois muitas pessoas só compravam disquetes novos “vírus free”. Devem ter ficado preocupadas quando não encontraram mídias virgens de CD e DVD checadas contra vírus.

Modems DSP e HSP – Os melhores modems, conhecidos popularmente como “hard modems”, tinham um chip chamado DSP (Digital Signal Processor) que fazia a maior parte do processamento dos sinais do modem, via hardware. Com a chegada dos “soft modems”, esse trabalho passou a ser feito pelo processador da placa mãe. Processadores lentos, abaixo de 200 MHz, normalmente tinham dificuldades para realizar esse trabalho, resultando em conexões lentas e outros problemas. Muitos soft modems eram chamados de HSP (Host Signal Processor). Na cabeça do usuário leigo, HSP deveria ser melhor que DSP. Eram piores, pois o trabalho todo era feito pelo “Host”, ou seja, o processador da placa mãe.
Modem HSP é pior que DSP

Modems V.90 e V.92 – Modems para linhas telefônicas analógicas e velocidade de 56k bps adotaram o padrão V.90, depois de alguns anos usando padrões conflitantes, mas isso não importa. Depois de mais alguns anos surgiu o padrão V.92, com algumas vantagens. Os provedores de acesso à Internet não trocaram todos os seus modems V.90 por V.92, então o usuário que comprou um modem V.92 acabou usando-o como V.90. O que por sinal não é um problema, pois as vantagens do V.92 sobre o V.90 são irrisórias. O download é igual, o upload é um pouco mais rápido, permite chamada em espera, ah, deixa isso pra lá…

USB – Esse é um caso curioso. No início parecia um “mico”. Em 1995 surgiram as primeiras placas mãe com interfaces USB. O problema é que não existiam periféricos. Somente a partir de 1999, com a adoção total do padrão ATX, os periféricos USB tornaram-se populares. Hoje o USB é um sucesso, mas no início parecia que ia ser um fracasso.

BTX – Será que o BTX está no mesmo caminho que o USB? Lançado em 2003, é um novo padrão de formato para placas mãe, visando melhorar a dissipação térmica. Desde o lançamento do padrão, o único fabricante de placas mãe que o adotou foi a Intel (sua criadora). Vejamos se no futuro o BTX será uma realidade, assim como ocorreu com o USB.
Placa mãe BTX – onde encontro um gabinete para ela?

Wi-fi 802.11a – Este foi o primeiro padrão de redes sem fio, operava com taxa de 54 Mbits/s e usava portadora de 5 GHz. Infelizmente em muitos países o uso dessa faixa de freqüência não estava regulamentado. Teve que ser então substituído por um novo padrão, com velocidade menor, mas usando uma faixa de freqüências permitida mundialmente, o 802.11b, com 11 Mbits/s e 2,4 GHz.

Pentium II x Pentium III – O Pentium III foi lançado pouco mais de um ano depois do Pentium II. Seus melhoramentos eram mínimos. Podiam ter continuado chamando de Pentium II. A questão foi puro marketing. A AMD estava chamando seus chips de K6-2, e a Cyrix, de MII. A Intel resolveu então introduzir o número 3 nos seus processadores. Depois de um ano, o próprio Pentium III sofreu mudanças, como novo formato e melhoramentos na cache L2. Mas no seu lançamento, as diferenças entre o Pentium III e o Pentium II não eram tão grandes para justificar o lançamento como o de um “novo processador”.

Pentium 4: novo encapsulamento OLGA – Todos já devem ter visto o formato dos primeiros processadores Pentium 4 (Socket 423). Esse foi um formato provisório, substituído poucos meses depois pelo Socket 478. Quem comprou micros com Pentium 4 no seu lançamento ficou sem opção de upgrade. Regra geral para evitar o mico: no lançamento, não corra para comprar, espere a poeira descer.
Pentium 4 para Socket 423

Memória RAMBUS – Pior que ter comprado uma placa mãe com Socket 423, é comprar uma placa mãe com Socket 423 e memória RAMBUS. Na época não existiam memórias DDR. A SDRAM operava com 133 MHz, e a RAMBUS com incríveis 400 MHz. Mas o preço era incrivelmente alto. Depois veio a tecnologia de memórias DDR, promovida pela AMD e outros fabricantes. A Intel finalmente deu o braço a torcer e abandonou a RDRAM, adotando a DDR. Normalmente para quem compra uma placa mãe, vale a pena fazer um upgrade de memória um ano depois. Para quem comprou as primeiras placas de Pentium 4, era mais barato jogar fora e comprar um sistema novo, que investir em novas memórias RAMBUS.
Memórias RAMBUS

Os ETs que procuravam pelo Pentium 4 – O Pentium 4, no seu lançamento, era produzido com tecnologia de 0,18 micron e usava memórias RAMBUS. Os micros eram caros. A Intel reduziu o custo do Pentium 4 quando adotou o processo de 0,13 micron (núcleo Northwood). Como as memórias DDR ainda estavam recém lançadas (200 e 266 MHz) e não podiam ser usadas por contrato com a RAMBUS, a Intel criou chipsets para Pentium 4 e memórias SDRAM. Ou seja, era Pentium 4 (400 MHz de FSB) com memórias de Pentium III (133 MHz). Foi nessa época que passava na TV uma propaganda da Intel na qual uns ETs entravam à noite em um sala de computadores, olhavam seu interior com sua “visão de raios-X” e diziam: “Aha, Peeeentiuuummmm”. Tão avançados mas não perceberam as memórias SDRAM….

O desempenho do Pentium 4 – O que estamos constatando agora é que os novos processadores Intel, baseados na arquitetura Core, são mais muito mais velozes que os modelos derivados do Pentium 4. A verdade é que o desempenho do Pentium 4 é reduzido, mesmo se comparado com processadores da geração anterior. Durante todos esses anos, procurei sempre comparar um processador recém lançado de menor clock possível, com o de geração imediatamente anterior, com clock igual. Por exemplo, Pentium III de 1.4 GHz e Pentium 4 de 1.4 GHz. O 80286 de 6 MHz era de 3 a 4 vezes mais rápido que o 8086 de 8 GHz. O 386DX de 20 MHz era 50% mais veloz que o 80286 de 20 MHz. O 486DX de 33 MHz era duas vezes mais rápido que o 386DX de 33 MHz. O Pentium de 100 MHz era 50% mais veloz que o 486 de 100 MHz. O Pentium II/233 era um pouco mais veloz que o Pentium MMX/233.

Quando chegou o lançamento do Pentium 4, a coisa mudou de figura. Pela primeira vez o processador de nova geração perdeu para o de geração anterior. O Pentium 4 de 1.3 GHz perdia em performance (PC Mark 2004, CPU) o Celeron de 1.2 GHz, para o Pentium III de 1.2 GHz, para o Athlon de 1.1 GHz e para o Duron de 1.3 GHz. É difícil fazer comparações de processadores de famílias diferentes. Novas aplicações foram otimizadas para aproveitar as novas instruções do Pentium 4, aumentando a margem em comparação com o Pentium III (por exemplo, CODECs de vídeo). O Pentium 4 foi produzido com clocks muito mais elevados, chegando a 3.8 GHz, tornando seu desempenho realmente muito superior ao do Pentium III. Então essa foi a “tecnologia engana trouxa” da época: O Pentium 4, com sua nova arquitetura Netburst, sua cache L1 que armazenava 12.000 micro-operações, sua caríssima memória RAMBUS, ainda assim perdia para um Pentium III de mesmo clock.

O Pentium III foi descontinuado, o Pentium 4 ficou barato e passou por melhoramentos como aumento da cache, aumento de clock, FSB de 800 MHz e tecnologia HT. Os preços foram reduzidos. Nós compramos Pentium 4 e não somos considerados trouxas por isso, mas quem procurou os primeiros modelos…

Tecnologia Hyper-Threading – Essa é uma boa tecnologia introduzida pela Intel em 2002 no Pentium 4 de 3.06 GHz. Foi utilizada na maioria dos modelos mais novos, exceto as versões de baixo custo. Quem comprou não é trouxa, a tecnologia resulta mesmo em aumento de desempenho, mas foi na verdade uma espécie de “correr atrás do prejuízo”. Um dos motivos do alto aquecimento relação desempenho/clock ruim no Pentium 4 é o fato de existirem 10 unidades de execução que grande parte do tempo ficam ociosas. Em um programa típico, não existe trabalho para todas essas unidades internas. Ao duplicar vários circuitos internos e simular um segundo processador, a Intel consegui “dar algum serviço” para unidades de execução sub-aproveitadas. É como se uma empresa tivesse contratado funcionários demais e agora inventasse um novo projeto para ocupar os ociosos. Porque os processadores da AMD e os de arquitetura Core não têm Hyper-Threading? Porque seus núcleos são mais eficientes e não existe ociosidade para aproveitar.

Strained Silicon – É uma tecnologia de “esticamento” da estrutura de silício do semicondutor, aumentando o espaço entre os átomos e permitindo melhor circulação da corrente elétrica. Resulta teoricamente em aumento de clock e redução de temperatura. Foi introduzida nos processadores da família Prescott (90 nm), que na prática mostraram ser bastante quentes e sensivelmente mais lentos que os da geração anterior (Northwood, 130 nm). Essa é uma dificuldade para quem precisa explicar as novas tecnologias. O fabricante a desenvolve, publica suas explicações técnicas e nós temos que entender e explicar aos leitores de forma mais “digerível”. Quase sempre sem ter o produto verdadeiro para testar. Agora com a tecnologia de 45 nm, a Intel está usando transistores de “high-K”, que teoricamente reduz o consumo elétrico, mas na prática ainda vamos testar o que acontece.
Strained Silicon

As novas avançadas tecnologias introduzidas na nova versão do Windows – Antes de uma nova versão do Windows ser lançada, seus méritos são divulgados pela Microsoft. Lembro de quando estavam prestes a lançar o Windows ME, com tantos melhoramentos em relação ao Windows 98. No Windows XP, sem dúvida houve uma recuperação, mas um dos melhoramentos é, segundo a Microsoft, a inicialização mais rápida. Na verdade o Windows XP começa o processo de boot e depois de algum tempo coloca no vídeo a sua área de trabalho, mas continua carregando o sistema. Não tente começar a trabalhar antes do LED do HD apagar. Se tentar – olha aí o “engana trouxa”. O Windows XP não carrega mais rápido, ele mostra a área de trabalho mais rápido.

64 bits – Os novos processadores de 64 bits tornam a execução de programas mais rápida e permitem utilizar maiores quantidades de memória. Que legal… Mas esse último assunto vou deixar para um artigo exclusivo.

Turbo Cache – Existem placas de vídeo baseadas em chips da NVIDIA que contam com a tecnologia “Turbo cache” (ex: GeForce 6200). São anunciadas com o tendo 512 MB Turbo Cache. Na verdade essas placas possuem uma quantidade menor de memória (ex: 128 MB) e usam parte da memória do sistema (que seria usada pelo processador) para aumentar a memória de vídeo. É engana trouxa, pois o usuário pensa que está comprando uma pechincha de 512 MB, mas está levando apenas 128 MB. Quando a placa opera com resoluções elevadas ou imagens 3D sofisticadas que utilizem todos os 128 MB, passa a usar a memória do sistema, e o desempenho cai.

Este artigo também foi publicado no site Fórum PCs. Nele você pode também comentar o artigo com outros usuários. www.forumpcs.com.br