quinta-feira, 6 de dezembro de 2012

Hardware e sua evoluçao



Há alguns anos um profissional de computação, em especial que prestava suporte era obrigado a conhecer uma ampla gama de conceitos sobre o computador. Não bastava somente colocar um CD no drive e acompanhar a instalação de um sistema. Fazer a manutenção de um PC nos anos 80 era coisa para profissionais em eletrônica digital. No início dos anos 90 a coisa avançou bastante, o nível de integração dos componentes aumentou muito, mas ainda era necessário um razoável conhecimento da arquitetura do computador para que a manutenção ou a montagem do mesmo fosse feita corretamente e extraindo todo o seu potencial. Termos como IRQ, DMA, multiplicador de clock e frequência e largura de barramento eram comuns entre os profissionais da área, pois sem saber o que esses termos significavam, seria muito difícil configurar uma placa mãe ou instalar uma placa de som por exemplo.
Antes de fazermos uma análise da importância de conhecer ou não a arquitetura de hardware nos dias de hoje vamos fazer uma retrospectiva das ultimas três décadas e como os conceitos de hardware eram relevantes em cada época. Lembrando que estou me referindo à parte de suporte e não o desenvolvimento de equipamentos eletrônicos que é outra história, vejamos:



Durante os anos 80, ter um computador não era algo para qualquer um. Levando em conta que estamos falando do Brasil, enquanto vivíamos os anos de chumbo da reserva de mercado o Brasil estava pelo menos 10 anos defasado tecnologicamente em relação ao primeiro mundo.

 Em 1981 foi lançado o IBM PC, que nos EUA já custava uma pequena fortuna
(US$ 1.565 em valores da época) no Brasil então quase impensável. No entanto no mercado existiam outros modelos de computadores pessoais, como TK-85, MSX (padrão de computador fabricado por várias empresas), Atari 400 e o CP-500 (a partir de 82) da Prológica (o que era mais usado de forma profissional) e outros aparelhos baseados no processador Z80 que inundavam o mercado, apesar de não serem baratos eram o que se conhecia por computador durante os anos 80.
Com exceção das universidades e grandes empresas, esses computadores eram na maioria das vezes usados como videogames de luxo. Pois os aplicativos mais comuns para esses aparelhos eram jogos. Alguns se aventuravam em programar em Basic porque diferente de hoje, esses computadores não traziam um sistema operacional e sim um interpretador Basic gravados em uma rom, todos os programas deveriam ou ser programados ou carregados para a memória do computador com a ajuda de gravadores cassete e só então executados. (As primeiras versões do IBM PC também eram assim, mas os modelos que mais se popularizaram no Brasil já eram versão XT, que utilizava o MS-DOS como sistema operacional.)

Manutenção
Deixando de lado o uso e levando em consideração a manutenção destes equipamentos, tínhamos basicamente uma placa de circuito impresso com os componentes soldados, uma fonte, e os dispositivos de entrada e saída conectados as portas do computador. Quando ocorriam problemas era necessária uma análise do aparelho, que de acordo com o sintoma levava o técnico ao causador da pane. Problemas como capacitores danificados, diodos e transistores abertos ou em curto, ou ainda mais complexo como circuitos integrados com defeito faziam com que esta análise fosse demorada e a manutenção relativamente cara.  

O técnico precisava entender do funcionamento de instrumentos como multímetro e osciloscópio para testar cada um dos componentes que julgasse defeituoso.
O defeito considerado mais simples era com a fonte, quando interna na maioria dos equipamentos ela era linear, possuía um transformador grande e pesado que poderia ser substituído assim como seus componentes (da fonte) como ponte retificadora e capacitores de filtragem e fusível. Em outros modelos a fonte era externa bastando à compra de outra para a substituição. Mas isso se dava nos modelos que utilizavam processador Z80, nos compatíveis com o IBM PC já utilizavam fontes chaveadas, mas eram grandes e de difícil manutenção, mas como o custo de substituição era alto, era melhor o reparo. O monitor em muitos modelos era integrado ao gabinete, ou seja, quando apresentava problemas era necessário desmontar tudo e encontrar o defeito, somente técnicos em eletrônica eram aptos a estes tipos de manutenção, curiosos corriam grandes riscos visto que no caso dos monitores integrados, uma descarga elétrica poderia a chegar a alguns kV, e mesmo as fontes poderiam representar riscos por conta de capacitores carregados.

Nos modelos compatíveis com o IBM-PC, existiam algumas configurações que deveriam ser feitas no BIOS do equipamento, que diferente dos modelos compatíveis com o processador Z80 que ao serem ligados subiam o interpretador Basic e paravam ali, os compatíveis IBM possuíam um BIOS, que necessitava ser configurado, de acordo com o uso e com os dispositivos conectados à máquina. O IBM PC (XT e AT) realizava o POST e após procurava o dispositivo para o boot (assim como é até hoje), que poderia ser um disquete ou disco rígido. Quando essa configuração era perdida, utilizar a opção de restaurar as opções padrão na maioria das vezes não fazia o computador iniciar novamente. O disco rígido que àquela época ainda era padrão st-506 e unidades de disquete precisavam ser configuradas de acordo sua especificação. Não existia configuração automática.
As memórias quando não eram soldadas diretamente à placa eram encaixadas em pequenos soquetes padrão dip. Somente o acréscimo de novos chips na maioria das vezes não fazia com que essa memória fosse reconhecida, era necessário configurações na placa e no BIOS para que a nova memória fosse utilizada.
Além destas características ainda ocorria o fato de não existir um padrão definido para a maioria dos microcomputadores, no caso dos baseados em processadores z-80 cada um tinha um projeto e no caso dos compatíveis com o IBM-PC, nas versões XT, AT e 286, apesar de seguirem o padrão de compatibilidade do IBM, cada fabricante produzia com detalhes diferentes do outro na placa mãe, o que tornava a manutenção sem o manual de instruções um processo complicado.
Ainda existiam o Apple II e o Lisa, mas aqui no Brasil foram tão raros que ficam só para constar mesmo.
Durante a década de 80, a manutenção de computadores não exigia só conhecer o funcionamento do computador, mas também a eletrônica envolvida no projeto. O profissional deveria ser uma mescla entre técnico em eletrônica e em informática. Eram profissionais raros e caros, muitas vezes com formação em engenharia elétrica ou eletrônica, ou formação técnica altamente especializada. Aprender na “raça” na década de 80 era quase impossível, ainda não existia o Google. O mais próximo disso eram revistas especializadas vendidas nas bancas de jornal do tipo faça você mesmo. Mas a probabilidade ser um técnico somente lendo estas revistas era pequena.



Com o fim da reserva de mercado o Brasil teve certo avanço na questão da tecnologia, ainda não se igualando ao primeiro mundo na atualização dos equipamentos, mas pelo menos diminuindo a defasagem em relação a eles.
Durante os anos 90 começaram a se popularizar os PCs baseados no padrão IBM em relação aos computadores com outros padrões que utilizavam processadores Z-80 e similares. Com a popularização dos aplicativos para o MS-DOS disponível somente nos computadores compatíveis como o IBM-PC, os demais padrões começaram a desaparecer do mercado, fazendo com que o padrão IBM se tornasse onipresente nos lares e empresas brasileiras.
Com a abertura do mercado diversas empresas nacionais iniciaram a produção de computadores, muitas migrando de outros ramos do mercado como, por exemplo, a Metron (chegou a ser líder de vendas entre empresas brasileiras de PCs) que saiu da fabricação de taxímetros para a fabricação de PCs. A Itautec, Procomp, Prológica, STi e diversas outras começaram a ofertar seus produtos no mercado de forma mais abrangente. Além das tradicionais IBM, Compaq (líder mundial à época), HP e Acer.
Mas apesar da oferta um PC não era algo barato, para se ter uma idéia em 1996 um computador Itautec modelo Infoway com processador Pentium 166Mhz e 16 MB de memória custava cerca de 3000 reais, sendo que o salário mínimo nesta época era pouco mais de 100,00 reais era um senhor investimento adquirir um PC. Claro que existiam versões mais em conta como computadores sem o famoso “kit multimídia” e com processadores já ultrapassados como os 486 e 586 (da AMD e Cyrix), mas nada que ficasse abaixo dos 1500 reais.
Durante a primeira metade da década de 90 os computadores mais populares eram os equipados com processadores 386 e 486. Ainda sem drives de CD e placas de som. Os monitores eram CRT, já não mais padrão MDA de fósforo verde ou azul, mas padrão VGA. Existiam alguns modelos monocromáticos, mas a maior parte eram em cores ficando as cores restritas a capacidade da placa de vídeo.
As placas de vídeo na sua maioria utilizavam o barramento ISA 16 bits e possuíam 512KB de memória o suficiente para executar o DOS e Windows versão 3.1 os mais comuns nesta época. O co-processador matemático era um item a parte para os 386 e 486SX que poderia ser instalado num soquete específico na placa mãe, quase não usado, pois este custava caro demais para ser instalado em um micro comum.

Os discos rígidos já utilizam o padrão IDE, mas a sua controladora (chip I/O que controla o funcionamento do disco visto à controladora IDE ser integrada ao disco) ainda não era integrada a placa mãe, era utilizada uma placa extra onde eram conectados os discos rígidos, unidade de disquete e as portas paralelas e seriais, essa placa era conhecida como super IDE.
Nesta época ainda não existia o plug and play, todas as configurações deveriam ser feitas a mão, na BIOS e via jumpers na própria placa. Configurar uma destas placas super IDE sem o manual era complicado, pois não bastava plugar o disco na placa, era necessário configurar o DMA, IRQ e I/O manualmente do disco rígido, porta paralela e serial.

Ainda na BIOS uma das principais etapas de configuração era a quantidade de cabeças, cilindros e setores do disco rígido C/H/S, pois caso esta configuração não estivesse correta ou o disco era identificado de forma errada ou não seria reconhecido.
Dentro do sistema operacional era necessária a configuração manual de todos dispositivos de hardware diferentes do padrão, ou seja, placas de som, modems, drives de cd e qualquer outro dispositivo deveriam ser configurados manualmente seja no DOS ou no Windows, caso contrario seria ignorado pelo sistema ou pior, poderia gerar um conflito impedindo que o sistema inicializasse.

A memória já poderia ser expandida ou trocada mais facilmente através dos módulos SIMM de 30 vias que deveriam ser utilizados de 4 em 4 pois cada módulo trabalha com 8 bits sendo necessário 4 módulos para o barramento de 32 bits dos 386 e 486. Uma configuração muito comum a esta época era processador 386 @ 40MHz, 2MB de RAM, vídeo 256 KB ISA e HD de 40MB.
Da segunda metade da década de 90 em diante os computadores evoluíram bastante se tornando ainda mais integrados, as placas começaram a trazer a placa super IDE integrada e suas configurações fazendo parte da BIOS, diversas configurações passaram a ser automáticas como a identificação do disco rígido, as IRQs e DMA.  

A partir do Windows 95 o plug and play se tornou uma realidade, as placas eram plugadas e identificadas pelo sistema operacional bastando instalar os drivers, sem aquela dor de cabeça com IRQ, DMA e I/O. Os processadores Pentium eram os top de linha deixando os 486 com alternativas de baixo custo. As memórias evoluíram para os módulos SIMM de 72 vias e tecnologias FPM e EDO variando o tempo de acesso entre elas sendo mais alto nas FPM. Para a instalação em máquinas Pentium deveriam ser aos pares visto o barramento dos Pentium possuir 64 bits, nos 486 poderia ser somente um módulo.
As placas de vídeo passaram ocupar o slot PCI os modelos da Trident de 1MB (9440) eram os mais comuns, se padronizaram os “kits multimídia” vindo instalados na maioria das máquinas do final da década. Uma configuração muito comum desta época eram máquinas de médio custo com processador Pentium 16 MB de RAM placa de som Sound Blaster 16, unidade de CD de 8x e placa de vídeo 1MB. Uma máquina de baixo custo costumava vir com processador 486 DX2 66 MHz 8MB de RAM placa de vídeo 512KB. Apesar da diferença nas configurações ambas as máquinas poderiam ter a mesma utilidade para manter a compatibilidade com o DOS e Windows 3.1, ainda muito comuns, a maioria dos aplicativos rodava até mesmo em máquinas 386, no final das contas a não ser que o uso fosse para o entretenimento a maior parte dos usuários conseguia executar os programas mais comuns de forma satisfatória.
Em 1997 a Intel lança o Pentium II (baseado no Pentium Pro) e sua versão de baixo custo Celeron que fizeram a indústria acelerar ainda mais o desenvolvimento de novos componentes cada vez mais integrados. A partir daí as placas mãe começaram a integrar todos os tipos de componente, como vídeo, rede, modem e som, sendo chamadas de “placas onboard” apesar de desde os tempos dos 386 da Compaq e IBM já incorporarem componentes onboard a implementação era diferente, estas novas placas utilizavam um conceito chamado de HSP (Host Signal Processor) podendo assim criar produtos menos complexos, mais baratos em troca da perda de um pouco do desempenho do processador, que nestas alturas já tinha um desempenho bem razoável permitindo tais recursos.

Manutenção
A manutenção dos computadores neste período já não era algo tão complexo como nos anos 80, mas também não era algo simples, primariamente pelo fato de ainda a Internet estar engatinhando aqui no Brasil, somente alguns poucos tinham acesso a Internet e mesmo assim muitos fabricantes de componentes nem sequer possuíam uma página com os drivers de seus equipamentos, alguns tinham acesso a BBS e trocavam drivers com outros usuários mas isso era coisa de poucos a maioria dos técnicos se utilizava de um banco de drivers constituído de uma grande quantidade de disquetes com os arquivos dos componentes mais comuns e manuais de configuração.
Era comum andarem com uma maleta com as ferramentas necessárias para o reparo dos equipamentos. O conhecimento em eletrônica já poderia ser menor, mas não nulo visto que muitos problemas com placas poderiam ser solucionados com o reparo da mesma, o que ficava mais barato que a troca, saber utilizar um multímetro era importante, pois problemas com a alimentação elétrica poderiam ser descobertos com seu uso. Mas com a abertura do mercado, a oferta de componentes era grande em lojas especializadas, apesar de não ser barato, compensava mais a troca de placas e componentes defeituosos que o seu reparo na maioria das vezes, como era o caso das fontes que quando queimavam eram trocadas sem na maior parte das ocorrências verificarem internamente seu problema. Assim como placas de vídeo e as super IDE que quando apresentavam problemas eram substituídas.
A memória era um item realmente confuso para a substituição ou instalação de novos módulos. Existia uma boa variedade de modelos no mercado, entre os encapsulamentos (DIP, SIMM 30, SIMM 72 e DIMM) e tecnologias (FPM, EDO e SDRAM), variando ainda os tempos de acesso que nas máquinas 486 e Pentium deveriam ser configurados manualmente no BIOS caso contrário o sistema poderia ficar instável.
Como não existia (ou era muito restrita) a possibilidade de se aprender com a Internet, era necessário estudar a fundo o funcionamento do computador para se habilitar a realizar este tipo de trabalho. O custo dessa formação era alto já que só o custo com o equipamento para o curso já o deixava oneroso. Não era necessário ser técnico em eletrônica, os conceitos básicos aprendidos durante os cursos já era suficiente.
Bem no final da década com a popularização da internet e a redução nos preços dos computadores, a quantidade de técnicos começou a aumentar de forma notável. Neste período um técnico em manutenção de computadores cobrava hora técnica. No começo da década uma reinstalação de sistema não saía por menos de 400,00 reais já no final este valor era por volta de 100,00. Mas ainda uma profissão realmente lucrativa, para ser ter uma ideia na maioria das vezes somente à mão de obra de um reparo já representava quase o salário mínimo da época. Um técnico com uma boa quantidade de clientes poderia lucrar muito nesta época.  



Anos 2000

A partir de 2000 a maior evolução aqui no Brasil se deu acredito mais ao fato de se ter disponibilizado internet gratuita (sem a necessidade de pagar o provedor) do que pelo avanço da tecnologia. Neste tempo as máquinas predominantes no mercado eram as baseadas na arquitetura do Pentium Pro, ou seja, os Pentium II, III e Celerons derivados de ambos em conjunto com a placa da PC-chips M748xxx, as máquinas com processadores AMD K6, e principalmente o K6-2 este em conjunto com a placa mãe da PC-chips M598xx eram quase que uma “praga de gafanhotos”. Eram um indicio do que seria o futuro, alta integração. Claro que as máquinas com processadores Pentium e 486 ainda existiam, mas já estavam desaparecendo, principalmente pelo baixo desempenho em multimídia que nestes equipamentos era sofrível a reprodução de vídeos e execução de músicas em mp3(quem tinha um 486 nessa época lembra...) ficando restritos a edição de textos, internet e jogos antigos.

Após este período houve uma grande evolução na capacidade de processamento, armazenamento e memória RAM, no entanto o modelo se seguiu baseado neste paradigma, placa mãe com praticamente todos os itens essenciais integrados estes podendo são automaticamente configurados pelo BIOS restando à opção de ativar ou não o dispositivo.
Com o avanço do hardware os sistemas operacionais também evoluíram (leia-se Windows). A partir do lançamento do Windows XP em 2001, a instalação do mesmo se tornou algo realmente simples, basta inserir o CD na unidade e aguardar quando solicitado e teclar alguma tecla, pronto! A partir deste ponto é basicamente next, next, finish. Dependo da configuração da máquina (principalmente às anteriores a versão do Windows) todos os dispositivos são reconhecidos e após o processo é só instalar os softwares e está pronto é só usar. Caso deseje instalar um novo dispositivo, basta plugá-lo na máquina, o Windows irá identificar e fará automaticamente as configurações de IRQ, DMA e I/O, bastando (caso ele já não possua) instalar os drivers.
De 2005 em diante a computação passou por uma evolução relevante, os processadores multi-core. Com o lançamento do Pentium D os processadores passaram a ter múltiplos núcleos levando a computação a níveis de desenvolvimento antes possíveis somente com o uso de grandes computadores, as placas de vídeo de alto desempenho se tornaram algo para os mais ortodoxos, visto que diferentemente do que ocorria nos primeiros modelos de vídeo onboard do inicio da década (SiS 530 e 620 e i810) o vídeo onboard já tinha desempenho suficiente para executar a maior parte das aplicações de modo satisfatório, o que deixou o vídeo “off-board” restrito aos gamers mais aficionados por desempenho.

Manutenção

A manutenção dos equipamentos a partir do ano 2000 deixou de ser algo complexo e que necessitava de uma formação longa e cara e passou a ser muito mais simples surgindo no mercado diversas escolas vendendo o curso de “Montagem e Manutenção de computadores” que simplesmente se constituía de um apanhado geral do hardware e do software necessário para um computador funcionar. Basicamente um “vê o que encaixa em quê e instala o Windows”. Se você achasse necessário mais conhecimento deveria procurar especialização em escolas de renome, mas na maioria das vezes o “técnico” se achava com conhecimento suficiente para trabalhar na área.
Os problemas mais comuns nessa época (e até hoje, pois não evoluímos tanto em relação ao início dos anos 2000) eram que com o advento das placas onboard problemas com estes dispositivos onboard, que quando corretamente identificados e a placa em questão permitia (existiam placas como a m748 que só possuía um único slot pci) eram substituídos por um componente “off-board” (coloco entre aspas porque considero essa notação errada, mas como já é padrão, melhor usar). Devido à popularização dos componentes de informática muitas vezes a troca da placa mãe era a melhor solução. A fonte também se tornou um item muito vulnerável, a qualidade dos modelos mais baratos diminuiu muito se tornando muito freqüente a sua queima e substituição visto a maioria dos técnicos não ter qualificação para o seu reparo. As memórias se padronizaram inicialmente as PC-66, 100 e 133 e posteriormente os modelos DDR e DDR II, apesar das diferenças não era tão difícil identificar os módulos e com poucas exceções caso a memória encaixasse no slot a máquina iniciava, talvez sem o desempenho máximo por conta de configurações do barramento, mas iniciava e permitia que a configuração correta fosse feita. A Internet, os sites de busca e os fóruns tornaram os problemas mais solucionáveis visto na maioria das vezes uma rápida busca e a solução seria encontrada. Os fabricantes disponibilizam todos os drivers de seus equipamentos em suas páginas bastando identificar o modelo e baixar, para identificar o modelos dos dispositivos diversos softwares foram criados entre eles os clássicos AIDA32 e HWiNFO32.
Não era mais necessária uma formação muito extensa, bastava um bom curso de manutenção em computadores e um pouco de diligência em aprender os principais erros e suas soluções. Neste período uma enxurrada de jovens procuravam trabalhar com manutenção de micros, acreditando ser uma excelente área o que fez com que a regra da oferta e demanda se impusesse, grande oferta de técnicos, remuneração baixa. Ao final de 2009 grande parte dos técnicos autônomos cobrava em torno de 50,00 pela mão de obra de seus serviços, na maioria das vezes sem a cobrança da hora técnica.



Hoje


Hoje (final de 2012) o que temos é um cenário em que os dispositivos portáteis estão tomando conta do mercado, apesar de os desktops com seus sistemas locais ainda serem a maioria este paradigma está a mudar e em breve estaremos convivendo com dispositivos que trabalham trafegando dados com a nuvem e serão simples elos entre o usuário e o sistema que está na nuvem. Quando apresentarem problemas simplesmente serão descartados e um novo adquirido. Os tablets e smartphones definitivamente não foram feitos para serem consertados, o grau de integração deles é alto demais. Para ter os recursos que um único smartphone possui com equipamentos da década de 80 precisaríamos de uma sala inteira cheia de fios e antenas. Mesmo os notebooks e netbooks, com exceção de memória e disco rígido, o reparo físico na maioria das vezes não compensa, o resultado pode não ser satisfatório e o custo é alto. Quase todos os jovens usuários de computadores conhecem o básico para a manutenção de seus próprios equipamentos. Não é mais necessário entender de IRQs, DMAs, tempos de acesso ou barramentos para se reparar um computador. As configurações são automáticas. Hoje ser especialista em hardware é mais um complemento juntamente com o conhecimento de redes e infraestrutura, formando um único profissional o analista de infraestrutura.

Conclusão

O conhecimento sobre a arquitetura e funcionamento do hardware dos computadores realmente não é mais tão relevante quanto era nos anos 80 e 90. Hoje não é necessário saber os endereços de entrada e saída ou a tensão de alimentação dos componentes do computador, tudo ocorre de forma automática, só resta instalar os drivers. Saber como uma imagem é formada na tela ou como o processador armazena dados na memória são interessantes de saber, mas não essenciais. Os tempos mudaram e para melhor, hoje mais vale o profissional ser integrado com as novas tecnologias e usar o mais apropriado para cada questão do que ter um amplo conhecimento técnico sobre um equipamento e não se adaptar as necessidades dos clientes que precisam do seu trabalho, designando essa tarefa a outro profissional.
Mas isso não ocorre por falta de competência ou interesse dos novos na área e sim por uma evolução natural do paradigma da computação moderna. A China produz toneladas de produtos a um preço muito baixo, o custo do reparo não raras vezes é igual ou maior que a compra de um novo equipamento, a alta integração faz com que em um único chip se tenha um sistema completo, quando este apresenta problemas o melhor a fazer é a substituição do equipamento. Não que aprender a fundo o funcionamento, a estrutura e a arquitetura física de sistemas computacionais não seja proveitoso, mas não é essencial, o mais que se espera de um profissional em infraestrutura desta área é que resolva o problema, seja este de hardware, software, rede ou configuração. Os profissionais que englobam essa gama de conhecimentos e ao mesmo tempo sabem fazer uma correta análise de um problema e encontrar a melhor solução são os que terão uma melhor colocação no mercado e maior prestígio dos empregadores e clientes.  




Videos Relacionados :






Nenhum comentário:

Postar um comentário