segunda-feira, 10 de dezembro de 2012

As diferenças entre os SO


Sistema Operacional é o programa que controla tudo no computador enquanto você o está utilizando. Quando ligar o computador, repare que no painel (seja de mesa ou portátil) aparece geralmente uma “luzinha” indicando uma atividade no chamado “disco rígido”. Esse é o momento que o programa chamado sistema operacional é carregado para a memória do computador a fim de que ele se torne útil ou…operacional. Daí vem nome.



Existem três grandes sistemas operacionais populares hoje: o Windows, o Mac OS e o Linux.
O Windows e o Mac OS são sistemas operacionais proprietários, ou seja, para utilizar esses programas existe uma contrapartida financeira, temos que pagar o uso de sua licença.
O Linux, sistema operacional criado no final do século 20, por Linus Torvalds, vem crescendo e se tornando cada vez mais “usável” e compatível para os usuários domésticos.
Esse sistema operacional, como os outros dois, funciona também sob uma licença, a GPL, só que não existe custo para o uso deste sistema operacional. A GPL não é só gratuita, mas também faz com que qualquer modificação feita para melhor seja dividida entre todos. Outra coisa bacana é que ele foi feito para ser uma construção coletiva, por isso ele é código aberto, conhecido como open source (em inglês), ou seja, podemos ver como ele funciona…os outros não.
O sistema Mac OS X tem uma construção semelhante ao Linux o que torna ele também um sistema operacional mais confiável
Se você usa processador de texto, redes sociais, internet, chats e outras funções básicas, sugiro que você opte pelo Linux, que é comprovadamente mais seguro e em muitas vezes mais rápido que o Windows, por exemplo.
O importante é saber que temos opções e podemos enxergar além do monopólio de sistemas operacionais.
Na realidade existem ainda mais opções de sistemas. Eu citei os mais populares. Pesquise sobre isso e você vai descobrir um interessante mundo onde muitas pessoas querem estudar e progredir. Abraços!
Luis Motta, eu, gaúcho de porto alegre, profissional de TI desde o tempo que TI não era TI. Me dedico a facilitar a vida das pessoas com essa máquina revolucionária chamada “computador”, graças ao meu dedo verde e um talento inato para explicar coisas que eu nem mesmo entendo (risos). Atuo na área de informática , educação e tecnologia há 25 anos.
Alem disso sou metido a guitarrista de rock, atrapalhando há 17 anos a banda 10KPNR.
Engajado no LINUX, sou embaixador da distribuição openSUSE no Brasil junto com mais alguns companheiros espalhados pelo Brasil.
Espírita. acredito piamente que no Plano Espiritual existem computadores quânticos com matriz biológica. Aí, já é outra conversa…






Videos Relacionados :





quinta-feira, 6 de dezembro de 2012

Os 10 programas mais baixados


 

No Brasil muitas pessoas gostam de ter alguns programas instalados em seu computador, esses programas praticamente são padrões nos computadores dos brasileiros, muitas pessoas utilizam praticamente os mesmos programas, com isso entram na lista dos mais baixados. A baixo os 10 programas mais baixados no Brasil!

1. Avast! Free Antivírus
2. Windows Live Messenger
3. Ares Glaxy
4. WinRar
5. Mozzila Firefox
6. Adobe Flash Player
7. Messenger Plus Live
8. Google Chrome
9. Skype
10. AVG anti-virus Free

Esses são alguns dos programas mais baixados no Brasil, como pode ver são programas que você realmente precisa em seu computador, um bom navegador como os dois citados na lista a cima, antivírus, tem também alguns programas extras que não são todas as pessoas que usam, programas como o Skype que serve mais para que trabalha através do computador e gosta de manter contato com seus amigos através de uma forma bem simples e pratica, o Skype também é usado pelas pessoas que gostam de ficar conversando com seus amigos por voz através do computador.

Todos esses programas que citamos a cima podem ser encontrados nos sites de downloads Baixaki e SuperDownloads, então se você esta querendo fazer o download de algum programa para seu computador não deixe de acessar esses sites para que você possa fazer downloads de qualidade.
Avast! Free Antivirus 7.0.1474

1.Avast ! Free Antivirus :

O Avast! Free Antivirus trava uma constante batalha com o AVG pelo posto de antivírus mais baixado .

Além da tradicional qualidade e a eficiência de sempre, o Avast! Free Antivirus 7 conta com reformulação em sua interface, mecanismo automatizado para a contenção de possíveis ameaças (o chamado sandbox), melhor proteção dos navegadores e mais um variado leque de ferramentas para você evitar ser afetado pelos ataques de malwares.

  MSN Messenger 2011 15.4.3555.308



2.MSN Messenger 2011 :


Importante: esta versão do MSN Messenger não é compatível com o sistema operacional Windows XP. Se você possui o XP instalado, o Baixaki recomenda a utilização do MSN Messenger 2009.
O lançamento da versão do MSN Messenger 2011 foi cercado de expectativa e surpresa. O novo visual, os recursos inéditos e as várias outras adições fizeram com que os usuários se apaixonassem pela nova roupagem que o aplicativo mais popular do Brasil recebeu.
Contudo, como toda prévia, o programa possuía vários bugs e problemas que dificultavam a utilização. Como você pôde conferir no artigo com nossas primeiras impressões, ainda era preciso corrigir alguns pontos para que o querido MSN ficasse perfeito como todos desejam. E a versão final do MSN Messenger 2011 vem exatamente para levar o programa para o mais próximo disso.
Um exemplo disso é a tão falada integração com redes sociais, como o Facebook. Essa ligação está muito mais funcional e sem as indisponibilidades de serviço que frequentemente aconteciam. Além disso, a conversação ficou mais estável, permitindo que você converse com seus amigos sem medo de ser desconectado de repente.
Como parte do Windows Live Essentials 2011, a versão final do MSN continua com o visual totalmente repaginado, ainda mais bonito do que os anteriores. Quem possui o Windows 7 instalado na máquina pode aproveitar um visual totalmente customizado que se integra de forma perfeita ao sistema operacional.
 
Ares Galaxy 2.1.9.3043

3.Ares Galaxy :


O Ares Galaxy é um compartilhador de arquivos que trabalha em rede descentralizada (P2P), permitindo a troca direta entre usuários. Com ele você pode buscar e copiar qualquer arquivo disponibilizado por outras pessoas, como músicas e vídeos.
Considerado por muitos como um dos melhores compartilhadores da internet, o Ares Galaxy fornece buscas rápidas a uma enorme quantidade de arquivos. Em uma interface muito intuitiva e que pode ser traduzida para o português, você digita palavras-chave e obtém em instantes o resultado dessa pesquisa.

WinRAR 4.20

4.WinRAR :


O WinRAR é um dos mais conhecidos e eficientes compactadores disponíveis, tendo como principal destaque a compatibilidade com diversos formatos. Além disso, ao utilizar o programa você tem mais espaço disponível para armazenar diferentes tipos de arquivos em seu computador – afinal, documentos compactados ocupam bem menos espaço na máquina.
O programa também se destaca quando o assunto é velocidade e eficiência de compactação. Além da descompactação, que está 30% mais rápida em relação às versões anteriores, o aplicativo inclui recursos que o tornam cada vez melhor do que o WinZip, seu principal concorrente.


Mozilla Firefox 17.0.1

5.Mozilla Firefox :


Mozilla Firefox é um dos navegadores mais populares da web e o principal produto da Fundação Mozilla, a sua mantenedora.
O aplicativo, além de figurar como um dos principais browsers do mundo, é costumeiramente apontado como o mais bem-sucedido projeto de software livre do planeta
O browser acaba de ganhar uma nova versão, dando sequência ao projeto de pequenas atualizações em períodos curtos de tempo em vez de grandes novidades em grandes intervalos.
Nesta edição recém-saída do forno, o Firefox recebeu melhorias em seus mecanismos de segurança, adotou reformulações em algumas de suas ferramentas de desenvolvimento, ganhou aperfeiçoamentos em seu desempenho e passou a contar com recursos de integração com o Facebook permitindo que você interaja com a rede social sem precisar acessar seu perfil.
Adobe Flash Player 11.5.502.110

6.Adobe Flash Player :


A Adobe finalmente liberou a versão final da 11ª edição do plugin mais utilizado na internet, o Adobe Flash Player. A principal novidade desta versão é a volta do suporte nativo aos sistemas operacionais de 64-bits, mas as melhorias não param por aí.
Essa nova edição do programa traz uma série de vantagens para usuários e programadores, principalmente àqueles que ainda não estão confiantes no poderio do HTML5.


Messenger Plus! Live 5.50.0.761

7.Messenger Plus! Live :


Se você já era fã do Messenger Plus!, vai adorar esta novidade: uma nova versão foi lançada, totalmente compatível com o MSN Messenger 2011.
O software está totalmente novo, com muitas funções que vão agradar a todos os usuários. A interface foi modernizada para deixar o seu desktop ainda mais bonito e moderno. Com o novo Messenger Plus! suas conversas não serão mais as mesmas!
Google Chrome 23.0.1271.95

8.Google Chrome :


Seguindo a sua estratégia de atualizações em curtos períodos de tempo, a gigante de Mountain View acaba de anunciar a mais recente versão final do Google Chrome.
Novamente, como vem acontecendo nas últimas atualizações do navegador, a interface do browser não sofreu alterações significativas. Os esforços da equipe de desenvolvimento continuam voltados para os seus recursos internos e de navegação.
A 23ª edição do Chrome traz como principal novidade a ativação automática e por padrão da ferramenta “Do Not Track”, um mecanismo que impede que sites não autorizados armazenem dados da sua navegação.

Skype 6.0.0.126

9.Skype :


Hoje em dia, muitos programas permitem que o usuário faça ligações pela internet. Até mesmo mensageiros populares como o Windows Live Messenger são capazes de proporcionar ao usuário ligações e chamadas em vídeo. No entanto, se existe um programa que se tornou sinônimo de ligação gratuita na web, este aplicativo é o Skype.
Com visual levemente modificado, suporte a mais idiomas, novos recursos e integração com o MSN e o Facebook, o Skype 6 promete conquistar uma boa fatia de mercado, em especial o público corporativo, que passa contar com um recurso exclusivo de videoconferência em grupos. Ou seja, você poderá falar e visualizar diversas pessoas ao mesmo tempo, desde que todos eles tenham a mesma versão do aplicativo.
AVG Anti-Virus Free 2013.0.2741

10.AVG Anti-Virus Free :


O AVG continua com o título de antivírus mais baixado do Baixaki. Ao longo dos anos, ele conseguiu esse posto com seus recursos funcionais e, principalmente, com a eficiência na detecção e eliminação de malwares.
Depois de ter recebido consideráveis melhorias em seu desempenho na edição anterior (como arquivo reduzido e menor consumo de memória RAM), desta vez a desenvolvedora do aplicativo manteve o foco na segurança proporcionada pelo seu produto.
A versão 2013 deste antivírus acaba de sair do forno e traz uma reformulação em sua interface, novos recursos de proteção em nuvem e mecanismos para aumentar a segurança de acessos a redes Wi-Fi.


VN:F [1.9.21_1169]

Hardware e sua evoluçao



Há alguns anos um profissional de computação, em especial que prestava suporte era obrigado a conhecer uma ampla gama de conceitos sobre o computador. Não bastava somente colocar um CD no drive e acompanhar a instalação de um sistema. Fazer a manutenção de um PC nos anos 80 era coisa para profissionais em eletrônica digital. No início dos anos 90 a coisa avançou bastante, o nível de integração dos componentes aumentou muito, mas ainda era necessário um razoável conhecimento da arquitetura do computador para que a manutenção ou a montagem do mesmo fosse feita corretamente e extraindo todo o seu potencial. Termos como IRQ, DMA, multiplicador de clock e frequência e largura de barramento eram comuns entre os profissionais da área, pois sem saber o que esses termos significavam, seria muito difícil configurar uma placa mãe ou instalar uma placa de som por exemplo.
Antes de fazermos uma análise da importância de conhecer ou não a arquitetura de hardware nos dias de hoje vamos fazer uma retrospectiva das ultimas três décadas e como os conceitos de hardware eram relevantes em cada época. Lembrando que estou me referindo à parte de suporte e não o desenvolvimento de equipamentos eletrônicos que é outra história, vejamos:



Durante os anos 80, ter um computador não era algo para qualquer um. Levando em conta que estamos falando do Brasil, enquanto vivíamos os anos de chumbo da reserva de mercado o Brasil estava pelo menos 10 anos defasado tecnologicamente em relação ao primeiro mundo.

 Em 1981 foi lançado o IBM PC, que nos EUA já custava uma pequena fortuna
(US$ 1.565 em valores da época) no Brasil então quase impensável. No entanto no mercado existiam outros modelos de computadores pessoais, como TK-85, MSX (padrão de computador fabricado por várias empresas), Atari 400 e o CP-500 (a partir de 82) da Prológica (o que era mais usado de forma profissional) e outros aparelhos baseados no processador Z80 que inundavam o mercado, apesar de não serem baratos eram o que se conhecia por computador durante os anos 80.
Com exceção das universidades e grandes empresas, esses computadores eram na maioria das vezes usados como videogames de luxo. Pois os aplicativos mais comuns para esses aparelhos eram jogos. Alguns se aventuravam em programar em Basic porque diferente de hoje, esses computadores não traziam um sistema operacional e sim um interpretador Basic gravados em uma rom, todos os programas deveriam ou ser programados ou carregados para a memória do computador com a ajuda de gravadores cassete e só então executados. (As primeiras versões do IBM PC também eram assim, mas os modelos que mais se popularizaram no Brasil já eram versão XT, que utilizava o MS-DOS como sistema operacional.)

Manutenção
Deixando de lado o uso e levando em consideração a manutenção destes equipamentos, tínhamos basicamente uma placa de circuito impresso com os componentes soldados, uma fonte, e os dispositivos de entrada e saída conectados as portas do computador. Quando ocorriam problemas era necessária uma análise do aparelho, que de acordo com o sintoma levava o técnico ao causador da pane. Problemas como capacitores danificados, diodos e transistores abertos ou em curto, ou ainda mais complexo como circuitos integrados com defeito faziam com que esta análise fosse demorada e a manutenção relativamente cara.  

O técnico precisava entender do funcionamento de instrumentos como multímetro e osciloscópio para testar cada um dos componentes que julgasse defeituoso.
O defeito considerado mais simples era com a fonte, quando interna na maioria dos equipamentos ela era linear, possuía um transformador grande e pesado que poderia ser substituído assim como seus componentes (da fonte) como ponte retificadora e capacitores de filtragem e fusível. Em outros modelos a fonte era externa bastando à compra de outra para a substituição. Mas isso se dava nos modelos que utilizavam processador Z80, nos compatíveis com o IBM PC já utilizavam fontes chaveadas, mas eram grandes e de difícil manutenção, mas como o custo de substituição era alto, era melhor o reparo. O monitor em muitos modelos era integrado ao gabinete, ou seja, quando apresentava problemas era necessário desmontar tudo e encontrar o defeito, somente técnicos em eletrônica eram aptos a estes tipos de manutenção, curiosos corriam grandes riscos visto que no caso dos monitores integrados, uma descarga elétrica poderia a chegar a alguns kV, e mesmo as fontes poderiam representar riscos por conta de capacitores carregados.

Nos modelos compatíveis com o IBM-PC, existiam algumas configurações que deveriam ser feitas no BIOS do equipamento, que diferente dos modelos compatíveis com o processador Z80 que ao serem ligados subiam o interpretador Basic e paravam ali, os compatíveis IBM possuíam um BIOS, que necessitava ser configurado, de acordo com o uso e com os dispositivos conectados à máquina. O IBM PC (XT e AT) realizava o POST e após procurava o dispositivo para o boot (assim como é até hoje), que poderia ser um disquete ou disco rígido. Quando essa configuração era perdida, utilizar a opção de restaurar as opções padrão na maioria das vezes não fazia o computador iniciar novamente. O disco rígido que àquela época ainda era padrão st-506 e unidades de disquete precisavam ser configuradas de acordo sua especificação. Não existia configuração automática.
As memórias quando não eram soldadas diretamente à placa eram encaixadas em pequenos soquetes padrão dip. Somente o acréscimo de novos chips na maioria das vezes não fazia com que essa memória fosse reconhecida, era necessário configurações na placa e no BIOS para que a nova memória fosse utilizada.
Além destas características ainda ocorria o fato de não existir um padrão definido para a maioria dos microcomputadores, no caso dos baseados em processadores z-80 cada um tinha um projeto e no caso dos compatíveis com o IBM-PC, nas versões XT, AT e 286, apesar de seguirem o padrão de compatibilidade do IBM, cada fabricante produzia com detalhes diferentes do outro na placa mãe, o que tornava a manutenção sem o manual de instruções um processo complicado.
Ainda existiam o Apple II e o Lisa, mas aqui no Brasil foram tão raros que ficam só para constar mesmo.
Durante a década de 80, a manutenção de computadores não exigia só conhecer o funcionamento do computador, mas também a eletrônica envolvida no projeto. O profissional deveria ser uma mescla entre técnico em eletrônica e em informática. Eram profissionais raros e caros, muitas vezes com formação em engenharia elétrica ou eletrônica, ou formação técnica altamente especializada. Aprender na “raça” na década de 80 era quase impossível, ainda não existia o Google. O mais próximo disso eram revistas especializadas vendidas nas bancas de jornal do tipo faça você mesmo. Mas a probabilidade ser um técnico somente lendo estas revistas era pequena.



Com o fim da reserva de mercado o Brasil teve certo avanço na questão da tecnologia, ainda não se igualando ao primeiro mundo na atualização dos equipamentos, mas pelo menos diminuindo a defasagem em relação a eles.
Durante os anos 90 começaram a se popularizar os PCs baseados no padrão IBM em relação aos computadores com outros padrões que utilizavam processadores Z-80 e similares. Com a popularização dos aplicativos para o MS-DOS disponível somente nos computadores compatíveis como o IBM-PC, os demais padrões começaram a desaparecer do mercado, fazendo com que o padrão IBM se tornasse onipresente nos lares e empresas brasileiras.
Com a abertura do mercado diversas empresas nacionais iniciaram a produção de computadores, muitas migrando de outros ramos do mercado como, por exemplo, a Metron (chegou a ser líder de vendas entre empresas brasileiras de PCs) que saiu da fabricação de taxímetros para a fabricação de PCs. A Itautec, Procomp, Prológica, STi e diversas outras começaram a ofertar seus produtos no mercado de forma mais abrangente. Além das tradicionais IBM, Compaq (líder mundial à época), HP e Acer.
Mas apesar da oferta um PC não era algo barato, para se ter uma idéia em 1996 um computador Itautec modelo Infoway com processador Pentium 166Mhz e 16 MB de memória custava cerca de 3000 reais, sendo que o salário mínimo nesta época era pouco mais de 100,00 reais era um senhor investimento adquirir um PC. Claro que existiam versões mais em conta como computadores sem o famoso “kit multimídia” e com processadores já ultrapassados como os 486 e 586 (da AMD e Cyrix), mas nada que ficasse abaixo dos 1500 reais.
Durante a primeira metade da década de 90 os computadores mais populares eram os equipados com processadores 386 e 486. Ainda sem drives de CD e placas de som. Os monitores eram CRT, já não mais padrão MDA de fósforo verde ou azul, mas padrão VGA. Existiam alguns modelos monocromáticos, mas a maior parte eram em cores ficando as cores restritas a capacidade da placa de vídeo.
As placas de vídeo na sua maioria utilizavam o barramento ISA 16 bits e possuíam 512KB de memória o suficiente para executar o DOS e Windows versão 3.1 os mais comuns nesta época. O co-processador matemático era um item a parte para os 386 e 486SX que poderia ser instalado num soquete específico na placa mãe, quase não usado, pois este custava caro demais para ser instalado em um micro comum.

Os discos rígidos já utilizam o padrão IDE, mas a sua controladora (chip I/O que controla o funcionamento do disco visto à controladora IDE ser integrada ao disco) ainda não era integrada a placa mãe, era utilizada uma placa extra onde eram conectados os discos rígidos, unidade de disquete e as portas paralelas e seriais, essa placa era conhecida como super IDE.
Nesta época ainda não existia o plug and play, todas as configurações deveriam ser feitas a mão, na BIOS e via jumpers na própria placa. Configurar uma destas placas super IDE sem o manual era complicado, pois não bastava plugar o disco na placa, era necessário configurar o DMA, IRQ e I/O manualmente do disco rígido, porta paralela e serial.

Ainda na BIOS uma das principais etapas de configuração era a quantidade de cabeças, cilindros e setores do disco rígido C/H/S, pois caso esta configuração não estivesse correta ou o disco era identificado de forma errada ou não seria reconhecido.
Dentro do sistema operacional era necessária a configuração manual de todos dispositivos de hardware diferentes do padrão, ou seja, placas de som, modems, drives de cd e qualquer outro dispositivo deveriam ser configurados manualmente seja no DOS ou no Windows, caso contrario seria ignorado pelo sistema ou pior, poderia gerar um conflito impedindo que o sistema inicializasse.

A memória já poderia ser expandida ou trocada mais facilmente através dos módulos SIMM de 30 vias que deveriam ser utilizados de 4 em 4 pois cada módulo trabalha com 8 bits sendo necessário 4 módulos para o barramento de 32 bits dos 386 e 486. Uma configuração muito comum a esta época era processador 386 @ 40MHz, 2MB de RAM, vídeo 256 KB ISA e HD de 40MB.
Da segunda metade da década de 90 em diante os computadores evoluíram bastante se tornando ainda mais integrados, as placas começaram a trazer a placa super IDE integrada e suas configurações fazendo parte da BIOS, diversas configurações passaram a ser automáticas como a identificação do disco rígido, as IRQs e DMA.  

A partir do Windows 95 o plug and play se tornou uma realidade, as placas eram plugadas e identificadas pelo sistema operacional bastando instalar os drivers, sem aquela dor de cabeça com IRQ, DMA e I/O. Os processadores Pentium eram os top de linha deixando os 486 com alternativas de baixo custo. As memórias evoluíram para os módulos SIMM de 72 vias e tecnologias FPM e EDO variando o tempo de acesso entre elas sendo mais alto nas FPM. Para a instalação em máquinas Pentium deveriam ser aos pares visto o barramento dos Pentium possuir 64 bits, nos 486 poderia ser somente um módulo.
As placas de vídeo passaram ocupar o slot PCI os modelos da Trident de 1MB (9440) eram os mais comuns, se padronizaram os “kits multimídia” vindo instalados na maioria das máquinas do final da década. Uma configuração muito comum desta época eram máquinas de médio custo com processador Pentium 16 MB de RAM placa de som Sound Blaster 16, unidade de CD de 8x e placa de vídeo 1MB. Uma máquina de baixo custo costumava vir com processador 486 DX2 66 MHz 8MB de RAM placa de vídeo 512KB. Apesar da diferença nas configurações ambas as máquinas poderiam ter a mesma utilidade para manter a compatibilidade com o DOS e Windows 3.1, ainda muito comuns, a maioria dos aplicativos rodava até mesmo em máquinas 386, no final das contas a não ser que o uso fosse para o entretenimento a maior parte dos usuários conseguia executar os programas mais comuns de forma satisfatória.
Em 1997 a Intel lança o Pentium II (baseado no Pentium Pro) e sua versão de baixo custo Celeron que fizeram a indústria acelerar ainda mais o desenvolvimento de novos componentes cada vez mais integrados. A partir daí as placas mãe começaram a integrar todos os tipos de componente, como vídeo, rede, modem e som, sendo chamadas de “placas onboard” apesar de desde os tempos dos 386 da Compaq e IBM já incorporarem componentes onboard a implementação era diferente, estas novas placas utilizavam um conceito chamado de HSP (Host Signal Processor) podendo assim criar produtos menos complexos, mais baratos em troca da perda de um pouco do desempenho do processador, que nestas alturas já tinha um desempenho bem razoável permitindo tais recursos.

Manutenção
A manutenção dos computadores neste período já não era algo tão complexo como nos anos 80, mas também não era algo simples, primariamente pelo fato de ainda a Internet estar engatinhando aqui no Brasil, somente alguns poucos tinham acesso a Internet e mesmo assim muitos fabricantes de componentes nem sequer possuíam uma página com os drivers de seus equipamentos, alguns tinham acesso a BBS e trocavam drivers com outros usuários mas isso era coisa de poucos a maioria dos técnicos se utilizava de um banco de drivers constituído de uma grande quantidade de disquetes com os arquivos dos componentes mais comuns e manuais de configuração.
Era comum andarem com uma maleta com as ferramentas necessárias para o reparo dos equipamentos. O conhecimento em eletrônica já poderia ser menor, mas não nulo visto que muitos problemas com placas poderiam ser solucionados com o reparo da mesma, o que ficava mais barato que a troca, saber utilizar um multímetro era importante, pois problemas com a alimentação elétrica poderiam ser descobertos com seu uso. Mas com a abertura do mercado, a oferta de componentes era grande em lojas especializadas, apesar de não ser barato, compensava mais a troca de placas e componentes defeituosos que o seu reparo na maioria das vezes, como era o caso das fontes que quando queimavam eram trocadas sem na maior parte das ocorrências verificarem internamente seu problema. Assim como placas de vídeo e as super IDE que quando apresentavam problemas eram substituídas.
A memória era um item realmente confuso para a substituição ou instalação de novos módulos. Existia uma boa variedade de modelos no mercado, entre os encapsulamentos (DIP, SIMM 30, SIMM 72 e DIMM) e tecnologias (FPM, EDO e SDRAM), variando ainda os tempos de acesso que nas máquinas 486 e Pentium deveriam ser configurados manualmente no BIOS caso contrário o sistema poderia ficar instável.
Como não existia (ou era muito restrita) a possibilidade de se aprender com a Internet, era necessário estudar a fundo o funcionamento do computador para se habilitar a realizar este tipo de trabalho. O custo dessa formação era alto já que só o custo com o equipamento para o curso já o deixava oneroso. Não era necessário ser técnico em eletrônica, os conceitos básicos aprendidos durante os cursos já era suficiente.
Bem no final da década com a popularização da internet e a redução nos preços dos computadores, a quantidade de técnicos começou a aumentar de forma notável. Neste período um técnico em manutenção de computadores cobrava hora técnica. No começo da década uma reinstalação de sistema não saía por menos de 400,00 reais já no final este valor era por volta de 100,00. Mas ainda uma profissão realmente lucrativa, para ser ter uma ideia na maioria das vezes somente à mão de obra de um reparo já representava quase o salário mínimo da época. Um técnico com uma boa quantidade de clientes poderia lucrar muito nesta época.  



Anos 2000

A partir de 2000 a maior evolução aqui no Brasil se deu acredito mais ao fato de se ter disponibilizado internet gratuita (sem a necessidade de pagar o provedor) do que pelo avanço da tecnologia. Neste tempo as máquinas predominantes no mercado eram as baseadas na arquitetura do Pentium Pro, ou seja, os Pentium II, III e Celerons derivados de ambos em conjunto com a placa da PC-chips M748xxx, as máquinas com processadores AMD K6, e principalmente o K6-2 este em conjunto com a placa mãe da PC-chips M598xx eram quase que uma “praga de gafanhotos”. Eram um indicio do que seria o futuro, alta integração. Claro que as máquinas com processadores Pentium e 486 ainda existiam, mas já estavam desaparecendo, principalmente pelo baixo desempenho em multimídia que nestes equipamentos era sofrível a reprodução de vídeos e execução de músicas em mp3(quem tinha um 486 nessa época lembra...) ficando restritos a edição de textos, internet e jogos antigos.

Após este período houve uma grande evolução na capacidade de processamento, armazenamento e memória RAM, no entanto o modelo se seguiu baseado neste paradigma, placa mãe com praticamente todos os itens essenciais integrados estes podendo são automaticamente configurados pelo BIOS restando à opção de ativar ou não o dispositivo.
Com o avanço do hardware os sistemas operacionais também evoluíram (leia-se Windows). A partir do lançamento do Windows XP em 2001, a instalação do mesmo se tornou algo realmente simples, basta inserir o CD na unidade e aguardar quando solicitado e teclar alguma tecla, pronto! A partir deste ponto é basicamente next, next, finish. Dependo da configuração da máquina (principalmente às anteriores a versão do Windows) todos os dispositivos são reconhecidos e após o processo é só instalar os softwares e está pronto é só usar. Caso deseje instalar um novo dispositivo, basta plugá-lo na máquina, o Windows irá identificar e fará automaticamente as configurações de IRQ, DMA e I/O, bastando (caso ele já não possua) instalar os drivers.
De 2005 em diante a computação passou por uma evolução relevante, os processadores multi-core. Com o lançamento do Pentium D os processadores passaram a ter múltiplos núcleos levando a computação a níveis de desenvolvimento antes possíveis somente com o uso de grandes computadores, as placas de vídeo de alto desempenho se tornaram algo para os mais ortodoxos, visto que diferentemente do que ocorria nos primeiros modelos de vídeo onboard do inicio da década (SiS 530 e 620 e i810) o vídeo onboard já tinha desempenho suficiente para executar a maior parte das aplicações de modo satisfatório, o que deixou o vídeo “off-board” restrito aos gamers mais aficionados por desempenho.

Manutenção

A manutenção dos equipamentos a partir do ano 2000 deixou de ser algo complexo e que necessitava de uma formação longa e cara e passou a ser muito mais simples surgindo no mercado diversas escolas vendendo o curso de “Montagem e Manutenção de computadores” que simplesmente se constituía de um apanhado geral do hardware e do software necessário para um computador funcionar. Basicamente um “vê o que encaixa em quê e instala o Windows”. Se você achasse necessário mais conhecimento deveria procurar especialização em escolas de renome, mas na maioria das vezes o “técnico” se achava com conhecimento suficiente para trabalhar na área.
Os problemas mais comuns nessa época (e até hoje, pois não evoluímos tanto em relação ao início dos anos 2000) eram que com o advento das placas onboard problemas com estes dispositivos onboard, que quando corretamente identificados e a placa em questão permitia (existiam placas como a m748 que só possuía um único slot pci) eram substituídos por um componente “off-board” (coloco entre aspas porque considero essa notação errada, mas como já é padrão, melhor usar). Devido à popularização dos componentes de informática muitas vezes a troca da placa mãe era a melhor solução. A fonte também se tornou um item muito vulnerável, a qualidade dos modelos mais baratos diminuiu muito se tornando muito freqüente a sua queima e substituição visto a maioria dos técnicos não ter qualificação para o seu reparo. As memórias se padronizaram inicialmente as PC-66, 100 e 133 e posteriormente os modelos DDR e DDR II, apesar das diferenças não era tão difícil identificar os módulos e com poucas exceções caso a memória encaixasse no slot a máquina iniciava, talvez sem o desempenho máximo por conta de configurações do barramento, mas iniciava e permitia que a configuração correta fosse feita. A Internet, os sites de busca e os fóruns tornaram os problemas mais solucionáveis visto na maioria das vezes uma rápida busca e a solução seria encontrada. Os fabricantes disponibilizam todos os drivers de seus equipamentos em suas páginas bastando identificar o modelo e baixar, para identificar o modelos dos dispositivos diversos softwares foram criados entre eles os clássicos AIDA32 e HWiNFO32.
Não era mais necessária uma formação muito extensa, bastava um bom curso de manutenção em computadores e um pouco de diligência em aprender os principais erros e suas soluções. Neste período uma enxurrada de jovens procuravam trabalhar com manutenção de micros, acreditando ser uma excelente área o que fez com que a regra da oferta e demanda se impusesse, grande oferta de técnicos, remuneração baixa. Ao final de 2009 grande parte dos técnicos autônomos cobrava em torno de 50,00 pela mão de obra de seus serviços, na maioria das vezes sem a cobrança da hora técnica.



Hoje


Hoje (final de 2012) o que temos é um cenário em que os dispositivos portáteis estão tomando conta do mercado, apesar de os desktops com seus sistemas locais ainda serem a maioria este paradigma está a mudar e em breve estaremos convivendo com dispositivos que trabalham trafegando dados com a nuvem e serão simples elos entre o usuário e o sistema que está na nuvem. Quando apresentarem problemas simplesmente serão descartados e um novo adquirido. Os tablets e smartphones definitivamente não foram feitos para serem consertados, o grau de integração deles é alto demais. Para ter os recursos que um único smartphone possui com equipamentos da década de 80 precisaríamos de uma sala inteira cheia de fios e antenas. Mesmo os notebooks e netbooks, com exceção de memória e disco rígido, o reparo físico na maioria das vezes não compensa, o resultado pode não ser satisfatório e o custo é alto. Quase todos os jovens usuários de computadores conhecem o básico para a manutenção de seus próprios equipamentos. Não é mais necessário entender de IRQs, DMAs, tempos de acesso ou barramentos para se reparar um computador. As configurações são automáticas. Hoje ser especialista em hardware é mais um complemento juntamente com o conhecimento de redes e infraestrutura, formando um único profissional o analista de infraestrutura.

Conclusão

O conhecimento sobre a arquitetura e funcionamento do hardware dos computadores realmente não é mais tão relevante quanto era nos anos 80 e 90. Hoje não é necessário saber os endereços de entrada e saída ou a tensão de alimentação dos componentes do computador, tudo ocorre de forma automática, só resta instalar os drivers. Saber como uma imagem é formada na tela ou como o processador armazena dados na memória são interessantes de saber, mas não essenciais. Os tempos mudaram e para melhor, hoje mais vale o profissional ser integrado com as novas tecnologias e usar o mais apropriado para cada questão do que ter um amplo conhecimento técnico sobre um equipamento e não se adaptar as necessidades dos clientes que precisam do seu trabalho, designando essa tarefa a outro profissional.
Mas isso não ocorre por falta de competência ou interesse dos novos na área e sim por uma evolução natural do paradigma da computação moderna. A China produz toneladas de produtos a um preço muito baixo, o custo do reparo não raras vezes é igual ou maior que a compra de um novo equipamento, a alta integração faz com que em um único chip se tenha um sistema completo, quando este apresenta problemas o melhor a fazer é a substituição do equipamento. Não que aprender a fundo o funcionamento, a estrutura e a arquitetura física de sistemas computacionais não seja proveitoso, mas não é essencial, o mais que se espera de um profissional em infraestrutura desta área é que resolva o problema, seja este de hardware, software, rede ou configuração. Os profissionais que englobam essa gama de conhecimentos e ao mesmo tempo sabem fazer uma correta análise de um problema e encontrar a melhor solução são os que terão uma melhor colocação no mercado e maior prestígio dos empregadores e clientes.  




Videos Relacionados :