Há alguns anos um profissional de
computação, em especial que prestava suporte era obrigado a conhecer uma ampla
gama de conceitos sobre o computador. Não bastava somente colocar um CD no
drive e acompanhar a instalação de um sistema. Fazer a manutenção de um PC nos
anos 80 era coisa para profissionais em eletrônica digital. No início dos anos
90 a coisa avançou bastante, o nível de integração dos componentes aumentou
muito, mas ainda era necessário um razoável conhecimento da arquitetura do
computador para que a manutenção ou a montagem do mesmo fosse feita
corretamente e extraindo todo o seu potencial. Termos como IRQ, DMA,
multiplicador de clock e frequência e largura de barramento eram comuns entre
os profissionais da área, pois sem saber o que esses termos significavam, seria
muito difícil configurar uma placa mãe ou instalar uma placa de som por
exemplo.
Antes de
fazermos uma análise da importância de conhecer ou não a arquitetura de
hardware nos dias de hoje vamos fazer uma retrospectiva das ultimas três
décadas e como os conceitos de hardware eram relevantes em cada época.
Lembrando que estou me referindo à parte de suporte e não o desenvolvimento de
equipamentos eletrônicos que é outra história, vejamos:
Durante os anos 80, ter um computador
não era algo para qualquer um. Levando em conta que estamos falando do Brasil,
enquanto vivíamos os anos de chumbo da reserva de mercado o Brasil estava pelo
menos 10 anos defasado tecnologicamente em relação ao primeiro mundo.
Em 1981 foi lançado o IBM PC,
que nos EUA já custava uma pequena fortuna
(US$ 1.565 em valores da época) no
Brasil então quase impensável. No entanto no mercado existiam outros modelos de
computadores pessoais, como TK-85, MSX (padrão de computador fabricado por
várias empresas), Atari 400 e o CP-500 (a partir de 82) da Prológica (o que era
mais usado de forma profissional) e outros aparelhos baseados no processador
Z80 que inundavam o mercado, apesar de não serem baratos eram o que se conhecia
por computador durante os anos 80.
Com exceção das universidades e
grandes empresas, esses computadores eram na maioria das vezes usados como
videogames de luxo. Pois os aplicativos mais comuns para esses aparelhos eram
jogos. Alguns se aventuravam em programar em Basic porque diferente de hoje,
esses computadores não traziam um sistema operacional e sim um interpretador
Basic gravados em uma rom, todos os programas deveriam ou ser programados ou
carregados para a memória do computador com a ajuda de gravadores cassete e só
então executados. (As primeiras versões do IBM PC também eram assim, mas os
modelos que mais se popularizaram no Brasil já eram versão XT, que utilizava o
MS-DOS como sistema operacional.)
Manutenção
Deixando de lado o uso e levando em
consideração a manutenção destes equipamentos, tínhamos basicamente uma placa
de circuito impresso com os componentes soldados, uma fonte, e os dispositivos
de entrada e saída conectados as portas do computador. Quando ocorriam
problemas era necessária uma análise do aparelho, que de acordo com o sintoma
levava o técnico ao causador da pane. Problemas como capacitores danificados,
diodos e transistores abertos ou em curto, ou ainda mais complexo como
circuitos integrados com defeito faziam com que esta análise fosse demorada e a
manutenção relativamente cara.
O técnico precisava entender do
funcionamento de instrumentos como multímetro e osciloscópio para testar cada
um dos componentes que julgasse defeituoso.
O defeito considerado mais simples
era com a fonte, quando interna na maioria dos equipamentos ela era linear,
possuía um transformador grande e pesado que poderia ser substituído assim como
seus componentes (da fonte) como ponte retificadora e capacitores de filtragem
e fusível. Em outros modelos a fonte era externa bastando à compra de outra
para a substituição. Mas isso se dava nos modelos que utilizavam processador
Z80, nos compatíveis com o IBM PC já utilizavam fontes chaveadas, mas eram
grandes e de difícil manutenção, mas como o custo de substituição era alto, era
melhor o reparo. O monitor em muitos modelos era integrado ao gabinete, ou
seja, quando apresentava problemas era necessário desmontar tudo e encontrar o
defeito, somente técnicos em eletrônica eram aptos a estes tipos de manutenção,
curiosos corriam grandes riscos visto que no caso dos monitores integrados, uma
descarga elétrica poderia a chegar a alguns kV, e mesmo as fontes poderiam
representar riscos por conta de capacitores carregados.
Nos modelos compatíveis com o IBM-PC,
existiam algumas configurações que deveriam ser feitas no BIOS do equipamento,
que diferente dos modelos compatíveis com o processador Z80 que ao serem
ligados subiam o interpretador Basic e paravam ali, os compatíveis IBM possuíam
um BIOS, que necessitava ser configurado, de acordo com o uso e com os
dispositivos conectados à máquina. O IBM PC (XT e AT) realizava o POST e após
procurava o dispositivo para o boot (assim como é até hoje), que poderia ser um
disquete ou disco rígido. Quando essa configuração era perdida, utilizar a
opção de restaurar as opções padrão na maioria das vezes não fazia o computador
iniciar novamente. O disco rígido que àquela época ainda era padrão st-506 e unidades
de disquete precisavam ser configuradas de acordo sua especificação. Não
existia configuração automática.
As memórias quando não eram soldadas
diretamente à placa eram encaixadas em pequenos soquetes padrão dip. Somente o
acréscimo de novos chips na maioria das vezes não fazia com que essa memória
fosse reconhecida, era necessário configurações na placa e no BIOS para que a
nova memória fosse utilizada.
Além destas características ainda ocorria o fato de não existir um padrão definido para a maioria dos microcomputadores, no caso dos baseados em processadores z-80 cada um tinha um projeto e no caso dos compatíveis com o IBM-PC, nas versões XT, AT e 286, apesar de seguirem o padrão de compatibilidade do IBM, cada fabricante produzia com detalhes diferentes do outro na placa mãe, o que tornava a manutenção sem o manual de instruções um processo complicado.
Além destas características ainda ocorria o fato de não existir um padrão definido para a maioria dos microcomputadores, no caso dos baseados em processadores z-80 cada um tinha um projeto e no caso dos compatíveis com o IBM-PC, nas versões XT, AT e 286, apesar de seguirem o padrão de compatibilidade do IBM, cada fabricante produzia com detalhes diferentes do outro na placa mãe, o que tornava a manutenção sem o manual de instruções um processo complicado.
Ainda existiam o Apple II e o Lisa,
mas aqui no Brasil foram tão raros que ficam só para constar mesmo.
Durante a década de 80, a manutenção
de computadores não exigia só conhecer o funcionamento do computador, mas
também a eletrônica envolvida no projeto. O profissional deveria ser uma mescla
entre técnico em eletrônica e em informática. Eram profissionais raros e caros,
muitas vezes com formação em engenharia elétrica ou eletrônica, ou formação
técnica altamente especializada. Aprender na “raça” na década de 80 era quase
impossível, ainda não existia o Google. O mais próximo disso eram revistas
especializadas vendidas nas bancas de jornal do tipo faça você mesmo. Mas a
probabilidade ser um técnico somente lendo estas revistas era pequena.
Com o fim da reserva de mercado o
Brasil teve certo avanço na questão da tecnologia, ainda não se igualando ao
primeiro mundo na atualização dos equipamentos, mas pelo menos diminuindo a
defasagem em relação a eles.
Durante os anos 90 começaram a se
popularizar os PCs baseados no padrão IBM em relação aos computadores com
outros padrões que utilizavam processadores Z-80 e similares. Com a popularização
dos aplicativos para o MS-DOS disponível somente nos computadores compatíveis
como o IBM-PC, os demais padrões começaram a desaparecer do mercado, fazendo
com que o padrão IBM se tornasse onipresente nos lares e empresas brasileiras.
Com a abertura do mercado diversas
empresas nacionais iniciaram a produção de computadores, muitas migrando de
outros ramos do mercado como, por exemplo, a Metron (chegou a ser líder de
vendas entre empresas brasileiras de PCs) que saiu da fabricação de taxímetros
para a fabricação de PCs. A Itautec, Procomp, Prológica, STi e diversas outras
começaram a ofertar seus produtos no mercado de forma mais abrangente. Além das
tradicionais IBM, Compaq (líder mundial à época), HP e Acer.
Mas apesar da oferta um PC não era algo barato, para se ter uma idéia em 1996 um computador Itautec modelo Infoway com processador Pentium 166Mhz e 16 MB de memória custava cerca de 3000 reais, sendo que o salário mínimo nesta época era pouco mais de 100,00 reais era um senhor investimento adquirir um PC. Claro que existiam versões mais em conta como computadores sem o famoso “kit multimídia” e com processadores já ultrapassados como os 486 e 586 (da AMD e Cyrix), mas nada que ficasse abaixo dos 1500 reais.
Mas apesar da oferta um PC não era algo barato, para se ter uma idéia em 1996 um computador Itautec modelo Infoway com processador Pentium 166Mhz e 16 MB de memória custava cerca de 3000 reais, sendo que o salário mínimo nesta época era pouco mais de 100,00 reais era um senhor investimento adquirir um PC. Claro que existiam versões mais em conta como computadores sem o famoso “kit multimídia” e com processadores já ultrapassados como os 486 e 586 (da AMD e Cyrix), mas nada que ficasse abaixo dos 1500 reais.
Durante a primeira metade da década
de 90 os computadores mais populares eram os equipados com processadores 386 e
486. Ainda sem drives de CD e placas de som. Os monitores eram CRT, já não mais
padrão MDA de fósforo verde ou azul, mas padrão VGA. Existiam alguns modelos
monocromáticos, mas a maior parte eram em cores ficando as cores restritas a
capacidade da placa de vídeo.
As placas de vídeo na sua maioria
utilizavam o barramento ISA 16 bits e possuíam 512KB de memória o suficiente
para executar o DOS e Windows versão 3.1 os mais comuns nesta época. O
co-processador matemático era um item a parte para os 386 e 486SX que poderia
ser instalado num soquete específico na placa mãe, quase não usado, pois este
custava caro demais para ser instalado em um micro comum.
Os discos rígidos já utilizam o
padrão IDE, mas a sua controladora (chip I/O que controla o funcionamento do
disco visto à controladora IDE ser integrada ao disco) ainda não era integrada
a placa mãe, era utilizada uma placa extra onde eram conectados os discos
rígidos, unidade de disquete e as portas paralelas e seriais, essa placa era
conhecida como super IDE.
Nesta época ainda não existia o plug
and play, todas as configurações deveriam ser feitas a mão, na BIOS e via
jumpers na própria placa. Configurar uma destas placas super IDE sem o manual
era complicado, pois não bastava plugar o disco na placa, era necessário
configurar o DMA, IRQ e I/O manualmente do disco rígido, porta paralela e
serial.
Ainda na BIOS uma das principais
etapas de configuração era a quantidade de cabeças, cilindros e setores do
disco rígido C/H/S, pois caso esta configuração não estivesse correta ou o
disco era identificado de forma errada ou não seria reconhecido.
Dentro do sistema operacional era
necessária a configuração manual de todos dispositivos de hardware diferentes
do padrão, ou seja, placas de som, modems, drives de cd e qualquer outro
dispositivo deveriam ser configurados manualmente seja no DOS ou no Windows,
caso contrario seria ignorado pelo sistema ou pior, poderia gerar um conflito
impedindo que o sistema inicializasse.
A memória já poderia ser expandida ou
trocada mais facilmente através dos módulos SIMM de 30 vias que deveriam ser
utilizados de 4 em 4 pois cada módulo trabalha com 8 bits sendo necessário 4
módulos para o barramento de 32 bits dos 386 e 486. Uma configuração muito
comum a esta época era processador 386 @ 40MHz, 2MB de RAM, vídeo 256 KB ISA e
HD de 40MB.
Da segunda metade da década de 90 em
diante os computadores evoluíram bastante se tornando ainda mais integrados, as
placas começaram a trazer a placa super IDE integrada e suas configurações
fazendo parte da BIOS, diversas configurações passaram a ser automáticas como a
identificação do disco rígido, as IRQs e DMA.
A partir do Windows 95 o plug and
play se tornou uma realidade, as placas eram plugadas e identificadas pelo sistema
operacional bastando instalar os drivers, sem aquela dor de cabeça com IRQ, DMA
e I/O. Os processadores Pentium eram os top de linha deixando os 486 com
alternativas de baixo custo. As memórias evoluíram para os módulos SIMM de 72
vias e tecnologias FPM e EDO variando o tempo de acesso entre elas sendo mais
alto nas FPM. Para a instalação em máquinas Pentium deveriam ser aos pares
visto o barramento dos Pentium possuir 64 bits, nos 486 poderia ser somente um
módulo.
As placas de vídeo passaram ocupar o
slot PCI os modelos da Trident de 1MB (9440) eram os mais comuns, se
padronizaram os “kits multimídia” vindo instalados na maioria das máquinas do
final da década. Uma configuração muito comum desta época eram máquinas de
médio custo com processador Pentium 16 MB de RAM placa de som Sound Blaster 16,
unidade de CD de 8x e placa de vídeo 1MB. Uma máquina de baixo custo costumava
vir com processador 486 DX2 66 MHz 8MB de RAM placa de vídeo 512KB. Apesar da
diferença nas configurações ambas as máquinas poderiam ter a mesma utilidade
para manter a compatibilidade com o DOS e Windows 3.1, ainda muito comuns, a
maioria dos aplicativos rodava até mesmo em máquinas 386, no final das contas a
não ser que o uso fosse para o entretenimento a maior parte dos usuários conseguia
executar os programas mais comuns de forma satisfatória.
Em 1997 a Intel lança o Pentium II
(baseado no Pentium Pro) e sua versão de baixo custo Celeron que fizeram a
indústria acelerar ainda mais o desenvolvimento de novos componentes cada vez
mais integrados. A partir daí as placas mãe começaram a integrar todos os tipos
de componente, como vídeo, rede, modem e som, sendo chamadas de “placas
onboard” apesar de desde os tempos dos 386 da Compaq e IBM já incorporarem
componentes onboard a implementação era diferente, estas novas placas
utilizavam um conceito chamado de HSP (Host Signal Processor) podendo assim
criar produtos menos complexos, mais baratos em troca da perda de um pouco do
desempenho do processador, que nestas alturas já tinha um desempenho bem
razoável permitindo tais recursos.
Manutenção
A manutenção dos computadores neste
período já não era algo tão complexo como nos anos 80, mas também não era algo
simples, primariamente pelo fato de ainda a Internet estar engatinhando aqui no
Brasil, somente alguns poucos tinham acesso a Internet e mesmo assim muitos
fabricantes de componentes nem sequer possuíam uma página com os drivers de
seus equipamentos, alguns tinham acesso a BBS e trocavam drivers com outros
usuários mas isso era coisa de poucos a maioria dos técnicos se utilizava de um
banco de drivers constituído de uma grande quantidade de disquetes com os
arquivos dos componentes mais comuns e manuais de configuração.
Era comum andarem com uma maleta com
as ferramentas necessárias para o reparo dos equipamentos. O conhecimento em
eletrônica já poderia ser menor, mas não nulo visto que muitos problemas com
placas poderiam ser solucionados com o reparo da mesma, o que ficava mais
barato que a troca, saber utilizar um multímetro era importante, pois problemas
com a alimentação elétrica poderiam ser descobertos com seu uso. Mas com a
abertura do mercado, a oferta de componentes era grande em lojas
especializadas, apesar de não ser barato, compensava mais a troca de placas e
componentes defeituosos que o seu reparo na maioria das vezes, como era o caso
das fontes que quando queimavam eram trocadas sem na maior parte das
ocorrências verificarem internamente seu problema. Assim como placas de vídeo e
as super IDE que quando apresentavam problemas eram substituídas.
A memória era um item realmente
confuso para a substituição ou instalação de novos módulos. Existia uma boa
variedade de modelos no mercado, entre os encapsulamentos (DIP, SIMM 30, SIMM
72 e DIMM) e tecnologias (FPM, EDO e SDRAM), variando ainda os tempos de acesso
que nas máquinas 486 e Pentium deveriam ser configurados manualmente no BIOS
caso contrário o sistema poderia ficar instável.
Como não existia (ou era muito
restrita) a possibilidade de se aprender com a Internet, era necessário estudar
a fundo o funcionamento do computador para se habilitar a realizar este tipo de
trabalho. O custo dessa formação era alto já que só o custo com o equipamento
para o curso já o deixava oneroso. Não era necessário ser técnico em
eletrônica, os conceitos básicos aprendidos durante os cursos já era
suficiente.
Bem no final da década com a
popularização da internet e a redução nos preços dos computadores, a quantidade
de técnicos começou a aumentar de forma notável. Neste período um técnico em
manutenção de computadores cobrava hora técnica. No começo da década uma
reinstalação de sistema não saía por menos de 400,00 reais já no final este
valor era por volta de 100,00. Mas ainda uma profissão realmente lucrativa,
para ser ter uma ideia na maioria das vezes somente à mão de obra de um reparo
já representava quase o salário mínimo da época. Um técnico com uma boa
quantidade de clientes poderia lucrar muito nesta época.
Anos 2000
A partir de 2000 a maior evolução aqui no Brasil se deu acredito
mais ao fato de se ter disponibilizado internet gratuita (sem a necessidade de
pagar o provedor) do que pelo avanço da tecnologia. Neste tempo as máquinas
predominantes no mercado eram as baseadas na arquitetura do Pentium Pro, ou
seja, os Pentium II, III e Celerons derivados de ambos em conjunto com a placa
da PC-chips M748xxx, as máquinas com processadores AMD K6, e principalmente o
K6-2 este em conjunto com a placa mãe da PC-chips M598xx eram quase que uma
“praga de gafanhotos”. Eram um indicio do que seria o futuro, alta integração.
Claro que as máquinas com processadores Pentium e 486 ainda existiam, mas já
estavam desaparecendo, principalmente pelo baixo desempenho em multimídia que
nestes equipamentos era sofrível a reprodução de vídeos e execução de músicas
em mp3(quem tinha um 486 nessa época lembra...) ficando restritos a edição de
textos, internet e jogos antigos.
Após este período houve uma grande evolução na capacidade de
processamento, armazenamento e memória RAM, no entanto o modelo se seguiu
baseado neste paradigma, placa mãe com praticamente todos os itens essenciais
integrados estes podendo são automaticamente configurados pelo BIOS restando à
opção de ativar ou não o dispositivo.
Com o avanço do hardware os sistemas operacionais também
evoluíram (leia-se Windows). A partir do lançamento do Windows XP em 2001, a
instalação do mesmo se tornou algo realmente simples, basta inserir o CD na
unidade e aguardar quando solicitado e teclar alguma tecla, pronto! A partir
deste ponto é basicamente next, next, finish. Dependo da configuração da
máquina (principalmente às anteriores a versão do Windows) todos os
dispositivos são reconhecidos e após o processo é só instalar os softwares e
está pronto é só usar. Caso deseje instalar um novo dispositivo, basta plugá-lo
na máquina, o Windows irá identificar e fará automaticamente as configurações
de IRQ, DMA e I/O, bastando (caso ele já não possua) instalar os drivers.
De 2005 em diante a computação passou por uma evolução
relevante, os processadores multi-core. Com o lançamento do Pentium D os
processadores passaram a ter múltiplos núcleos levando a computação a níveis de
desenvolvimento antes possíveis somente com o uso de grandes computadores, as
placas de vídeo de alto desempenho se tornaram algo para os mais ortodoxos,
visto que diferentemente do que ocorria nos primeiros modelos de vídeo onboard
do inicio da década (SiS 530 e 620 e i810) o vídeo onboard já tinha desempenho
suficiente para executar a maior parte das aplicações de modo satisfatório, o
que deixou o vídeo “off-board” restrito aos gamers mais aficionados por
desempenho.
Manutenção
A manutenção dos equipamentos a partir do ano 2000 deixou de ser
algo complexo e que necessitava de uma formação longa e cara e passou a ser
muito mais simples surgindo no mercado diversas escolas vendendo o curso de
“Montagem e Manutenção de computadores” que simplesmente se constituía de um
apanhado geral do hardware e do software necessário para um computador
funcionar. Basicamente um “vê o que encaixa em quê e instala o Windows”. Se
você achasse necessário mais conhecimento deveria procurar especialização em
escolas de renome, mas na maioria das vezes o “técnico” se achava com
conhecimento suficiente para trabalhar na área.
Os problemas mais comuns nessa época (e até hoje, pois não
evoluímos tanto em relação ao início dos anos 2000) eram que com o advento das
placas onboard problemas com estes dispositivos onboard, que quando
corretamente identificados e a placa em questão permitia (existiam placas como
a m748 que só possuía um único slot pci) eram substituídos por um componente
“off-board” (coloco entre aspas porque considero essa notação errada, mas como
já é padrão, melhor usar). Devido à popularização dos componentes de
informática muitas vezes a troca da placa mãe era a melhor solução. A fonte
também se tornou um item muito vulnerável, a qualidade dos modelos mais baratos
diminuiu muito se tornando muito freqüente a sua queima e substituição visto a
maioria dos técnicos não ter qualificação para o seu reparo. As memórias se
padronizaram inicialmente as PC-66, 100 e 133 e posteriormente os modelos DDR e
DDR II, apesar das diferenças não era tão difícil identificar os módulos e com
poucas exceções caso a memória encaixasse no slot a máquina iniciava, talvez
sem o desempenho máximo por conta de configurações do barramento, mas iniciava
e permitia que a configuração correta fosse feita. A Internet, os sites de
busca e os fóruns tornaram os problemas mais solucionáveis visto na maioria das
vezes uma rápida busca e a solução seria encontrada. Os fabricantes
disponibilizam todos os drivers de seus equipamentos em suas páginas bastando
identificar o modelo e baixar, para identificar o modelos dos dispositivos
diversos softwares foram criados entre eles os clássicos AIDA32 e HWiNFO32.
Não
era mais necessária uma formação muito extensa, bastava um bom curso de manutenção
em computadores e um pouco de diligência em aprender os principais erros e suas
soluções. Neste período uma enxurrada de jovens procuravam trabalhar com
manutenção de micros, acreditando ser uma excelente área o que fez com que a
regra da oferta e demanda se impusesse, grande oferta de técnicos, remuneração
baixa. Ao final de 2009 grande parte dos técnicos autônomos cobrava em torno de
50,00 pela mão de obra de seus serviços, na maioria das vezes sem a cobrança da
hora técnica.
Hoje
Hoje (final de 2012) o que temos é um cenário em que os
dispositivos portáteis estão tomando conta do mercado, apesar de os desktops
com seus sistemas locais ainda serem a maioria este paradigma está a mudar e em
breve estaremos convivendo com dispositivos que trabalham trafegando dados com
a nuvem e serão simples elos entre o usuário e o sistema que está na nuvem.
Quando apresentarem problemas simplesmente serão descartados e um novo
adquirido. Os tablets e smartphones definitivamente não foram feitos para serem
consertados, o grau de integração deles é alto demais. Para ter os recursos que
um único smartphone possui com equipamentos da década de 80 precisaríamos de
uma sala inteira cheia de fios e antenas. Mesmo os notebooks e netbooks, com
exceção de memória e disco rígido, o reparo físico na maioria das vezes não
compensa, o resultado pode não ser satisfatório e o custo é alto. Quase todos
os jovens usuários de computadores conhecem o básico para a manutenção de seus
próprios equipamentos. Não é mais necessário entender de IRQs, DMAs, tempos de
acesso ou barramentos para se reparar um computador. As configurações são
automáticas. Hoje ser especialista em hardware é mais um complemento juntamente
com o conhecimento de redes e infraestrutura, formando um único profissional o
analista de infraestrutura.
Conclusão
O conhecimento sobre a arquitetura e funcionamento do hardware
dos computadores realmente não é mais tão relevante quanto era nos anos 80 e
90. Hoje não é necessário saber os endereços de entrada e saída ou a tensão de
alimentação dos componentes do computador, tudo ocorre de forma automática, só
resta instalar os drivers. Saber como uma imagem é formada na tela ou como o
processador armazena dados na memória são interessantes de saber, mas não
essenciais. Os tempos mudaram e para melhor, hoje mais vale o profissional ser
integrado com as novas tecnologias e usar o mais apropriado para cada questão
do que ter um amplo conhecimento técnico sobre um equipamento e não se adaptar
as necessidades dos clientes que precisam do seu trabalho, designando essa
tarefa a outro profissional.
Mas isso não ocorre por falta de competência ou interesse dos
novos na área e sim por uma evolução natural do paradigma da computação
moderna. A China produz toneladas de produtos a um preço muito baixo, o custo
do reparo não raras vezes é igual ou maior que a compra de um novo equipamento,
a alta integração faz com que em um único chip se tenha um sistema completo,
quando este apresenta problemas o melhor a fazer é a substituição do
equipamento. Não que aprender a fundo o funcionamento, a estrutura e a
arquitetura física de sistemas computacionais não seja proveitoso, mas não é
essencial, o mais que se espera de um profissional em infraestrutura desta área
é que resolva o problema, seja este de hardware, software, rede ou
configuração. Os profissionais que englobam essa gama de conhecimentos e ao
mesmo tempo sabem fazer uma correta análise de um problema e encontrar a melhor
solução são os que terão uma melhor colocação no mercado e maior prestígio dos
empregadores e clientes.
Videos Relacionados :
Dia 03/07/20.
ResponderExcluirBom dia!!! Lendo esse artigo em que explica todas as transformações de hardware nessas decadas passadas;me fez voltar ao tempo foi bom e muito bom seu trabalho,
aprendemos muito; porem hoje estamos num presente trancafiados em casa por causa de pandemia, quem diria?.Espero que pareça alguem para mudar esse mommento infortunío
Meu nome Luiz. Bom dia.