Definições
Existe uma certa confusão quando se trata de alguns termos como informática, computação, processamento de dados etc. Até mesmo a prova para qual estamos nos preparando, na maioria das vezes, é chamada de Prova de Informática... Será que este termo está correto? Vejamos algumas definições básicas:
Computador é uma máquina com capacidade de armazenar, processar e recuperar adequadamente informações. Computação é uma ciência, relativamente recente, que estuda o computador (Ciências da Computação), desde sua engenharia até sua lógica. Já Informática é a Ciência que estuda a informação. Não está diretamente relacionada com o computador e existe a muito tempo, antes mesmo de serem inventadas estas máquinas. É certo que os computadores vieram a dar grande auxílio a esta ciência e, hoje, não conseguimos pensar em Informática sem computadores...
Mas, o que é informação? Informação é o conjunto lógico de dados. Os dados, por si só, geralmente não nos "dizem" nada... Por exemplo, o conjunto de alturas dos alunos de uma sala pode não ser muito significativo, já a altura média dos alunos desta sala é uma informação. Assim, os dados são processados (processamento de dados), sofrem uma seqüência de cálculos e análises lógicas, para gerar a informação.
Classificação dos Computadores
Existem várias maneiras de se classificar os computadores. Todas elas sem muita aplicação nos dias de hoje. Mas, sem se tratando de concursos públicos, é bom conhecê-las.
Segundo seu porte: Chamamos de porte de um computador a sua capacidade e velocidade de cálculo, de trabalho e não está necessariamente ligado ao tamanho do computador, apesar de, na maioria das vezes, computadores de grande porte são realmente maiores que computadores de pequeno porte. Nesta classificação teríamos em primeiro lugar os supercomputadores, como os de maior capacidade de processamento; raros, até mesmo nos dias de hoje.
Segundo seu uso: Podemos dividir os computadores em corporativos (ou comerciais), industriais (na automatização de fábricas) e os muito conhecidos computadores pessoais (personal computers ou, simplesmente PCs).
Segundo sua finalidade: Científicos e comerciais.
Segundo seu funcionamento: Analógicos e digitais. Computadores analógicos utilizam-se de circuitos e chips analógicos, baseados em oscilações contínuas da corrente elétrica. Hoje em dia não existem mais computadores analógicos. Os computadores digitais trabalham em circuitos onde é possível identificar-se apenas dois estados lógicos distintos.
Histórico
Sendo o computador uma máquina, ele foi "inventado", construído, desenvolvido. Mas para justificar este esforço deve ter havido alguma necessidade básica. O problema principal do homem estava em fazerem cálculos, de maneira rápida e segura. Assim, podemos dizer que o computador nasceu do desenvolvimento das máquinas de calcular.
As máquinas de calcular tiveram uma lenta evolução até a Revolução Industrial. Nesta época tivemos as primeiras Máquinas de Cálculo, que eram mecânicas, com funcionamento baseado em engrenagens de 10 dentes (número de dígitos do sistema decimal).
Vale destacar a participação histórica de Holeritt, que desenvolveu um tabulador de dados, baseado em cartão perfurado, para agilizar as totalizações do senso nos EUA. A idéia foi muito bem aceita e, então, Holeritt fundou a empresa "Tabulation Machine Company" que veio a ser, mais tarde, a IBM.
Das calculadoras puramente mecânicas evoluiu-se para as eletromecânicas. Nasce, em 1939, o Mark I, da união da Marinha dos EUA com pesquisadores de Harvard, para fins de cálculo de tabelas de navegação. Características do Mark I:
É considerado como sendo o primeiro computador o ENIAC. Ele foi apresentado ao mundo em 1946 e nasceu da associação de vários cientistas e o Exercito dos EUA para cálculos balísticos. Características principais: totalmente eletrônico, ocupava 3 salas (
Depois do ENIAC temos o primeiro computador comercial, o EDVAC. Este computador foi feito por uma empresa fundada por um grupo de cientista que trabalharam no desenvolvimento do ENIAC, e era muito parecido com ele. Só venderam um EDVAC e, então, a empresa faliu.
O computador desenvolveu-se conforme eram descobertas novas tecnologias. A primeira geração de computadores funcionava a válvula. A base da segunda geração foi o transistor. Na terceira geração de computadores temos os circuitos integrados (chips). A quarta geração foi caracterizada pela tecnologia VLSI (Very Large Small Integration), onde o chip ficou mais "condensado". Com o uso de novas tecnologias, como a óptica e a óptica-magnética, temos a quinta geração de computadores.
E quanto aos microcomputadores? Eles nasceram da necessidade de processamento pessoal e não empresarial. No começo, os microcomputadores eram vistos com descaso pelas empresas gigantes da computação, como a IBM. No entanto estas máquinas conquistaram grande nicho de vendas e alteraram, rapidamente, todo o panorama mundial. De computador pessoal, o microcomputador invadiu as empresas, começando pelas pequenas e médias, que não podiam comprar um mainframe. Mesmo as grandes empresas começaram a fazer uso de microcomputadores dentro de seus setores, isoladamente. Mas os microcomputadores conquistaram só foram conquistar de vez o setor corporativo depois do desenvolvimento da tecnologia de redes de microcomputadores. Houve mesmo uma tendência, passageira é verdade, chamada de "downsizing", que consistia em trocar um grande e dispendioso mainframe por muitos e muitos micros interligados em redes.
Resumidamente, vejamos algumas fases do desenvolvimento dos microcomputadores:
1975 – Altair 8800. Não pode ser chamado realmente de Computador Pessoal, pois não produzia trabalho... fugindo muito de nossa definição de computador. Mas era uma máquina que trabalhava no mesmo padrão binário dos computadores de grande porte. Fez muito sucesso entre o pessoal especializado e incentivou o aparecimento de outras máquinas.
1976 – Apple I. Este já pode ser considerado como sendo o primeiro microcomputador. Desenvolvido por Steve Jobs, fundador da Apple, na garagem de sua casa. Junto com o Apple II foi um grande sucesso de vendas, chegando mesmo a incomodar a IBM. A Apple resiste até hoje no mercado, produzindo os computadores Macintosh (Power Mac G3 e mais recentemente o iMac).
1981 – IBM-PC. A IBM viu que estava perdendo uma oportunidade de bons negócios negligenciando o microcomputador. Assim ela lança seu IBM-PC, com arquitetura aberta e estabelecendo um padrão no mercado. Hoje, a grande e imensa maioria de microcomputadores são da plataforma IBM-PC, tornando-se até sinônimo de microcomputador para muitos usuários... É esta máquina que precisamos conhecer para efeito de concurso público.
Tabela de Gerações de Computadores
1ª Geração - 1951/1958 | O componente básico era a válvula eletrônica, o que permitiu a redução de dimensões e o aumento de velocidade. |
2ª Geração - 1958/1964 | O componente básico era o transistor, que permitiu reduzir em muito o tamanho dos computadores, assim como o número de avarias. |
3ª Geração - 1964/1974 | O transistor miniaturizou-se e deu origem ao Circuito Integrado, o que permitiu aumentar notoriamente a velocidade, confiabilidade e as dimensões dos equipamentos. |
4ª Geração - 1974/1985 | Atingiu-se um elevado grau de miniaturização de Circuitos Integrados, melhorando todas as características dos computadores |
5ª Geração - após 1985 | Passou a utilizar de novas tecnologias como os raios laser e outras técnicas em feixes eletromagnéticos |
Fundamentos da Lógica de Funcionamento
A base do funcionamento de um computador PC está na chamada eletrônica e lógica digital.
O computador faz, na realidade, cálculos. Operações aritméticas e lógicas com números e textos (chamadas "strings"). Ora, se trabalhamos num sistema de cálculo decimal (com dez algarismos), seria muito lógico imaginarmos que um computador tem de ser capaz de identificar 10 níveis diferentes de energia para codificar cada um dos 10 algarismos... Mas não é isto que acontece. Um computador com esta característica seria muito caro e complexo. Ao contrário, o computador trabalha com o mínimo possível de níveis de energia para a codificação de todas as informações. Este mínimo são os dois estados físicos de energia distintos que os chips trabalham (0 e 5V), a chamada eletrônica digital ou binária. Associados a estes estados físicos distintos temos dois estados lógicos distintos, que convencionamos chamar de 0 e 1. Em computadores fazemos uso da chamada aritmética digital ou binária e da lógica digital, binária ou Booleana.
Temos assim, o conceito de BIT, que é a menor unidade de informação que pode ser representada pelo computador. Ou seja, um bit só pode assumir um dos dois estados lógicos já citados, ou 0, ou 1. Dizemos, também por convenção, que um bit 0 está desligado e um bit 1 está ligado.
Mas como vamos conseguir representar todos os dez algarismos do nosso sistema decimal e ainda letras e outros caracteres com apenas dois estados lógicos de um bit? Simplesmente agrupando-se estes bits. Para representar um algarismo, uma letra, um caractere dentro do computador, vamos utilizar um conjunto de bits, e não apenas um. Quantos? Chegou-se a um número de 8 bits como sendo o suficiente. A este conjunto de 8 bits deu-se o nome de BYTE. O byte é a palavra do computador. É através do byte que o computador se comunica, trabalha, processa, armazena, calcula etc.
Quantos bytes diferentes existem? Quantos conjuntos diferentes posso fazer com 8 bits? Simples, 256 (que é 28). Como cada byte representa um caracter, posso representar 256 caracteres diferentes (o suficiente para representar os 10 algarismos, todas as letras do alfabeto, diferenciando-as em maiúsculas e minúsculas, e ainda alguns caracteres especiais.
Mas para podermos fazer esta representação eu preciso de uma tabela onde eu relaciono cada byte diferente com um caracter e todos os computadores precisam usar a mesma "tabela de conversão" para poderem se entender. Estas tabelas já existem e são chamadas de códigos. De importante para nós temos os códigos EBCDIC (Extend Binary Coded Decimal Interchange Code) e ASCII (American Standart Code for Information Interchange).
O código EBCDIC é um esquema de codificação desenvolvido pela IBM para ser usado em seus computadores como um método de padronização de associação de valores binários e caracteres alfabéticos, numéricos, de pontuação e de controle de transmissão. É análogo ao ASCII, e utiliza os 8 bits para a definição de 256 caracteres. Embora o EBCDIC não seja freqüente na microinformática, ele é bastante conhecido e utilizado em todo o mundo como o padrão da IBM para computadores de grande porte e minicomputadores.
O código ASCII é o conjunto de caracteres do código padrão americano para o intercâmbio de informação, que consiste dos caracteres disponíveis num teclado padrão de 128 caracteres e incluindo códigos de controle não imprimíveis como retorno da cabeça de impressão e quebras de página. São 256 códigos divididos em dois conjuntos: o standard (básico) e o estendido, com 128 códigos cada.
O ASCII Standard (básico) utiliza 7 bits (ou 0 + 7 bits para formar um byte) gerando 128 códigos de caracteres numerados de
O ASCII Estendido utiliza 8 bits para cada código, proporcionando 128 códigos numerados de
Por isso utilizamos com muita freqüência o byte para quantificarmos características do computador, como memória, capacidade de disco etc. Como o byte é a unidade, e, por isso mesmo, muito pequeno, fazemos uso dos múltiplos do byte. Mas lembre-se que estamos no campo da aritmética digital, onde mil vezes um byte são, na realidade, 1.024 bytes (210).
Múltiplos do Byte:
§ Kilobyte - KB - 103 do byte (ou 1024 bytes)
§ Megabyte – MB - 106 do byte (ou 1024 KB)
§ Gigabyte – GB – 109 do byte (ou 1024 MB)
§ Terabyte – TB – 1012 do byte (ou 1024 GB)
§ Petabyte – PB – 1015 do byte (ou 1024 TB)
De maneira análoga podemos também podemos fazer uso dos múltiplos do bit (quilobit, megabit, gigabit, terabit e petabit), unidade mais utilizada em transferência de dados.
Nenhum comentário:
Postar um comentário