segunda-feira, 30 de novembro de 2009

Economia Digital Na Alavanca

Economia digital na Alavanca

Estudo encomendado pela Telefônica aponta crescimento da região três vezes maior do que o de países ricos

A economia digital nos países latino-americanos cresce três vezes mais do que em países mais ricos, como Estados Unidos, Europa e asiáticos. A informação foi retirada do relatório DIGIWORLD América Latina 2007, realizado na Espanha a pedido da Telefônica.

O estudo especula sobre a redução da distância entre América Latina e países ricos em relação à adoção de tecnologias de comunicação. Os números indicam que, entre 2003 e 2005, a taxa de crescimento média na América Latina foi de 14%, enquanto Estados Unidos e Europa cresceram 5% e países da Ásia e Pacífico, como Japão e Coréia do Sul cerca de 6%.

O estudo define como economia digital os setores que se baseiam em tecnologias digitais, como telecomunicações, tecnologia da informação, bens eletrônicos e serviços audiovisuais.

Fonte
ECONOMIA digital na AL avança. Disponível em: . Acesso em: 18 mar. 2008.

quarta-feira, 18 de novembro de 2009

Meus Serviços

* Formatação com inclusão do S.O -R$ 40,00
* Formatação com inclusão do S.O com BR Office, antivírus Avast e leitor de PDF – R$ 60,00
* Instalação de drives (hardware) – R$ 20,00 cada
* Clipagem de RJ 45 – R$ 2,50 cada
* Configuração e instalação de impressora via USB – R$ 8,00
* Configuração e instalação de impressora via rede – R$ 16,00
* Roteamento de modem – R$ 20,00
* E outros serviços e solicitações

Contato:

tiagoblackusmoon@hotmail.com ou tiagoblackusmoon@gmail.com
Telefone: (71) 8651-3919 e fax: (71)3256-7011

segunda-feira, 16 de novembro de 2009

informática basica

Definições

Existe uma certa confusão quando se trata de alguns termos como informática, computação, processamento de dados etc. Até mesmo a prova para qual estamos nos preparando, na maioria das vezes, é chamada de Prova de Informática... Será que este termo está correto? Vejamos algumas definições básicas:

Computador é uma máquina com capacidade de armazenar, processar e recuperar adequadamente informações. Computação é uma ciência, relativamente recente, que estuda o computador (Ciências da Computação), desde sua engenharia até sua lógica. Já Informática é a Ciência que estuda a informação. Não está diretamente relacionada com o computador e existe a muito tempo, antes mesmo de serem inventadas estas máquinas. É certo que os computadores vieram a dar grande auxílio a esta ciência e, hoje, não conseguimos pensar em Informática sem computadores...

Mas, o que é informação? Informação é o conjunto lógico de dados. Os dados, por si só, geralmente não nos "dizem" nada... Por exemplo, o conjunto de alturas dos alunos de uma sala pode não ser muito significativo, já a altura média dos alunos desta sala é uma informação. Assim, os dados são processados (processamento de dados), sofrem uma seqüência de cálculos e análises lógicas, para gerar a informação.

Classificação dos Computadores

Existem várias maneiras de se classificar os computadores. Todas elas sem muita aplicação nos dias de hoje. Mas, sem se tratando de concursos públicos, é bom conhecê-las.

Segundo seu porte: Chamamos de porte de um computador a sua capacidade e velocidade de cálculo, de trabalho e não está necessariamente ligado ao tamanho do computador, apesar de, na maioria das vezes, computadores de grande porte são realmente maiores que computadores de pequeno porte. Nesta classificação teríamos em primeiro lugar os supercomputadores, como os de maior capacidade de processamento; raros, até mesmo nos dias de hoje. Em São Paulo contamos com o supercomputador da USP (o "patinho feio"). Outra categoria seriam os mainframes, computadores de grande porte, muito caro, de uso corporativo. Depois temos os minicomputadores, com poder de processamento menor, mas ainda restrito a uso corporativo. Esta categoria está quase extinta hoje. Finalmente temos os famosos microcomputadores, que têm o menor poder de processamento.

Segundo seu uso: Podemos dividir os computadores em corporativos (ou comerciais), industriais (na automatização de fábricas) e os muito conhecidos computadores pessoais (personal computers ou, simplesmente PCs).

Segundo sua finalidade: Científicos e comerciais.

Segundo seu funcionamento: Analógicos e digitais. Computadores analógicos utilizam-se de circuitos e chips analógicos, baseados em oscilações contínuas da corrente elétrica. Hoje em dia não existem mais computadores analógicos. Os computadores digitais trabalham em circuitos onde é possível identificar-se apenas dois estados lógicos distintos.

Histórico

Sendo o computador uma máquina, ele foi "inventado", construído, desenvolvido. Mas para justificar este esforço deve ter havido alguma necessidade básica. O problema principal do homem estava em fazerem cálculos, de maneira rápida e segura. Assim, podemos dizer que o computador nasceu do desenvolvimento das máquinas de calcular.

As máquinas de calcular tiveram uma lenta evolução até a Revolução Industrial. Nesta época tivemos as primeiras Máquinas de Cálculo, que eram mecânicas, com funcionamento baseado em engrenagens de 10 dentes (número de dígitos do sistema decimal).

Vale destacar a participação histórica de Holeritt, que desenvolveu um tabulador de dados, baseado em cartão perfurado, para agilizar as totalizações do senso nos EUA. A idéia foi muito bem aceita e, então, Holeritt fundou a empresa "Tabulation Machine Company" que veio a ser, mais tarde, a IBM.

Das calculadoras puramente mecânicas evoluiu-se para as eletromecânicas. Nasce, em 1939, o Mark I, da união da Marinha dos EUA com pesquisadores de Harvard, para fins de cálculo de tabelas de navegação. Características do Mark I: 17 metros de comprimento, 2,5 metros de altura, peso de 5 toneladas, 3000 engrenagens com 10 dentes, 1400 comutadores e 800 Km de fios. Esta máquina fazia muito barulho, era lenta, demorando em média 5 segundos para realizar um cálculo. No entanto era totalmente automática. Note que o Mark I, apesar de ser importante historicamente, não é considerado um computador, e sim uma máquina de calcular...

É considerado como sendo o primeiro computador o ENIAC. Ele foi apresentado ao mundo em 1946 e nasceu da associação de vários cientistas e o Exercito dos EUA para cálculos balísticos. Características principais: totalmente eletrônico, ocupava 3 salas (72 metros quadrados), peso de 30 toneladas, era composto de 50.000 resistores, 1.500 relês, 10.000 condensadores, 6.000 comutadores. Funcionava a base de válvulas (18.000) e, por isto mesmo, esquentava muito, gerando muitos problemas. Não era raro ter que trocar alguma válvula queimada. Aliás, em média, o ENIAC apresentava uma avaria a cada 6 horas...

Depois do ENIAC temos o primeiro computador comercial, o EDVAC. Este computador foi feito por uma empresa fundada por um grupo de cientista que trabalharam no desenvolvimento do ENIAC, e era muito parecido com ele. Só venderam um EDVAC e, então, a empresa faliu.

O computador desenvolveu-se conforme eram descobertas novas tecnologias. A primeira geração de computadores funcionava a válvula. A base da segunda geração foi o transistor. Na terceira geração de computadores temos os circuitos integrados (chips). A quarta geração foi caracterizada pela tecnologia VLSI (Very Large Small Integration), onde o chip ficou mais "condensado". Com o uso de novas tecnologias, como a óptica e a óptica-magnética, temos a quinta geração de computadores.

E quanto aos microcomputadores? Eles nasceram da necessidade de processamento pessoal e não empresarial. No começo, os microcomputadores eram vistos com descaso pelas empresas gigantes da computação, como a IBM. No entanto estas máquinas conquistaram grande nicho de vendas e alteraram, rapidamente, todo o panorama mundial. De computador pessoal, o microcomputador invadiu as empresas, começando pelas pequenas e médias, que não podiam comprar um mainframe. Mesmo as grandes empresas começaram a fazer uso de microcomputadores dentro de seus setores, isoladamente. Mas os microcomputadores conquistaram só foram conquistar de vez o setor corporativo depois do desenvolvimento da tecnologia de redes de microcomputadores. Houve mesmo uma tendência, passageira é verdade, chamada de "downsizing", que consistia em trocar um grande e dispendioso mainframe por muitos e muitos micros interligados em redes.

Resumidamente, vejamos algumas fases do desenvolvimento dos microcomputadores:

1975 – Altair 8800. Não pode ser chamado realmente de Computador Pessoal, pois não produzia trabalho... fugindo muito de nossa definição de computador. Mas era uma máquina que trabalhava no mesmo padrão binário dos computadores de grande porte. Fez muito sucesso entre o pessoal especializado e incentivou o aparecimento de outras máquinas.

1976 – Apple I. Este já pode ser considerado como sendo o primeiro microcomputador. Desenvolvido por Steve Jobs, fundador da Apple, na garagem de sua casa. Junto com o Apple II foi um grande sucesso de vendas, chegando mesmo a incomodar a IBM. A Apple resiste até hoje no mercado, produzindo os computadores Macintosh (Power Mac G3 e mais recentemente o iMac).

1981 – IBM-PC. A IBM viu que estava perdendo uma oportunidade de bons negócios negligenciando o microcomputador. Assim ela lança seu IBM-PC, com arquitetura aberta e estabelecendo um padrão no mercado. Hoje, a grande e imensa maioria de microcomputadores são da plataforma IBM-PC, tornando-se até sinônimo de microcomputador para muitos usuários... É esta máquina que precisamos conhecer para efeito de concurso público.

Tabela de Gerações de Computadores

1ª Geração - 1951/1958

O componente básico era a válvula eletrônica, o que permitiu a redução de dimensões e o aumento de velocidade.

2ª Geração - 1958/1964

O componente básico era o transistor, que permitiu reduzir em muito o tamanho dos computadores, assim como o número de avarias.

3ª Geração - 1964/1974

O transistor miniaturizou-se e deu origem ao Circuito Integrado, o que permitiu aumentar notoriamente a velocidade, confiabilidade e as dimensões dos equipamentos.

4ª Geração - 1974/1985

Atingiu-se um elevado grau de miniaturização de Circuitos Integrados, melhorando todas as características dos computadores

5ª Geração - após 1985

Passou a utilizar de novas tecnologias como os raios laser e outras técnicas em feixes eletromagnéticos

Fundamentos da Lógica de Funcionamento

A base do funcionamento de um computador PC está na chamada eletrônica e lógica digital.

O computador faz, na realidade, cálculos. Operações aritméticas e lógicas com números e textos (chamadas "strings"). Ora, se trabalhamos num sistema de cálculo decimal (com dez algarismos), seria muito lógico imaginarmos que um computador tem de ser capaz de identificar 10 níveis diferentes de energia para codificar cada um dos 10 algarismos... Mas não é isto que acontece. Um computador com esta característica seria muito caro e complexo. Ao contrário, o computador trabalha com o mínimo possível de níveis de energia para a codificação de todas as informações. Este mínimo são os dois estados físicos de energia distintos que os chips trabalham (0 e 5V), a chamada eletrônica digital ou binária. Associados a estes estados físicos distintos temos dois estados lógicos distintos, que convencionamos chamar de 0 e 1. Em computadores fazemos uso da chamada aritmética digital ou binária e da lógica digital, binária ou Booleana.

Temos assim, o conceito de BIT, que é a menor unidade de informação que pode ser representada pelo computador. Ou seja, um bit só pode assumir um dos dois estados lógicos já citados, ou 0, ou 1. Dizemos, também por convenção, que um bit 0 está desligado e um bit 1 está ligado.

Mas como vamos conseguir representar todos os dez algarismos do nosso sistema decimal e ainda letras e outros caracteres com apenas dois estados lógicos de um bit? Simplesmente agrupando-se estes bits. Para representar um algarismo, uma letra, um caractere dentro do computador, vamos utilizar um conjunto de bits, e não apenas um. Quantos? Chegou-se a um número de 8 bits como sendo o suficiente. A este conjunto de 8 bits deu-se o nome de BYTE. O byte é a palavra do computador. É através do byte que o computador se comunica, trabalha, processa, armazena, calcula etc.

Quantos bytes diferentes existem? Quantos conjuntos diferentes posso fazer com 8 bits? Simples, 256 (que é 28). Como cada byte representa um caracter, posso representar 256 caracteres diferentes (o suficiente para representar os 10 algarismos, todas as letras do alfabeto, diferenciando-as em maiúsculas e minúsculas, e ainda alguns caracteres especiais.

Mas para podermos fazer esta representação eu preciso de uma tabela onde eu relaciono cada byte diferente com um caracter e todos os computadores precisam usar a mesma "tabela de conversão" para poderem se entender. Estas tabelas já existem e são chamadas de códigos. De importante para nós temos os códigos EBCDIC (Extend Binary Coded Decimal Interchange Code) e ASCII (American Standart Code for Information Interchange).

O código EBCDIC é um esquema de codificação desenvolvido pela IBM para ser usado em seus computadores como um método de padronização de associação de valores binários e caracteres alfabéticos, numéricos, de pontuação e de controle de transmissão. É análogo ao ASCII, e utiliza os 8 bits para a definição de 256 caracteres. Embora o EBCDIC não seja freqüente na microinformática, ele é bastante conhecido e utilizado em todo o mundo como o padrão da IBM para computadores de grande porte e minicomputadores.

O código ASCII é o conjunto de caracteres do código padrão americano para o intercâmbio de informação, que consiste dos caracteres disponíveis num teclado padrão de 128 caracteres e incluindo códigos de controle não imprimíveis como retorno da cabeça de impressão e quebras de página. São 256 códigos divididos em dois conjuntos: o standard (básico) e o estendido, com 128 códigos cada.

O ASCII Standard (básico) utiliza 7 bits (ou 0 + 7 bits para formar um byte) gerando 128 códigos de caracteres numerados de 0 a 127. Os 32 primeiros valores ficam reservados para códigos de controle de comunicação e da impressora. Os 96 códigos restantes estão associados aos sinais de pontuação convencionais, aos dígitos 0 a 9, e às letras maiúsculas e minúsculas do alfabeto romano.

O ASCII Estendido utiliza 8 bits para cada código, proporcionando 128 códigos numerados de 128 a 255. Ficam associados a conjuntos de caracteres que podem variar conforme o fabricante do computador e a software house. Portanto, enquanto o conjunto de caracteres ASCII standard é um padrão universal para os equipamentos e programas, os caracteres estendidos só poderão ser interpretados corretamente por programas projetados especialmente para fazê-lo.

Por isso utilizamos com muita freqüência o byte para quantificarmos características do computador, como memória, capacidade de disco etc. Como o byte é a unidade, e, por isso mesmo, muito pequeno, fazemos uso dos múltiplos do byte. Mas lembre-se que estamos no campo da aritmética digital, onde mil vezes um byte são, na realidade, 1.024 bytes (210).


Múltiplos do Byte:

§ Kilobyte - KB - 103 do byte (ou 1024 bytes)

§ Megabyte – MB - 106 do byte (ou 1024 KB)

§ Gigabyte – GB – 109 do byte (ou 1024 MB)

§ Terabyte – TB – 1012 do byte (ou 1024 GB)

§ Petabyte – PB – 1015 do byte (ou 1024 TB)

De maneira análoga podemos também podemos fazer uso dos múltiplos do bit (quilobit, megabit, gigabit, terabit e petabit), unidade mais utilizada em transferência de dados.