- O que a ciência da computação estuda? Formulários
- Conformação de computação
- História
- Noções básicas de ciência da computação
- Gerações
- Primeira geração
- Segunda geração
- Terceira geração
- Quarta geração
- Quinta geração
- Referências
O computador é uma ciência moderna que estuda os métodos, processos e tecnologias para processar, transmitir ou armazenar dados de forma digital. Com o grande avanço da tecnologia a partir da segunda metade do século 20, essa disciplina foi ganhando importância nas atividades produtivas, ao mesmo tempo em que aumentava sua especificidade.
O desenvolvimento de computadores, circuitos fechados, robôs, máquinas, telefones celulares e o surgimento da Internet, fazem da computação uma das ciências mais populares das últimas décadas.
A etimologia da palavra computação tem várias origens possíveis. Ele surgiu principalmente como um acrônimo para as palavras informação e automatique (informação automática).
Em 1957, foi Karl Steinbuch, que incluiu esse termo em um documento chamado Informatik: Automatische Informationsverarbeitung. Em 1962, o engenheiro francês Philippe Dreyfus nomeou sua empresa como Société d'Informatique Appliquée. No entanto, foi o russo Alexander Ivanovich Mikhailov o primeiro a usar essa palavra como "estudo, organização e disseminação de informações científicas".
Entre o seu vasto campo de aplicação, esta ciência dedica-se ao estudo do processamento automático da informação através de dispositivos eletrónicos e sistemas informáticos, que podem ser utilizados para diversos fins.
O que a ciência da computação estuda? Formulários
O campo de aplicação da computação ampliou seu espectro com o desenvolvimento tecnológico na última metade do século, principalmente devido ao impulso dos computadores e da Internet.
Suas principais tarefas incluem o projeto, desenvolvimento, planejamento de circuito fechado, preparação de documentos, monitoramento e controle de processo.
É também responsável pela criação de robôs industriais, bem como por tarefas relacionadas com o vasto campo das telecomunicações e a criação de jogos, aplicações e ferramentas para dispositivos móveis.
Conformação de computação
A informática é uma ciência na qual convergem conhecimentos e conhecimentos de várias disciplinas, começando pela matemática e física, mas também pela computação, programação e design, entre outros.
Esta união sinérgica entre diferentes ramos do conhecimento é complementada na informática com as noções de hardware, software, telecomunicações, internet e eletrónica.
História
Primeiro computador.
A história da computação começou muito antes da disciplina que leva seu nome. Acompanhou a humanidade quase desde as suas origens, embora sem ser reconhecida como ciência.
Desde a criação do ábaco chinês, registrado em 3000 aC e considerado o primeiro dispositivo de cálculo da humanidade, pode-se falar em computação.
Essa tabela, dividida em colunas, permitia por meio dos movimentos de suas unidades realizar operações matemáticas como adição e subtração. Poderia ser o ponto de partida desta ciência.
Mas a evolução da computação apenas começou com o ábaco. No século 17, Blaise Pascal, um dos mais renomados cientistas franceses de sua época, criou a máquina de calcular e deu mais um passo evolutivo.
Este dispositivo foi usado apenas para adições e subtrações, mas foi a base para o alemão Leibniz, quase 100 anos depois, no século 18, desenvolver um aparelho semelhante, mas com multiplicações e divisões.
Essas três criações foram os primeiros processos informatizados a serem registrados. Demorou quase 200 anos para esta disciplina ganhar relevância e se tornar uma ciência.
Nas primeiras décadas do século 20, o desenvolvimento da eletrônica foi o impulso final para a computação moderna. A partir daí, esse ramo da ciência passa a resolver problemas técnicos decorrentes das novas tecnologias.
Nessa época, houve uma mudança dos sistemas baseados em engrenagens e hastes para os novos processos de impulsos elétricos, classificados por 1 quando a corrente passa e por 0 quando não passa, o que revolucionou esta disciplina.
O passo final foi dado durante a Segunda Guerra Mundial com a fabricação do primeiro computador, o Mark I, que abriu um novo campo de desenvolvimento ainda em expansão.
Noções básicas de ciência da computação
A informática, entendida como o processamento automático da informação por meio de dispositivos eletrônicos e sistemas computacionais, deve ter algumas capacidades para poder se desenvolver.
Três operações centrais são essenciais: a entrada, que se refere à captura de informações; o processamento da mesma informação e da saída, que é a possibilidade de transmissão dos resultados.
O conjunto dessas capacidades de dispositivos eletrônicos e sistemas de computador é conhecido como um algoritmo, que é o conjunto ordenado de operações sistemáticas para realizar um cálculo e encontrar uma solução.
Por meio desses processos, a computação desenvolveu vários tipos de dispositivos que passaram a facilitar as tarefas da humanidade em todos os tipos de atividades.
Embora sua área de aplicação não tenha limites rígidos, é principalmente utilizado em processos industriais, gestão empresarial, armazenamento de informações, controle de processos, comunicações, transporte, medicina e educação.
Gerações
Dentro da computação e da computação, pode-se falar de cinco gerações de processadores que marcaram a história moderna desde seu surgimento em 1940 até o presente.
Primeira geração
A primeira geração teve seu desenvolvimento entre 1940 e 1952, quando os computadores foram construídos e operados com válvulas. Sua evolução e utilidade se deram fundamentalmente no campo científico-militar.
Esses dispositivos possuíam circuitos mecânicos, cujos valores foram modificados para poderem ser programados de acordo com as finalidades necessárias.
Segunda geração
A segunda geração foi desenvolvida entre 1952 e 1964, com o surgimento de transistores que substituíram as velhas válvulas. Assim surgiram os aparelhos comerciais, que possuíam uma programação prévia.
Outro fato central dessa etapa é o surgimento dos primeiros códigos e linguagens de programação, Cobol e Fortran. Anos depois, novos surgiram.
Terceira geração
A terceira geração teve um período de desenvolvimento ligeiramente mais curto do que seus antecessores, durou entre 1964 e 1971, quando surgiram os circuitos integrados.
A redução dos custos de produção dos aparelhos, o aumento da capacidade de armazenamento e a redução do tamanho físico marcaram essa etapa.
Além disso, graças ao desenvolvimento de linguagens de programação, que ganharam especificidade e habilidades, os primeiros programas utilitários começaram a florescer.
Quarta geração
A quarta geração foi produzida a partir de 1971 e durou uma década, até 1981, tendo os componentes eletrônicos como os principais protagonistas da evolução.
Assim começaram a aparecer no mundo dos computadores os primeiros microprocessadores, que incluíam todos os elementos básicos dos antigos computadores em um único circuito integrado.
Quinta geração
Finalmente, a quinta geração começou em 1981 e continua até o presente, na qual a tecnologia permeia todos os aspectos das sociedades modernas.
O principal desenvolvimento desta fase evolutiva da computação foram os computadores pessoais (PCs), que mais tarde deram origem a um vasto grupo de tecnologias associadas que hoje dominam o mundo.
Referências
- Informática, informação e comunicação , Documentação Social: Jornal de Estudos Sociais e Tecnologia Aplicada ', 1999.
- Processamento de Informação (Automático), Diego Dikygs, Site digital Noções de Informática, 2011.
- História da Computação, Patricio Villalva.
- Revista Revista Horizonte Inform á tica Educativa, Buenos Aires, 1999.