domingo, 7 de novembro de 2010

Licença Linux

Uma das principais e mais importantes características do Linux é ele ser um software livre e gratuito (Open Source – ou em português – Código Aberto). Isto significa que você não precisa pagar para usá-lo, além de ter a possibilidade de não depender de nenhuma empresa que controle o sistema operacional. O código-fonte do núcleo do sistema (kernel) está liberado sob a licençaGPL e pode ser obtido na Internet por qualquer pessoa, pode também ter seu código alterado e re-distribuído, modificando ao seu gosto e suas necessidades, caso preciso. 

A licença GPL permite que o autor distribua livremente o seu código, oferecendo assim 4 liberdades:
1.  A liberdade de executar o programa, para qualquer propósito;
2.  A liberdade de estudar como o programa funciona e adaptá-lo para as suas necessidades;
3.  A liberdade de redistribuir cópias de modo que você possa ajudar ao seu próximo;
4.  A liberdade de aperfeiçoar o programa, e liberar os seus aperfeiçoamentos, de modo que toda a comunidade se beneficie deles.
Em outras palavras, todos podem utilizar modificar e redistribuir o software (e inclusive as modificações), contanto que tudo isto seja feito respeitando e mantendo a mesma licença GPL. Isso permite que o software nunca seja fechado, assim pessoas mal-intencionadas não podem fazer uso desleal do código.

Diferenças entre Unix e Linux


- Linux é gratuito, enquanto o Unix é bastante caro.

- Linux é executado em muitas plataformas de hardware, os computadores pessoais Intel-x86/IBM-spec mercadoria a ser o mais proeminente. Em contraste, um sistema UNIX típico é proprietária de hardware-ligado (e este hardware tende a ser muito mais caro do que um clone de PC típico).

- Com o Linux, você está no comando do seu computador, enquanto no Linux você normalmente é confinados a um "l usuário" (alguns administradores de pronunciá-lo "perdedor").

- Linux parece muito com DOS / Win no 80s/90s tarde, mas é muito mais resistente e mais rico, enquanto uma conta UNIX típico se sente como um mainframe da 60s/70s.

- O Unix pode ser mais “maduro” em certas áreas (por exemplo: segurança, algumas aplicações de engenharia, um melhor suporte de hardware de ponta). Linux é mais para o médio Joe que quer executar seu próprio servidor ou estação de trabalho de engenharia.

- Origem: UNIX originada nos laboratórios de universidades e grandes corporações, como uma iniciativa no âmbito dessas organizações. Linux foi iniciado por um estudante universitário (Linus Torvalds), sem qualquer apoio inicial de qualquer grande organização. Linux também começou como no mimickry de outras bem conhecidas implementações UNIX-like, ao passo que as implementações iniciais foram UNIX pesquisa original. A maioria das versões UNIX comerciais também são derivados de que a investigação inicial.

- Modelo de Serviço: A maioria das versões do UNIX funcionam com base em que você pode comprar ajuda (e contratos de serviços de apoio). Embora tais coisas estão cada vez mais disponíveis para tecnólogos Linux, arranjos tradicionais consistem na concessão de sua ajuda própria, com o apoio de uma comunidade de povos like-minded. Linux é grande, eo acesso às comunidades é mais importante do que, digamos, é para mainframes IBM.

- Equipamento: Embora o Linux rode em vários tipos de equipamentos, é mais conhecido por seu apoio de IBM-PC Intel baseado em hardware commodity. A maioria dos mais populares sabores UNIX foco na alta-PE.

Distribuições Linux

O Linux trilhou um longo caminho desde que Linus Torvalds liberou em 1991 o código fonte do kernel que havia desenvolvido.

Hoje, o Linux é um kernel para sistema operacional bastante conhecido, e as distribuições que trazem o Linux como núcleo são o padrão em servidores, além de estarem cada vez mais presentes nos lares e escritórios.

Lançado sob uma licença própria, que restringia seu uso comercial, ele logo foi relançado em 1992 sob a GPL. Isso abriu caminho para que os desenvolvedores do Linux e do GNU trabalhassem juntos em um sistema operacional completo baseado no kernel Linux, já que o kernel sozinho não faz nada.

Em fevereiro de 1992 foi lançada a primeira distribuição Linux, o MCC Interim Linux. Logo depois, a versão 0.95 do Linux tornou-se capaz de trabalhar com o X Window System, adquirindo o recurso de janelas gráficas, essencial para alcançar o sucesso no mercado de sistemas operacionais. Em seguida veio a distribuição SLS (Softlanding Linux System), e ainda que não tenha durado muito, ela levou ao desenvolvimento do Slackware Linux, do qual algumas das distribuições mais populares de hoje se originaram. Em 1993, Ian Murdoch lançou o Debian Linux, e no ano seguinte vieram o Red Hat Linux e o SuSE Linux (o nome era escrito assim).

A essa altura, as distribuições Linux já haviam alcançado capacidades plenas de sistema operacional, com sistemas gráficos, ferramentas de rede e suporte a múltiplas arquiteturas. As quatro grandes distros (SuSE, Red Hat, Debian e Slackware) se tornariam a base da maioria das distribuições Linux que viriam depois. O Linux se saiu com uma acrobacia publicitária em 1996 quando foi apresentado Tux, o pingüim rechonchudo que passamos a associar carinhosamente ao Linux.

1998 marcou o lançamento do Kool Desktop Environment (KDE), e pela primeira vez uma distro Linux era capaz de abrigar propriedades de uma interface gráfica de usuário. Antes disso, todo o trabalho no Linux era feito pela linha de comando. Essa talvez tenha sido a primeira vez em que o Linux foi capaz de ser usado em desktops e por usuários domésticos. Lembre-se de que nessa época o Microsoft Windows já estava na versão 98, e que tinha uma interface gráfica poderosa, tão completa que a linha de comando havia se tornado quase redundante. Enquanto isso, no lado das distribuições, outro projeto popular chegava em 1998, o Mandrake Linux. Após algumas fusões e trocas de nome, ele mais tarde seria conhecido como Mandriva Linux.

A primeira versão do projeto GNOME veio em 1999. Em contraste com a abrangência e as muitas opções de configuração do KDE, o GNOME focava-se no poder pela simplicidade. De muitas maneiras, esse tipo de coisa deu ao Linux uma vantagem sobre os outros sistemas operacionais proprietários: agora os usuários podiam escolher a interface gráfica, e de graça, ainda por cima. Embora nesse momento o nível de complexidade do KDE e do GNOME nem se comparasse ao que a Microsoft havia desenvolvido, esse era o humilde começo que levaria aos desktops brilhantes com os quais nos acostumamos nas distribuições Linux modernas.

O OpenOffice.org foi lançado no fim de 2002, bem como o primeiro codec livre de som, o Ogg Vorbis. As distribuições Linux começavam a se comparar ao Windows, recurso por recurso. 2003 foi o ano em que a Red Hat anunciou o derivado de seu sistema Linux, o então intitulado 'Fedora Core'. Ele foi muito criticado e acusado de ser um laboratório para o produto comercial da Red Hat, o Red Hat Enterprise Linux. Finalmente, em 2004, surgia a distribuição que conquistaria o maior número de usuários no desktop graças à sua facilidade de uso, o Ubuntu.

As distribuições Linux já estavam se tornando comuns, e não eram mais usadas apenas por profissionais especializados. Desktops Linux tornavam-se cada vez mais sofisticados, e devido à natureza do Linux, quanto mais pessoas o usavam, mais rápido era seu desenvolvimento. Em novembro de 2006, a Novell assinava um 'acordo' com a Microsoft, no qual se protegia contra processos relativos a 'possíveis infrações de patentes'. A comunidade Linux não aceitou o acordo muito bem - a maioria o interpretou como um reconhecimento das afirmações de longa data que a Microsoft fazia quanto às infrações de patentes. Isso fez com que a distribuição SUSE da Novell fosse deixada meio de lado por algum tempo pela comunidade. A popularidade do openSUSE também seria atingida.

História do Linux

Em 1991, com relação aos sistemas operacionais, você tinha poucas escolhas. O DOS exercia sua soberania absoluta com relação aos computadores pessoais, até por uma questão de falta de escolha. Por mais que os Macs existissem seus preços eram astronômicos, fato que tornava quase impossível a aquisição de um deles para um usuário final.

Além deles, havia o Unix que certamente era ainda mais caro do que um Mac e adotado quase exclusivamente por grandes empresas. Nessa altura, o código do Unix, que uma vez foi utilizado como material de estudo em universidades, já se encontrava proprietário e não mais para conhecimento público.

Esse clima, um professor holandês chamado Andrew S. Tanenbaum criou um sistema operacional baseado no Unix, o Minix. Montado para funcionar com a linha de processadores Intel 8086. Como primariamente, o Minix tinha objetivos acadêmicos (o ensino do funcionamento de um SO em universidades), ele estava longe de resolver todos os problemas de um usuário final, porém seu código-fonte era disponibilizado por Tanenbaum.
.
Nesse ponto da história, um estudante chamado Linus Torvalds, estava frustrado com as carências do Minix começou a idealizar como seria bom ter um SO que, além de gratuito, pudesse efetuar tarefas como emulação de terminal e transferência e armazenamento de arquivos. Então, em 25 de agosto de 1991, Linus anunciou por meio de um email na Usenet (a Unix User Network) que estava desenvolvendo um sistema operacional.

O famoso email relata que ele estava criando um sistema operacional desde abril do mesmo ano, porém que não intencionava torná-lo uma coisa realmente grande e profissional como o GNU (SO de código aberto baseado no Unix), sendo mais um hobby. Ele pedia sugestões e críticas porém dizia que talvez sequer chegasse a implementá-lo de fato.
Linus pretendia chamar sua criação de “Freax”, porém trocou para Linux ao aceitar esta sugestão de um de seus amigos.

Na mesma época (1991), estudantes do mundo todo que se interessava por informática, e compartilhavam os ideais de que os programas deveriam ser livres para o uso e melhoria por todos, foram inspirados por Richard Stallman e seu projeto GNU (acrônimo recursivo para GNU is not Unix). O projeto de Stallman, em poucas palavras, era um movimento que visava a fornecer software livre com qualidade.

Ainda neste ano, o projeto GNU havia criado uma série de ferramentas úteis para programadores e estudantes, porém seu sistema operacional propriamente dito ainda precisava de um kernel. Este núcleo, batizado de GNU HURD ainda estava em fase de criação e seu lançamento previsto para alguns anos.

Foi então que Linus libertou a primeira versão de seu sistema, o Linux versão 0.01 em setembro de 1991. Ao contrário do que muitos devem estar pensando, Linus recebeu críticas pesadas de grandes nomes da computação na época, como Tanenbaum, que inclusive citou que se Linus fosse seu aluno não receberia uma boa nota por aquele sistema tão mal arquitetado.

Entretanto, Linus continuou seu trabalho e agora contava com um grande número de colaboradores interessados para auxiliá-lo. Em um próximo passo e utilizando uma ampla gama das ferramentas do GNU (inclusive o próprio sistema de Stallman), o Linux iniciou sua ascensão, licenciado pela GPL (GNU Public License), para garantir que continuasse livre para cópia, estudo e alteração.

Com isso, não demorou para que algumas empresas como Red Hat e Caldera compilassem versões do programa (com fins comerciais) e fizessem alterações para deixá-lo mais parecido com o que os usuários estavam acostumados. Entretanto, programadores voluntários mantiveram distribuições gratuitas, como a famosa Debian.

Então, já contando com uma interface gráfica e uma série de melhorias ocorrendo em paralelo, às distribuições do Linux começaram a tornar-se cada vez mais populares entre os usuários.

História do Unix


           Nos anos 40 e 50, existia um problema da maneira que os computadores eram utilizados, ou seja, era preciso o usuário enviar ao centro de processamento de dados um job em cartões perfurados, para que estes fossem processados. Após uma série de submissões o usuário podia buscar listagem contendo os resultados do seu programa.

Para tentar solucionar tal impasse, o sistema de compartilhamento de tempo foi inventado no Darmouth College e no M.I.T. Em pouco tempo, os pesquisadores do M.I.T. se juntaram ao da General Electric e os do Bell Labse desenvolveram um sistema de segunda geração, o Multics (Multiplexed Information and Computing Service). Este sistema não teve muito sucesso, um dos motivos foi o fato de ele ter sido escrito em PL/I, uma linguagem muito pesada, com compilador muito ineficiente.

Com esse fracasso, em 1970, a equipe do Bell Labs fez com que um de seus pesquisadores, Ken Thompson, começasse a reescrever o Multics, em linguagem de máquina e com muito menos ambição, usando um PDP-7. A denominação veio a partir de outro pesquisador, Brian Kernighan, chamando o sistema de Unics. Mais tarde esse sistema foi rebatizando para Unix.

Durante o ano de 1975, quando estava trabalhando como professor e assistente na Universidade da Califórnia, em Berkeley, Ken Thompson continuou a desenvolver o sistema UNIX desenhado no Bell Lab. Este desenvolvimento foi tomado pelos outros professores e alunos, que desenvolveram uma série de melhorias no sistema originalmente desenhado. Estas melhorias originaram um sistema operacional com algumas diferenças em relação ao sistema UNIX do Bell Lab. e passou a ser conhecido como o "UNIX de Berkeley". Algumas empresas começaram a comercializar esta versão do sistema operacional, sendo a mais conhecida a versão chamada SUN-OS da SUN Microsystems.

Em 1979, a AT&T resolveu lançar comercialmente o UNIX. Esta versão ficou sendo conhecida como "Versão 7". Após algum tempo, em 1982, alguns problemas da versão 7 foram corrigidos e foi lançada a versão chamada de "System III" (Sistema Três).

A partir deste ponto, houve uma evolução paralela de dois "tipos" de UNIX. Uma comercializada pela AT&T e outra proveniente da Universidade da Califórnia.

Até 1983, o uso do UNIX estava principalmente voltado para aplicações científicas, sendo o sistema mais utilizado no meio acadêmico. Neste ano, a AT&T resolveu agregar uma série de características e facilidades, visando assim, o usuário comercial. Este procedimento sempre encontrou barreiras, pois o usuário comercial achava que o UNIX era por demais científico e nada user friendly, sendo só usado por programadores e cientistas. A versão comercial ficou sendo conhecida como "System V" (Sistema Cinco).

A partir de 1989 foram formados pelas maiores empresas na área de computação dois grandes consórcios, visando uma unificação e padronização de todos os sistemas UNIX existente no mercado. Esta padronização é necessária para que se tenha uma portabilidade de todas as aplicações desenvolvidas para UNIX, dando assim uma força maior de penetração do UNIX no mercado comercial.

Até hoje existem diferenças de implementação em alguns comandos, apesar de a maioria dos sistemas UNIX comercializados possuírem ambas as versões. Existem diretórios específicos onde os comandos diferentes são guardados, bastando ajustar o sistema para que ele use os comandos necessários.

segunda-feira, 18 de outubro de 2010

Redes Wireless – Sem Fios, Mas Cheias de Comodidades

Antigamente, montar uma rede wireless era trabalhoso, caro e demandava grandes esforços de configuração. Hoje, com os produtos disponíveis no mercado e com o avanço espantoso da tecnologia, a implantação de uma rede wireless é uma operação tão simples que pode ser feita até por pessoas com pouquíssimos conhecimentos de informática.
A tecnologia na área de redes wireless avançou tanto, que as custosas placas foram substituídas por roteadores baratos e simples “antenas” que podem ser plugadas nas portas usb do computador. Com sistemas de configuração automática e bem simples, os sistemas operacionais de hoje permitem que apenas com alguns cliques o usuário comum configure perfeitamente e com segurança sua rede wireless. Com uma rede wireless configurada em sua casa, o usuário pode utilizar seus computadores, laptops e demais equipamentos de hardware móveis com total liberdade e segurança em qualquer cômodo da residência. Os ganhos em conforto e em bem estar do usuário são enormes. Da mesma forma, o uso de uma rede wireless em estabelecimentos comerciar e escritórios, permite a mesma liberdade fantástica aos usuários locais e também a possibilidade de estabelecer-se um grande diferencial na captação de clientes.
Oferecer um acesso wireless a uma clientela numa lanchonete, num restaurante, numa livraria e em diversos tipos de estabelecimento comercial, proporcionará uma atratividade a mais para um cliente de bom poder aquisitivo e que permanecerá por mais tempo dentro do seu estabelecimento comercial. Desta forma, aumenta a probabilidade de que esse cliente gaste mais e consuma uma maior quantidade de produtos e itens da loja. Portanto, é facilmente observado que a implantação de uma rede wireless em seu estabelecimento comercial, além de propiciar uma grande liberdade e conforto de uso para os usuários e uma maior mobilidade para a operação de sistemas de atendimento; pode representar também um grande incremento em vendas ou em consumo de serviços oferecidos por você.
E o melhor de tudo; dependendo do tamanho e dos objetivos que deseja alcançar com a sua rede wireless, a instalação e a configuração podem se feitas por você mesmo e sem qualquer custo a mais. Desde que, é claro, você tenha os conhecimentos mínimos necessários e tenha comprado seus equipamentos de um fornecedor que lhe garanta um bom suporte. Segurança, conforto, lucros e satisfação dos clientes. Se não bastassem esses itens de interesse, as redes wireless ainda fornecem um atrativo que é imbatível para qualquer empresa que se preze: O custo.
Só quem já passou por uma instalação de uma rede de computadores tradicional, sabe que os custos envolvidos, dependendo do tamanho do projeto, podem ser proibitivos. Por esse aspecto, as redes wireless se apresentam com uma solução incontestável e como um custo de investimento baixíssimo em relação à outra. Sempre, é claro, analisando-se a questão da extensão e da geografia em que será realizado o projeto. Assim, a implantação de uma rede wireless pode representar uma alavancagem importante em vendas e na prestação de serviços; bem como significar uma economia de tempo, recursos físicos e dinheiro.
Então, o que está esperando?

domingo, 17 de outubro de 2010

Cursos de Informática – A Certeza de um Futuro Garantido

Nos dias de hoje, é praticamente impossível imaginar uma carreira profissional de sucesso sem que se tenha qualquer conhecimento na área de informática. Por isso mesmo, desde cedo, os jovens devem ser incentivados a buscarem a sua qualificação e seu preparo em cursos de informática que reúnam verdadeiras condições para prepará-los profissionalmente. Nos primórdios da informática em nosso país, havia a possibilidade da dispensa dos cursos de informática para a formação do profissional. Uma pequena legião de “iniciados” e autodidatas dedicavam-se a aprender e a desvendar os meandros dos complicados e recentes sistemas de computação. Foi uma fase romântica que, felizmente, já acabou.Curso de informática
Mesmo a competência e o conhecimento sendo os alicerces fundamentais de qualquer careira (principalmente na área de informática), hoje em dia a maioria das empresas pede que seus profissionais comprovem, por meio de certificados, seus talentos profissionais. Com essa visão, o mercado de trabalho passou a ser muito mais exigente em relação à qualificação do empregado. Além do “Know How”, um diploma emitido por cursos de informática reconhecidos, ganhou muito mais peso na questão das contratações. Sendo assim, nos grandes centros urbanos, multiplicaram-se empresas oferecendo cursos de informática, treinamento especializado e cursos técnicos para jovens, adultos e idoso. Tendo o próprio Ministério da Educação se mobilizado para regulamentar o setor.
Com o avanço da tecnologia se processando cada vez mais rápido, o profissional que deseja uma carreira repleta de oportunidades e de sucesso; não pode “dormir no ponto” e achar que já é qualificado. Esses mesmos avanços acelerados trazem a cada novo item disponibilizado, uma gama enorme de funções, métodos e maneiras de uso que um profissional atualizado hoje; em muito pouco tempo se tornará obsoleto. Então, a constante evolução do saber profissional e do domínio das máquinas; deve estar na ordem do dia de qualquer um que deseje sucesso em sua carreira. Para que isso seja possível, faz-se necessário que o interessado freqüente sempre os cursos de informática disponíveis para manter-se atualizado em sua área de atuação. Desta forma, estará sempre “por dentro” da última palavra em sistemas e procedimentos, sendo capaz de executar suas funções com competência, agilidade e rapidez. Mantendo, assim, sua empregabilidade sempre em alta.
Os cursos de informática atingiram hoje um papel tão importante para uma preparação adequada de nossos jovens e das futuras gerações para o mercado de trabalho, que podemos sem medo de cometer exageros; afirmar que hoje em dia aquele que não compreende ou utiliza, de uma forma desenvolta, os computadores pode ser considerado um analfabeto. Sendo sua capacidade de desempenhar funções, numa sociedade cada vez mais informatizada, muito limitada. Por isso mesmo, antes de planejar qualquer curso extracurricular que imagine; pense primeiramente nos cursos de informática que lhe permitam o domínio das tecnologias mais utilizadas na área que você deseja ingressar. Sem dúvida alguma; esse será o primeiro e decisivo passo para o seu sucesso profissional e para a garantia de um futuro brilhante.

sexta-feira, 15 de outubro de 2010

O que Progamas de Código Aberto Podem Fazer por Você?

Se você está procurando emprego ou começou sua vida profissional há algum tempo, já descobriu que a realidade do mercado de trabalho é uma só: Os bons trabalhos jamais são expostos no caderno de classificados dos jornais e o “grande público” sequer fica sabendo que as vagas existiram.
E, como elas são preenchidas então? Muito simples, o famoso “QI”. O “quem indica” é um fator determinante na ocupação das boas vagas de emprego que aparecem no mercado de trabalho brasileiro. E, se tratando de tecnologia, o “QI” é a pedra fundamental desse mercado. Por isso mesmo, contatos devem sempre ser cuidadosamente mantidos e cultivados.

Mas como fazer contados no mundo da tecnologia da informação? Experimente participar do desenvolvimento de programas ou plataformas de código aberto. Isso mesmo; se você está começando e quer ser conhecido no mercado, pense em desenvolver ou participar do desenvolvimento de programas de código aberto.
Assim, a comunidade que desenvolve esses aplicativos (que em sua totalidade inclui pelo menos uma pessoa com poder de decisão na área ou que pode influenciar as decisões positivamente), saberá quem você é e o que é capaz de fazer.
Da mesma forma, participar de um projeto para desenvolvimento de programas de código aberto, mostrará que você tem capacidade de trabalhar em equipe e de desenvolver relacionamentos maduros e produtivos com um número grande e diversificado de pessoas.

Assim, mesmo que você torça o nariz e diga: “Mas, trabalhar de graça!”
Pense numa coisa muito simples: Não existe “almoço grátis”. É verdade. Dificilmente uma grande empresa vai te contratar sem que você seja um cara experiente ou tenha anos de atuação no mercado. A única forma de isso acontecer; é o pessoal “ficar sabendo” que você é uma fera em sua área. E, como eles saberão disso se você não faz nada para que isso aconteça? Participar do desenvolvimento de programas de código aberto é a forma mais rápida e mais eficiente de mostrar isso. Justamente porque você estará atuando da mesma forma que a empresa deseja que você atue. Uma recomendação vinda de um participante de um projeto assim; é acompanhada sempre de referências ótimas e de dissertações a respeito do seu bom desempenho. O que certamente será um impulso todo especial nas suas chances de conseguir uma ótima colocação.
Então. Percebeu como é importante para quem trabalha na área de tecnologia da informação(ou pretende atuar nela) participar do desenvolvimento de programas de código aberto? Pois é, você contribui para se beneficiar futuramente. Se não pelo próprio programa; pelos contatos que sua participação pode render. Lembre-se sempre do velho ditado que nossos pais e nossos avós repetiam: “Quem tem padrinho, não morre pagão!”
Além dos contatos, participar de um projeto desses e desenvolver programas de código aberto, mostra claramente para qualquer empresa, que você trabalha no que gosta e que é uma pessoa bem resolvida profissionalmente e que; se te contratarem, não estarão contratando apenas um robô que só obedece a ordens ou um camarada que abraçou uma oportunidade só “pela grana” e que na realidade não ama o que faz.

Assim, comece logo com os seus projetos de programas de código aberto e ganhe muito num futuro próximo.

quinta-feira, 7 de outubro de 2010

Filtros - Photoshop

Os Filtros são componentes do programa Photoshop que alteram a característica da imagem a partir de padrões ajustáveis. Eles são utilizados para gerar grande parte dos efeitos normalmente vistos em trabalhos profissionais. O menu Filter possui vários Filtros agrupados em categorias.

Render (acabamento)

Os filtros do menu Render criam efeitos de mistura e simulam reflexões de luz numa imagem.

 - Cloud (Nuvens): O filtro nuvens gera padrões de nuvens suaves que usam valores aleatórios que podem variar entre as cores de primeiro e segundo plano e ainda do plano de fundo. Para gerar um padrão de nuvens mais completo mantenha a tecla Alt pressionada ao selecionar Filter>Render>Cloud.

 - Difference Clouds (Nuvens por diferença): O filtro nuvens por diferença se utiliza de valores que são gerados aleatoriamente e podem variar as cores de primeiro plano e plano de fundo para que seja produzido um padrão de nuvens. Esse filtro mescla os dados de nuvem com os pixels existentes.

 - Fibers (Fibras): O filtro fibras serve para criar uma aparência de fibras entrelaçadas utilizando-se das cores de primeiro plano e plano de fundo.

 - Lens Flare (Reflexo de flash): O filtro reflexo de flash é utilizado para imitar a refração causada pela aplicação de uma luz brilhante na lente da câmera. Especifique um local para o centro do brilho clicando em qualquer lugar dentro da miniatura da imagem ou arrastando sua mira.

- Lighting Effects (Efeitos de iluminação): O filtro efeitos de iluminação permite ao usuário produzir vários efeitos de iluminação utilizando imagens em formato RGB variando 17 estilos de luz, 3 tipos de luz e 4 conjuntos de propriedades da luz.

 Sharpen (nitidez)
  
Pode-se aumentar a nitidez da imagem (aumentando o contrate dos pixels adjacentes) pelo uso dos filtros do Photoshop existentes dentro do menu SHARPEN. Cada uma propicia um determinado nível de intensidade, na seguinte ordem: Sharpen, Sharpen Edges, Sharpen More e Unsharpen Mask.

Seu efeito é contrário ao do Blur, ou seja, torna as imagens mais nítidas e acentua seus detalhes. No entanto, as opções de submenu de ambos os filtros são muito parecidas.

 - Sharpen (Tornar Nítido) e Sharpen More (Tornar Mais Nítido): Estes filtros geram focos em uma seleção aumentando a clareza da imagem. O filtro Nitidez Maior aplica um efeito de nitidez mais intenso que o do filtro Nitidez.

 - Sharpen Edges (Tornar Arestas Nítidas) e Unsharpen Mask (Máscara de Nitidez): Estes filtros localizam áreas da imagem em que ocorrem alterações de cor significativas e aplicam nitidez a elas. O filtro Arestas Nítidas aplica nitidez apenas às arestas, enquanto preserva a suavidade geral da imagem. Utilize esse filtro para dar nitidez às arestas sem especificar uma quantidade. Para correção profissional de cores, utilize o filtro Máscara de Nitidez para ajustar o contraste dos detalhes da aresta e produzir uma linha mais clara e outra mais escura em cada lado da aresta. Esse processo irá realçar a aresta e criar a ilusão de uma imagem mais nítida.

terça-feira, 5 de outubro de 2010

Tecnologia para filmes estilo Avatar custará US$ 150


A partir de 2011 será possível usar técnicas semelhantes às usadas no filme Avatar para a produção de animações, ambientes de jogos ou mesmo do seu próximo grande sucesso no Youtube.
Isto se tudo correr de acordo com os planos de Matt Bett, pesquisador da Universidade de Abertay, no Reino Unido.
Câmera virtual
Bett e seus colegas usaram controladores de movimento, semelhantes aos do Wii, para criar câmeras virtuais que podem alimentar em tempo real mundos artificiais gerados por computador.
Para a produção do filme Avatar, James Cameron inventou uma nova forma de filmar, que ele batizou deSimul-Cam, que permite que a imagem gravada seja processada em tempo real - enquanto os atores, usando roupas com detectores de movimento, encenavam em um estúdio vazio, o diretor já os via em sua tela como Na'vis.
Os pesquisadores replicaram a tecnologia usando o conceito de câmera virtual - onde o computador otimiza o que uma câmera pode captar - e um sensor de movimento, e empacotaram tudo em um pequeno aparelho que deverá chegar ao mercado custando cerca de US$150,00.
"O que a tecnologia Simul-Cam permite fazer é uma espécie de realidade aumentada, onde um mundo gerado por computador pode ser visto imediatamente. O que eu quero fazer é colocar isto na sua cabeça, e trazer essa possibilidade para os computadores pessoais," diz Matt.
Filmes caseiros
A ferramenta, batizada de Motus, e que Matt espera colocar no mercado no próximo ano, usa sensores eletromagnéticos Sixense para capturar a posição do controle com uma precisão milimétrica. E, ao contrário dos controles de jogos, o novo aparelho funciona mesmo quando há alguma coisa à sua frente.
"Nós agora podemos manipular uma câmera virtual em qualquer ambiente virtual - seja um filme, um jogo de computador ou um simulador educativo," diz o pesquisador.
A tecnologia permitirá que filmes e animações de grande complexidade e nível profissional sejam produzidos a um custo muito baixo, tornando-se acessível para pequenos estúdios e até mesmo para usuários domésticos.