terça-feira, 22 de janeiro de 2008

Informação

Informação é o negativo de incerteza, e não é por acaso que a palavra forma está contida em informação, pois a informação expressa os padrões formais que descrevem um sistema, ou a sua complexidade.

A palavra latina informare significa dar forma, ou aparência, pôr em forma, formar, criar, mas também representar, apresentar, criar uma idéia ou noção. Informação em geral tem o sentido de algo que é colocado em forma, em ordem. Também significa a colocação de alguns elementos em alguma forma, em algum sistema classificado. Informação é também a classificação de símbolos e de suas ligações em uma relação, seja a organização dos órgãos e funções de um ser vivo ou a organização de um sistema social.

A informação exprime a organização de um sistema que pode ser descrito matematicamente. Ela não se preocupa com a matéria desse sistema, e sim com a sua forma. A expressão da informação de um sistema tem por base a fórmula matemática da entropia negativa. Assim é possível expressar, como Boltzmann, a medida de organização das moléculas em um recipiente contendo líquido ou gás; como Shannon a medida da organização de uma mensagem; como Bertalanffy a medida da organização de um sistema vivo.

Informação não é um termo exclusivamente matemático, mas também filosófico, pois não está ligado apenas à quantidade, mas também à qualidade, que, aliás, tem conexão com ela. Portanto não é apenas uma medida da organização, é também a organização em si, ligada ao princípio da ordem, i.é, ao organizado - considerado como resultado, e ao organizante - considerado como processo.

A informação é a qualidade da realidade material de ser organizada (o que também representa a qualidade de conservar este estado organizado) e sua capacidade de organizar, de classificar em sistema, de criar (desenvolver a organização). É, juntamente com o espaço, o tempo e o movimento, uma outra forma fundamental da existência da matéria - a qualidade de evolução, de atingir qualidades superiores.

Sem organização, sem conservação e crescimento de organização, a matéria não poderia de forma alguma existir, assim como não existe sem o espaço, o tempo e o movimento. Um objeto material determina suas qualidades relativas ao espaço, ao tempo, ao movimento, mas igualmente as qualidades de sua organização, sua qualidade que se manifesta como entropia negativa, como informação.

Se a massa é a medida da inércia e a energia a medida do movimento, a informação é, em sentido quantitativo, a medida da organização do objeto material. Não só a matéria está ligada à característica da organização - o estão igualmente suas características referentes ao espaço, ao tempo e ao movimento. A matéria, o espaço, o tempo, o movimento e a organização estão em conexão recíproca.

A informação total pode ser diminuída em qualquer sistema sem que aumente em outro lugar, mas não pode ser aumentada sem diminuir em outro lugar. Fazer uma ou mais cópias de um dado padrão informacional não aumenta informação global, apesar de poder aumentar informação no sistema que receba a cópia. Uma nova obra de arte não cria informação global, só rearranja padrões disponíveis para o meio. A novidade é o significado, não a informação em si. Claro que se transmite informação pelo significado a transmitir.

A Teoria da informação é um conjunto de conceitos, teorema e medidas que foi primeiro desenvolvida por Shannon para engenharia de comunicação e foi estendida para outros campos, incluindo teoria da organização e teoria da música.

Informação (H) tem o sentido técnico sugerido por Hartley em 1928, e depois desenvolvido por Shannon na sua “Teoria Matemática de Comunicação”. Não é a mesma coisa que significado ou informação como usualmente se entende. Significado é significância de informação para um sistema que a processa: constitui uma mudança nos processos do sistema, induzidos pela informação.

Informação é um conceito simples: os graus de liberdade que existem numa dada situação para escolher entre sinais, símbolos, mensagens ou padrões a ser transmitidos. O quanto de informação é medido como o logaritmo de base 2 do número de padrões alternos, formas, organizações ou mensagens alternadas. Quando mx = y, então x é referido como o logaritmo de y de base m. A unidade é o dígito binário ou bit de informação. É a quantidade de informação que diminui a incerteza quando o resultado de uma situação com duas alternativas igualmente possíveis é conhecido. Alternativa binária é resolução por escolha binária. Como informação tem um campo semântico vasto, quando se atribui ao termo outros significados, devem ser medidos em outras unidades.

O pensamento recente sobre as complexidades baseia-se na idéia de que o caráter específico das coisas pode muitas vezes ser mais importantes do que a natureza química das substâncias, ou de suas propriedades físicas como massa, posição, etc. Este caráter específico pode ser traduzido como informação.

Em “O uso humano de seres humanos”, Wiener diz que “Informação é o termo que designa o conteúdo daquilo que permutamos com o mundo exterior ao ajustar-nos a ele, e o que faz com que nosso ajustamento nele seja percebido. Segundo Quastler, medir informação pode ser usado para avaliar qualquer tipo de organização, já que organização se baseia na relação entre partes. Se duas partes se relacionam tanto qualitativa quanto quantitativamente, conhecimento sobre o estado de uma tem que trazer informação sobre o estado de outra. Medir a informação pode demonstrar quando tais relações existem.

Nenhum comentário: