Maison / Maîtriser le PC / phénomène informationnel. Méthodes de synthèse des informations sur les transactions commerciales de l'organisation pour la période de référence Ce qui ne s'applique pas aux propriétés de l'information

phénomène informationnel. Méthodes de synthèse des informations sur les transactions commerciales de l'organisation pour la période de référence Ce qui ne s'applique pas aux propriétés de l'information

L'information est une information sur quelque chose.

Le concept et les types d'informations, la transmission et le traitement, la recherche et le stockage des informations

Développer le contenu

Réduire le contenu

L'information est, définition

Les informations sont toute information reçue et transmise, stockée par diverses sources. L'information est la totalité des informations sur le monde qui nous entoure, sur toutes sortes de processus qui s'y déroulent, qui peuvent être perçues par les organismes vivants, les machines électroniques et d'autres systèmes d'information.

- Ce des informations significatives sur quelque chose, lorsque la forme de leur présentation est également une information, c'est-à-dire qu'elle a une fonction de formatage conformément à sa propre nature.

Les informations sont tout ce qui peut être complété par nos connaissances et nos hypothèses.

Les informations sont des informations sur quelque chose, quelle que soit la forme de leur présentation.

Les informations sont le produit mental de tout organisme psychophysique, produit par celui-ci lors de l'utilisation de certains moyens, appelés moyens d'information.

Les informations sont informations perçues par une personne et (ou) spéciales. dispositifs comme reflet des faits du monde matériel ou spirituel dans le processus de communication.

Les informations sont données organisées de manière à avoir un sens pour la personne qui les traite.

Les informations sont la valeur qu'une personne accorde aux données en fonction des conventions connues utilisées pour les représenter.


Les informations sont information, explication, présentation.

Les informations sont toute donnée ou information qui intéresse quiconque.

Les informations sont informations sur les objets et les phénomènes environnement, leurs paramètres, propriétés et état, qui sont perçus par les systèmes d'information (organismes vivants, machines de contrôle, etc.) dans le processus de vie et de travail.

Même Annonce(un article dans un journal, une publicité, une lettre, un télégramme, une référence, une histoire, un dessin, une émission de radio, etc.) peut contenir une quantité différente d'informations pour différentes personnes - en fonction de leurs connaissances antérieures, de le niveau de compréhension de ce message et l’intérêt qu’il porte.

Dans les cas où ils parlent de travail automatisé avec des informations via n'importe quel appareils techniques, ne sont pas intéressés par le contenu du message, mais par le nombre de caractères que contient ce message.

En ce qui concerne le traitement informatique des données, l'information est comprise comme une certaine séquence de désignations symboliques (lettres, chiffres, images graphiques et sons codés, etc.) qui portent une charge sémantique et sont présentées sous une forme compréhensible par un ordinateur. Chaque Nouveau personnage dans une telle séquence de caractères augmente le volume d'informations du message.


Actuellement, il n’existe pas de définition unique de l’information en tant que terme scientifique. Du point de vue des différents domaines de la connaissance, ce concept se décrit par son ensemble spécifique de caractéristiques. Par exemple, le concept d'« information » est fondamental dans le cours de l'informatique, et il est impossible de le définir à travers d'autres concepts plus « simples » (tout comme en géométrie, par exemple, il est impossible d'exprimer le contenu de les notions de base de « point », « droite », « plan » en passant par des notions plus simples).


Le contenu des concepts fondamentaux de toute science doit être expliqué par des exemples ou identifié en les comparant avec le contenu d'autres concepts. Dans le cas du concept d'« information », le problème de sa définition est encore plus compliqué, puisqu'il s'agit d'un concept scientifique général. Ce concept est utilisé dans diverses sciences (informatique, cybernétique, biologie, physique, etc.), tandis que dans chaque science la notion d'« information » est associée à divers systèmes notions.


La notion d'information

Dans la science moderne, deux types d'informations sont considérés :

L'information objective (primaire) est la propriété des objets matériels et des phénomènes (processus) de générer une variété d'états qui, par des interactions (interactions fondamentales), sont transmis à d'autres objets et imprimés dans leur structure.

L'information subjective (sémantique, sémantique, secondaire) est le contenu sémantique des informations objectives sur les objets et les processus du monde matériel, formé par l'esprit humain à l'aide d'images sémantiques (mots, images et sensations) et fixé sur un support matériel.


Au sens quotidien, l'information est une information sur le monde environnant et les processus qui s'y déroulent, perçus par une personne ou appareil spécial.

Actuellement, il n’existe pas de définition unique de l’information en tant que terme scientifique. Du point de vue des différents domaines de la connaissance, ce concept se décrit par son ensemble spécifique de caractéristiques. Selon le concept de K. Shannon, l'information est l'incertitude supprimée, c'est-à-dire des informations qui devraient éliminer, à un degré ou à un autre, l'incertitude que le consommateur a avant de les recevoir, élargir sa compréhension de l'objet avec des informations utiles.


Du point de vue de Gregory Beton, l'unité élémentaire d'information est une « différence bienveillante » ou une différence efficace pour un système de perception plus vaste. Ces différences qui ne sont pas perçues, il les appelle « potentielles » et perçues - « actives ». "L'information est constituée de différences indifférentes" (c) "Toute perception d'une information est nécessairement une acquisition d'informations sur une différence." Du point de vue de l'informatique, l'information possède un certain nombre de propriétés fondamentales : nouveauté, pertinence, fiabilité, objectivité, exhaustivité, valeur, etc. La science logique est principalement impliquée dans l'analyse de l'information. Le mot « information » vient du mot latin informatio, qui signifie information, clarification, familiarisation. Le concept d'information a été considéré par les philosophes anciens.

Avant la révolution industrielle, définir l’essence de l’information restait l’apanage principalement des philosophes. De plus, la science cybernétique, nouvelle à cette époque, a commencé à considérer les questions de théorie de l’information.

Parfois, afin de comprendre l'essence d'un concept, il est utile d'analyser le sens du mot qui désigne ce concept. L'élucidation de la forme interne du mot et l'étude de l'histoire de son usage peuvent apporter un éclairage inattendu sur son sens, éclipsé par l'usage « technologique » habituel de ce mot et ses connotations modernes.

Le mot information est entré dans la langue russe à l’époque pétrinienne. Pour la première fois, il est enregistré dans les « Règlements spirituels » de 1721 au sens de « représentation, concept de quelque chose ». (Dans les langues européennes, il a été fixé plus tôt, vers le 14ème siècle.)

Sur la base de cette étymologie, l'information peut être considérée comme tout changement de forme significatif ou, en d'autres termes, toute trace matériellement fixée formée par l'interaction d'objets ou de forces et susceptible d'être comprise. L’information est donc une forme d’énergie convertie. Le porteur de l'information est un signe, et le mode de son existence est l'interprétation : révéler le sens d'un signe ou d'une séquence de signes.

Le sens peut être un événement reconstruit à partir du signe qui a provoqué son apparition (dans le cas de signes « naturels » et involontaires, tels que des traces, des indices, etc.), ou un message (dans le cas de signes conventionnels caractéristiques du domaine). de la langue). C'est le deuxième type de signes qui constitue le corps de la culture humaine, qui, selon l'une des définitions, est « un ensemble d'informations transmises de manière non héréditaire ».

Les messages peuvent contenir des informations sur des faits ou une interprétation des faits (du latin performatio, interprétation, traduction).

Un être vivant reçoit des informations par les sens, ainsi que par la réflexion ou l'intuition. L'échange d'informations entre sujets est communication ou communication (du lat. communicatio, message, transmission, dérivé à son tour du lat. communico, rendre commun, informer, parler, connecter).

D'un point de vue pratique, l'information est toujours présentée comme un message. Un message d'information est associé à une source de message, à un destinataire de message et à un canal de communication.


Revenant à l'étymologie latine du mot information, essayons de répondre à la question de savoir quelle forme exacte est donnée ici.

Il est évident que, premièrement, un certain sens, qui, étant initialement informe et inexprimé, n'existe qu'en puissance et doit être « construit » pour être perçu et transmis.

Deuxièmement, à l’esprit humain, qui est élevé pour penser de manière structurelle et claire. Troisièmement, une société qui, précisément parce que ses membres partagent ces significations et les partagent, gagne en unité et en fonctionnalité.

L'information en tant que signification raisonnable exprimée est une connaissance qui peut être stockée, transmise et servir de base à la génération d'autres connaissances. Les formes de conservation des connaissances (mémoire historique) sont diverses : des mythes, annales et pyramides aux bibliothèques, musées et bases de données informatiques.

Information - informations sur le monde qui nous entoure, sur les processus qui s'y déroulent et qui sont perçus par les organismes vivants, les machines de contrôle et autres systèmes d'information.

Le mot « information » est latin. Au cours d'une longue vie, son sens a évolué, tantôt s'élargissant, tantôt rétrécissant ses limites jusqu'à la limite. Au début, le mot « information » signifiait : « représentation », « concept », puis - « information », « transmission de message ».


Ces dernières années, les scientifiques ont décidé que le sens habituel (généralement accepté) du mot « information » était trop élastique, vague, et lui ont donné le sens suivant : « une mesure de certitude dans un message ».

La théorie de l’information a pris vie grâce aux besoins de la pratique. Son origine est associée à l'ouvrage de Claude Shannon « Théorie mathématique de la communication », publié en 1946. Les fondements de la théorie de l’information reposent sur les résultats obtenus par de nombreux scientifiques. Dans la seconde moitié du XXe siècle, le monde regorgeait d’informations transmises via des câbles téléphoniques et télégraphiques et des canaux radio. Plus tard, des ordinateurs électroniques sont apparus - des processeurs d'informations. Et à cette époque, la tâche principale de la théorie de l'information était avant tout d'augmenter l'efficacité du fonctionnement des systèmes de communication. La difficulté dans la conception et l'exploitation des moyens, des systèmes et des canaux de communication est qu'il ne suffit pas au concepteur et à l'ingénieur de résoudre le problème à partir de positions physiques et énergétiques. De ces points de vue, le système peut être le plus parfait et le plus économique. Mais il est également important, lors de la création de systèmes de transmission, de prêter attention à la quantité d'informations qui transitera par ce système de transmission. Après tout, les informations peuvent être quantifiées, calculées. Et ils agissent dans de tels calculs de la manière la plus habituelle : ils font abstraction du sens du message, tout comme ils renoncent au concret dans les opérations arithmétiques familières à nous tous (de l'addition de deux pommes et de trois pommes, ils passent à l'addition des nombres en général : 2 + 3).


Les scientifiques ont déclaré qu'ils "ignoraient complètement l'évaluation humaine des informations". À une séquence de 100 lettres, par exemple, ils attribuent une signification à une information, sans se soucier de savoir si cette information a un sens et si, en retour, son application pratique a un sens. L'approche quantitative est la branche la plus développée de la théorie de l'information. Selon cette définition, une collection de 100 lettres (une phrase de 100 lettres tirée d'un journal, d'une pièce de Shakespeare ou du théorème d'Einstein) contient exactement la même quantité d'informations.


Cette quantification des informations est très utile et pratique. Cela correspond exactement à la tâche de l'ingénieur en communication, qui doit transmettre toutes les informations contenues dans le télégramme soumis, quelle que soit la valeur de ces informations pour le destinataire. Le canal de communication est sans âme. Une chose est importante pour le système de transmission : transmettre la quantité d'informations requise dans un certain temps. Comment calculer la quantité d'informations dans un message particulier ?

L'évaluation de la quantité d'informations est basée sur les lois de la théorie des probabilités, plus précisément, elle est déterminée par les probabilités des événements. C'est compréhensible. Le message n'a de valeur, ne véhicule des informations que lorsque nous en apprenons l'issue d'un événement qui a un caractère aléatoire, lorsqu'il est dans une certaine mesure inattendu. Après tout, le message sur ce qui est déjà connu ne contient aucune information. Ceux. si, par exemple, quelqu'un vous appelle au téléphone et vous dit : « Il fait clair le jour et sombre la nuit », alors un tel message ne vous surprendra que par l'absurdité de l'énoncé de l'évidence et du bien connu, et pas avec les nouvelles qu'il contient. Une autre chose, par exemple, le résultat de la course aux courses. Qui viendra en premier ? Le résultat ici est difficile à prédire : plus l'événement qui nous intéresse a des résultats aléatoires, plus le message sur son résultat est précieux, plus il y a d'informations. Un message d'événement qui n'a que deux résultats également possibles contient une information appelée bit. Le choix de l'unité d'information n'est pas accidentel. Il est associé aux plus courants manière binaire son codage lors de la transmission et du traitement. Essayons, au moins sous la forme la plus simplifiée, d'imaginer que principe général la quantification de l’information, qui est la pierre angulaire de toute théorie de l’information.


Nous savons déjà que la quantité d'informations dépend des probabilités de certaines conséquences d'un événement. Si un événement, comme le disent les scientifiques, a deux résultats équiprobables, cela signifie que la probabilité de chaque résultat est de 1/2. Il s’agit de la probabilité d’obtenir pile ou face en lançant une pièce de monnaie. Si un événement a trois résultats équiprobables, alors la probabilité de chacun est de 1/3. Notez que la somme des probabilités de tous les résultats est toujours égale à un : après tout, l'un de tous les résultats possibles se produira certainement. Un événement, comme vous le comprenez, peut avoir des conséquences inégales. Ainsi, dans un match de football entre équipes fortes et faibles, la probabilité qu'une équipe forte gagne est élevée - par exemple, 4/5. La probabilité d'un match nul est bien moindre, par exemple 3/20. La probabilité de défaite est très faible.


Il s'avère que la quantité d'informations est une mesure permettant de réduire l'incertitude d'une situation. Différentes quantités d'informations sont transmises sur les canaux de communication, et la quantité d'informations transitant par le canal ne peut pas dépasser sa capacité. Et cela est déterminé par la quantité d'informations qui transitent ici par unité de temps. L'un des personnages du roman L'Île mystérieuse de Jules Verne, le journaliste Gédéon Spillet, téléphonait un chapitre de la Bible pour que ses concurrents ne puissent pas téléphoner. Dans ce cas, la chaîne était complètement chargée et la quantité d'informations était égale à zéro, car l'abonné recevait des informations qu'il connaissait. Cela signifie que le canal était inactif, transmettant un nombre strictement défini d'impulsions, sans les charger de quoi que ce soit. Parallèlement, plus chacune d'un certain nombre d'impulsions transporte d'informations, plus la bande passante du canal est utilisée pleinement. Il est donc nécessaire de coder intelligemment les informations, de trouver un langage économique et avare pour transmettre des messages.


Les informations sont « passées au crible » de la manière la plus approfondie. Dans le télégraphe, les lettres fréquentes, les combinaisons de lettres, voire les phrases entières, sont représentées par un ensemble plus court de zéros et de uns, et celles qui sont moins courantes sont représentées par un ensemble plus long. Dans le cas où la longueur du mot de code est réduite pour les symboles apparaissant fréquemment et augmentée pour ceux apparaissant rarement, on parle d'un codage efficace des informations. Mais dans la pratique, il arrive souvent que le code issu du « criblage » le plus approfondi, un code pratique et économique, puisse déformer le message en raison d'interférences, ce qui arrive malheureusement toujours dans les canaux de communication : distorsion sonore dans le téléphone, bruit atmosphérique. bruit à la radio, distorsion ou assombrissement de l'image à la télévision, erreurs de transmission dans le télégraphe. Ces interférences, ou, comme les appellent les experts, le bruit, affectent l'information. Et de là découlent les surprises les plus incroyables et, bien sûr, les plus désagréables.


Par conséquent, pour augmenter la fiabilité de la transmission et du traitement des informations, il est nécessaire d'introduire des caractères supplémentaires - une sorte de protection contre la distorsion. Ils – ces caractères supplémentaires – ne portent pas le contenu réel du message, ils sont redondants. Du point de vue de la théorie de l'information, tout ce qui rend un langage coloré, flexible, riche en nuances, multiforme, multi-valeurs, est redondance. Comme la lettre de Tatiana à Onéguine est redondante par rapport à de telles positions ! Que d'excès informationnels pour un message court et compréhensible "Je t'aime" ! Et quelle précision informationnelle sont les panneaux dessinés à la main qui sont compréhensibles pour tous ceux qui entrent dans le métro aujourd'hui, où au lieu des mots et des phrases d'annonces, il y a des panneaux symboliques laconiques indiquant : « Entrée », « Sortie ».


A ce propos, il est utile de rappeler une anecdote racontée autrefois par le célèbre scientifique américain Benjamin Franklin à propos d'un chapelier qui invitait ses amis à discuter d'un projet d'enseigne. Il était censé dessiner un chapeau sur l'enseigne et écrire : « John Thompson, le chapelier, fabrique et vend des chapeaux contre de l'argent". L'un des amis a fait remarquer que les mots « contre de l'argent » sont redondants : un tel rappel serait offensant pour l'acheteur. Un autre a également trouvé le mot « vend » superflu, puisqu'il va de soi qu'un chapelier vend des chapeaux, et ne les donne pas gratuitement. Le troisième a estimé que les mots « chapelier » et « fabrique des chapeaux » étaient une tautologie inutile, et les derniers mots ont été rejetés. Le quatrième a suggéré de supprimer le mot « chapelier » - le chapeau peint indique clairement qui est John Thompson. Enfin, le cinquième assurait qu'il était totalement indifférent à l'acheteur que le chapelier s'appelle John Thompson ou non, et suggérait de supprimer cette indication. Ainsi, au final, il ne restait plus sur l'enseigne qu'un chapeau. Bien sûr, si les gens utilisaient uniquement ce genre de codes, sans redondance dans les messages, alors tout " formulaires d'information» - livres, rapports, articles - seraient extrêmement brefs. Mais ils perdraient en intelligibilité et en beauté.

Les informations peuvent être divisées en types selon différents critères : en vérité: vrai et faux;

selon le mode de perception :

Visuel - perçu par les organes de vision ;

Auditif - perçu par les organes de l'audition ;

Tactile - perçu par les récepteurs tactiles ;

Olfactif - perçu par les récepteurs olfactifs ;

Goût - perçu par les papilles gustatives.


sous forme de présentation :

Texte - transmis sous forme de symboles destinés à désigner des lexèmes de la langue ;

Numérique - sous forme de nombres et de signes désignant des opérations mathématiques ;

Graphique - sous forme d'images, d'objets, de graphiques ;

Sonorité - orale ou sous forme d'enregistrement, transmission de lexèmes de langage par des moyens auditifs.


sur rendez-vous:

Masse : contient des informations triviales et fonctionne avec un ensemble de concepts compréhensibles pour la plupart des membres de la société ;

Spécial - contient un ensemble spécifique de concepts, lorsqu'ils sont utilisés, des informations sont transmises qui peuvent ne pas être claires pour la majeure partie de la société, mais qui sont nécessaires et compréhensibles dans un cadre restreint groupe social où est utilisé cette information;

Secret - transmis à un cercle restreint de personnes et via des canaux fermés (sécurisés) ;

Personnel (privé) - un ensemble d'informations sur une personne qui détermine la position sociale et les types d'interactions sociales au sein de la population.


par valeur :

À jour - informations précieuses dans ce moment temps;

Fiable - informations reçues sans distorsion ;

Compréhensible - information exprimée dans un langage compréhensible pour la personne à qui elle est destinée ;

Complet - informations suffisantes pour l'acceptation bonne décision ou compréhension;

Utile - l'utilité de l'information est déterminée par le sujet qui a reçu l'information, en fonction du volume de possibilités d'utilisation.


La valeur de l'information dans divers domaines de la connaissance

En théorie de l'information, de nombreux systèmes, méthodes, approches et idées sont développés aujourd'hui. Cependant, les scientifiques estiment que de nouvelles tendances s'ajouteront aux tendances modernes de la théorie de l'information et que de nouvelles idées apparaîtront. Comme preuve de l'exactitude de leurs hypothèses, ils citent le caractère « vivant » et évolutif de la science et soulignent que la théorie de l'information est étonnamment rapidement et fermement introduite dans les domaines les plus divers de la connaissance humaine. La théorie de l'information a pénétré la physique, la chimie, la biologie, la médecine, la philosophie, la linguistique, la pédagogie, l'économie, la logique, les sciences techniques et l'esthétique. Selon les experts eux-mêmes, la doctrine de l'information, née des besoins de la théorie de la communication et de la cybernétique, a dépassé ses limites. Et maintenant, peut-être, nous avons le droit de parler de l'information comme d'un concept scientifique qui met entre les mains des chercheurs une méthode théorique et informationnelle avec laquelle vous pourrez pénétrer dans de nombreuses sciences sur la nature animée et inanimée, sur la société, ce qui ne permettra pas seulement pour regarder tous les problèmes sous un nouvel angle, mais aussi pour voir l'invisible. C'est pourquoi le terme « information » s'est répandu à notre époque, faisant partie de concepts tels que système d'information, culture de l'information, même l’éthique de l’information.


De nombreuses disciplines scientifiques utilisent la théorie de l’information pour souligner une nouvelle direction dans les sciences anciennes. C’est ainsi qu’est née, par exemple, la géographie de l’information, l’économie de l’information et le droit de l’information. Mais extrêmement grande importance a acquis le terme « information » en lien avec le développement des dernières technologies informatiques, l'automatisation du travail mental, le développement de nouveaux moyens de communication et de traitement de l'information, et surtout avec l'émergence de l'informatique. L'une des tâches les plus importantes de la théorie de l'information est l'étude de la nature et des propriétés de l'information, la création de méthodes pour son traitement, en particulier la transformation d'une grande variété d'informations modernes en programmes informatiques, à l'aide desquels l'automatisation du travail mental a lieu - une sorte de renforcement de l'intellect, et donc le développement des ressources intellectuelles de la société.


Le mot « information » vient du mot latin informatio, qui signifie information, clarification, familiarisation. Le concept d'« information » est fondamental dans le cours de l'informatique, mais il est impossible de le définir à travers d'autres concepts plus « simples ». Le concept d'« information » est utilisé dans diverses sciences, et dans chaque science le concept d'« information » « l'information » est associée à différents systèmes de concepts. L'information en biologie : La biologie étudie la faune et le concept d'« information » est associé au comportement approprié des organismes vivants. Dans les organismes vivants, les informations sont transmises et stockées à l'aide d'objets de nature physique variée (état de l'ADN), qui sont considérés comme des signes d'alphabets biologiques. L'information génétique est héritée et stockée dans toutes les cellules des organismes vivants. Approche philosophique : L'information est interaction, réflexion, cognition. Approche cybernétique : les informations sont les caractéristiques d'un signal de contrôle transmis sur une ligne de communication.

Le rôle de l'information en philosophie

Le traditionalisme du subjectif a toujours dominé dans les premières définitions de l'information en tant que catégories, concepts et propriétés du monde matériel. L'information existe en dehors de notre conscience, et ne peut se refléter dans notre perception que grâce à une interaction : réflexion, lecture, réception sous forme de signal, stimulus. L’information n’est pas matérielle, comme toutes les propriétés de la matière. L'information se présente dans l'ordre suivant : matière, espace, temps, cohérence, fonction, etc., qui sont les concepts fondamentaux d'un reflet formalisé de la réalité objective dans sa distribution et sa variabilité, sa diversité et ses manifestations. L'information est une propriété de la matière et reflète ses propriétés (état ou capacité d'interagir) et sa quantité (mesure) à travers l'interaction.


D'un point de vue matériel, l'information est l'ordre des objets du monde matériel. Par exemple, l'ordre des lettres sur une feuille de papier selon certaines règles est une information écrite. La séquence de points multicolores sur une feuille de papier selon certaines règles est une information graphique. L'ordre des notes de musique est une information musicale. L'ordre des gènes dans l'ADN est une information héréditaire. L’ordre des bits dans un ordinateur constitue une information informatique, et ainsi de suite. et ainsi de suite. Pour la mise en œuvre de l'échange d'informations, la présence de conditions nécessaires et suffisantes est requise.

Les conditions nécessaires :

La présence d'au moins deux objets différents du monde matériel ou immatériel ;

La présence d'objets en propriété commune qui permet d'identifier les objets comme porteurs d'informations ;

Les objets ont une propriété spécifique qui leur permet de distinguer les objets les uns des autres ;

La présence d'une propriété spatiale qui permet de déterminer l'ordre des objets. Par exemple, la disposition des informations écrites sur papier est une propriété spécifique du papier qui permet de disposer les lettres de gauche à droite et de haut en bas.


Il n’y a qu’une seule condition suffisante : la présence d’un sujet capable de reconnaître une information. Il s'agit d'une personne et d'une société humaine, de sociétés d'animaux, de robots, etc. Un message d'information est construit en sélectionnant des copies d'objets à partir de la base et en disposant ces objets dans l'espace dans un certain ordre. La longueur du message d'information est définie comme le nombre de copies des objets de base et est toujours exprimée sous forme d'entier. Il est nécessaire de faire la distinction entre la longueur d'un message d'information, qui est toujours mesurée comme un nombre entier, et la quantité de connaissances contenues dans un message d'information, qui est mesurée dans une unité de mesure inconnue. D'un point de vue mathématique, l'information est une séquence d'entiers écrits dans un vecteur. Les nombres sont le numéro de l'objet dans la base d'information. Le vecteur est appelé invariant d’information, car il ne dépend pas de la nature physique des objets de base. Un seul et même message d'information peut être exprimé sous forme de lettres, de mots, de phrases, de fichiers, d'images, de notes, de chansons, de clips vidéo, ou de toute combinaison de tous ceux précédemment nommés.

Le rôle de l'information en physique

L'information est une information sur le monde environnant (objet, processus, phénomène, événement), qui fait l'objet de transformation (notamment stockage, transmission, etc.) et est utilisée pour développer des comportements, prendre des décisions, gérer ou apprendre.


Les caractéristiques des informations sont les suivantes :

C'est la ressource la plus importante de la production moderne : elle réduit le besoin de terre, de main-d'œuvre, de capital, réduit la consommation de matières premières et d'énergie. Ainsi, par exemple, ayant la possibilité d'archiver vos fichiers (c'est-à-dire de disposer de telles informations), vous ne pouvez pas dépenser d'argent pour acheter de nouvelles disquettes ;

L'information donne vie à de nouvelles productions. Par exemple, l'invention du faisceau laser a été à l'origine de l'émergence et du développement de la production de disques laser (optiques) ;

L'information est une marchandise et le vendeur d'informations ne la perd pas après la vente. Ainsi, si un étudiant informe son ami de l'horaire des cours au cours du semestre, il ne perdra pas ces données pour lui-même ;

L'information donne une valeur supplémentaire à d'autres ressources, en particulier la main-d'œuvre. En effet, un employé l'enseignement supérieur valorisé plus que la moyenne.


Comme il ressort de la définition, trois concepts sont toujours associés à l'information :

La source d'information est cet élément du monde environnant (objet, processus, phénomène, événement), dont l'information fait l'objet de transformation. Donc, la source d'information que le lecteur de ceci guide d'étude, est l'informatique en tant que sphère de l'activité humaine ;

Le consommateur d'information est cet élément du monde environnant qui utilise l'information (pour le développement d'un comportement, pour la prise de décision, pour la gestion ou pour l'apprentissage). Le consommateur de ces informations est le lecteur lui-même ;

Un signal est un support matériel qui capture des informations pour son transfert d'une source à un consommateur. Dans ce cas, le signal est de nature électronique. Si l'étudiant prend ce manuel à la bibliothèque, alors les mêmes informations seront sur papier. Étant lue et mémorisée par un étudiant, l'information acquerra un autre support - biologique, lorsqu'elle sera « enregistrée » dans la mémoire de l'étudiant.


Le signal est l'élément le plus important de ce circuit. Les formes de sa présentation, ainsi que les caractéristiques quantitatives et qualitatives des informations qu'elle contient, qui sont importantes pour le consommateur d'informations, sont abordées plus loin dans cette section du manuel. Les principales caractéristiques de l'ordinateur en tant qu'outil principal qui mappe la source d'information en un signal (lien 1 sur la figure) et « amenant » le signal au consommateur d'informations (lien 2 sur la figure) sont données dans la section Ordinateur. . La structure des procédures qui mettent en œuvre les liens 1 et 2 et constituent le processus d'information fait l'objet d'une réflexion dans la partie Processus d'information.

Les objets du monde matériel sont dans un état de changement continu, caractérisé par l'échange d'énergie de l'objet avec l'environnement. Un changement dans l’état d’un objet entraîne toujours un changement dans l’état d’un autre objet de l’environnement. Ce phénomène, quels que soient la manière dont les états particuliers et les objets particuliers ont changé, peut être considéré comme une transmission de signal d'un objet à un autre. Changer l'état d'un objet lorsqu'un signal lui est envoyé est appelé enregistrement de signal.


Un signal ou une séquence de signaux forment un message qui peut être perçu par le destinataire sous une forme ou une autre, ainsi que dans un volume ou un autre. L'information en physique est un terme qui généralise qualitativement les concepts de « signal » et de « message ». Si les signaux et les messages peuvent être quantifiés, alors nous pouvons dire que les signaux et les messages sont des unités de mesure de la quantité d'informations. Message (signal) différents systèmes interprété à sa manière. Par exemple, un bip long et deux bips courts en séquence dans la terminologie du code Morse correspondent à la lettre de (ou D), dans la terminologie du BIOS d'AWARD, un dysfonctionnement de la carte vidéo.

Le rôle de l'information en mathématiques

En mathématiques, la théorie de l'information (théorie mathématique de la communication) est une section des mathématiques appliquées qui définit le concept d'information, ses propriétés et établit des relations limites pour les systèmes de transmission de données. Les principales sections de la théorie de l'information sont le codage source (codage compressif) et le codage de canal (immunisé contre le bruit). Les mathématiques sont plus qu'une discipline scientifique. Cela crée un langage unique pour toute la science.


Le sujet de la recherche mathématique concerne les objets abstraits : nombre, fonction, vecteur, ensemble et autres. De plus, la plupart d'entre eux sont introduits de manière axiomatique (axiome), c'est-à-dire sans aucun lien avec d’autres concepts et sans aucune définition.

L'information ne fait pas partie des matières d'étude des mathématiques. Cependant, le mot « information » est utilisé en termes mathématiques – informations propres et informations mutuelles, liées à la partie abstraite (mathématique) de la théorie de l'information. Cependant, dans la théorie mathématique, le concept d'« information » est associé à des objets exclusivement abstraits - des variables aléatoires, tandis que dans la théorie de l'information moderne, ce concept est considéré beaucoup plus largement - comme une propriété des objets matériels. Le lien entre ces deux termes identiques est indéniable. C'est l'appareil mathématique des nombres aléatoires qui a été utilisé par l'auteur de la théorie de l'information Claude Shannon. Lui-même entend par le terme « information » quelque chose de fondamental (d'irréductible). La théorie de Shannon suppose intuitivement que l’information a un contenu. L'information réduit l'incertitude globale et l'entropie de l'information. La quantité d’informations disponibles pour mesurer. Il met cependant en garde les chercheurs contre le transfert mécanique de concepts de sa théorie vers d’autres domaines scientifiques.


« La recherche des moyens d'appliquer la théorie de l'information à d'autres domaines scientifiques ne se réduit pas à un simple transfert de termes d'un domaine scientifique à un autre. Cette recherche s'effectue dans le cadre d'un long processus d'émission de nouvelles hypothèses et de leurs expériences. vérification." K. Shannon.

Le rôle de l'information en cybernétique

Le fondateur de la cybernétique, Norbert Wiener, parlait de l'information comme suit :

L'information n'est ni matière ni énergie, l'information est information. " Mais la définition fondamentale de l'information qu'il a donnée dans plusieurs de ses livres est la suivante : l'information est une désignation de contenu que nous avons reçu du monde extérieur, en train de nous adapter. et nos sentiments.

L’information est le concept de base de la cybernétique, tout comme l’information économique est le concept de base de la cybernétique économique.


Il existe de nombreuses définitions de ce terme, elles sont complexes et contradictoires. La raison en est évidemment que diverses sciences traitent la cybernétique comme un phénomène, et la cybernétique n’est que la plus récente d’entre elles. I. - le sujet d'étude de sciences telles que les sciences de gestion, les statistiques mathématiques, la génétique, la théorie des médias de masse I. (presse, radio, télévision), l'informatique, qui traite des problèmes scientifiques et techniques I. , etc. Enfin, depuis peu, les philosophes manifestent un grand intérêt pour les problèmes de la réflexion : ils ont tendance à considérer la réflexion comme l'une des propriétés universelles fondamentales de la matière, liée au concept de réflexion. Avec toutes les interprétations du concept de I., il suppose l'existence de deux objets : la source de I. et le consommateur (récepteur) de I. Le transfert de I. de l'un à l'autre se fait à l'aide de signaux, qui, d'une manière générale, il se peut qu'il n'y ait aucun connexion physique avec sa signification : cette connexion est déterminée par accord. Par exemple, un coup porté à la cloche du veche signifiait qu'il fallait se rassembler sur la place, mais pour ceux qui ne connaissaient pas cet ordre, il n'en informa aucun moi.


Dans le cas de la cloche des vêpres, la personne impliquée dans l'accord sur la signification du signal sait qu'à l'heure actuelle, il peut y avoir deux alternatives : les vêpres auront lieu ou non. Ou, pour le dire dans le langage de la théorie I., un événement indéfini (veche) a deux conséquences. Le signal reçu entraîne une diminution de l'incertitude : la personne sait désormais que l'événement (veche) n'a qu'une seule issue : il aura lieu. Or, si l'on savait à l'avance que la veche aurait lieu à telle ou telle heure, la cloche n'annonçait rien de nouveau. Il s'ensuit que moins le message est probable (c'est-à-dire plus inattendu), plus il contient de I., et vice versa, plus le résultat avant l'événement est probable, moins I. contient le signal. C'est à peu près ce genre de raisonnement qui a été mené dans les années 40. 20ième siècle à l'émergence d'une théorie statistique, ou « classique », de I., qui définit le concept de I. à travers une mesure de réduction de l'incertitude de la connaissance sur l'accomplissement d'un événement (une telle mesure était appelée entropie). N. Wiener, K. Shannon et les scientifiques soviétiques A. N. Kolmogorov, V. A. Kotelnikov et d'autres étaient à l'origine de cette science..., la capacité de stockage des appareils I., etc., qui a servi de puissant stimulant pour le développement de la cybernétique en tant que la science et la technologie informatique électronique comme application pratique des réalisations de la cybernétique.


Quant à la définition de la valeur, de l'utilité de I. pour le destinataire, il reste encore beaucoup de questions en suspens, floues. Si nous partons des besoins de la gestion économique et, par conséquent, de la cybernétique économique, alors l'information peut être définie comme l'ensemble des informations, connaissances, messages qui aident à résoudre un problème de gestion particulier (c'est-à-dire à réduire l'incertitude de ses résultats). Des possibilités s'ouvrent alors pour l'évaluation de I. : elle est d'autant plus utile, d'autant plus précieuse qu'elle conduit plus tôt ou à moindre coût à la solution du problème. La notion de I. est proche de la notion de données. Cependant, il y a une différence entre elles : les données sont des signaux dont je dois encore extraire le traitement. Le traitement des données est le processus consistant à les amener sous une forme adaptée à cela.


Le processus de leur transfert de la source au consommateur et de leur perception en tant que I. peut être considéré comme passant à travers trois filtres :

Physique, ou statistique (une limitation purement quantitative de la bande passante du canal, quel que soit le contenu des données, c'est-à-dire en termes syntaxiques) ;

Sémantique (sélection des données qui peuvent être comprises par le destinataire, c'est-à-dire qui correspondent au thésaurus de ses connaissances) ;

Pragmatique (sélection parmi les informations comprises de celles utiles à la résolution d'un problème donné).

Ceci est bien illustré dans le diagramme tiré du livre d'E. G. Yasin sur l'information économique. En conséquence, trois aspects de l'étude des problèmes I. sont distingués : syntaxique, sémantique et pragmatique.


Selon son contenu, I. se subdivise en socio-politique, socio-économique (y compris économique I.), scientifique et technique, etc. En général, il existe de nombreuses classifications de I., elles sont construites sur des bases diverses. En règle générale, en raison de la proximité des concepts, les classifications des données sont construites de la même manière. Par exemple, I. est subdivisé en statique (constante) et dynamique (variable), et les données en même temps - en constantes et variables. Une autre division est primaire, dérivée, sortie I. (les données sont classées de la même manière). La troisième division est I. gérer et informer. Le quatrième est redondant, utile et faux. Cinquièmement - complet (continu) et sélectif. Cette idée de Wiener donne une indication directe de l'objectivité de l'information, c'est-à-dire son existence dans la nature est indépendante de la conscience humaine (perception).

La cybernétique moderne définit l'information objective comme la propriété objective des objets et phénomènes matériels de générer une variété d'états qui sont transférés d'un objet (processus) à un autre par le biais d'interactions fondamentales de la matière et imprimés dans sa structure. Un système matériel en cybernétique est considéré comme un ensemble d'objets qui peuvent eux-mêmes être dans différents états, mais l'état de chacun d'eux est déterminé par les états des autres objets du système.

Dans la nature, l'ensemble des états du système est une information, les états eux-mêmes sont le code primaire, ou code source. Ainsi, chaque système matériel est une source d’information. La cybernétique définit l'information subjective (sémantique) comme la signification ou le contenu d'un message.

Le rôle de l'information en informatique

Le sujet de la science, ce sont précisément les données : les modalités de leur création, de leur stockage, de leur traitement et de leur transmission. Contenu (aussi : « remplissage » (dans le contexte), « contenu du site ») - terme désignant tous types d'informations (à la fois textuelles et multimédias - images, audio, vidéo) qui composent le contenu (visualisé, pour le visiteur, contenu) du site Web. Il permet de séparer la notion d'information qui compose la structure interne de la page/site (code), de celle qui sera éventuellement affichée à l'écran.

Le mot « information » vient du mot latin informatio, qui signifie information, clarification, familiarisation. Le concept d'« information » est fondamental dans le cours de l'informatique, mais il est impossible de le définir à travers d'autres concepts plus « simples ».


On peut distinguer les approches suivantes pour la définition de l'information :

Traditionnel (ordinaire) - utilisé en informatique : L'information est une information, une connaissance, des messages sur l'état des choses qu'une personne perçoit du monde extérieur à l'aide des sens (vue, ouïe, goût, odorat, toucher).

Probabiliste - utilisé dans la théorie de l'information : l'information est une information sur les objets et les phénomènes de l'environnement, leurs paramètres, leurs propriétés et leur état, qui réduisent le degré d'incertitude et le caractère incomplet des connaissances à leur sujet.


Les informations sont stockées, transmises et traitées sous forme symbolique (signe). Les mêmes informations peuvent être présentées sous différentes formes :

Écriture signée, composée de divers signes, parmi lesquels un symbolique sous forme de texte, de chiffres, de spéciaux. personnages; graphique; tabulaire, etc.;

La forme de gestes ou de signaux ;

Forme verbale orale (conversation).


La présentation des informations s'effectue à l'aide de langages, tels que des systèmes de signes, qui sont construits sur la base d'un certain alphabet et disposent de règles pour effectuer des opérations sur les signes. La langue est un certain système de signes pour représenter l'information. Exister:

Les langues naturelles sont des langues parlées sous forme parlée et écrite. Dans certains cas, le langage parlé peut être remplacé par le langage des expressions faciales et des gestes, le langage des panneaux spéciaux (par exemple, les panneaux routiers) ;

Les langues formelles sont des langues spéciales pour divers domaines de l'activité humaine, caractérisées par un alphabet rigidement fixé, des règles de grammaire et de syntaxe plus strictes. Il s'agit du langage de la musique (notes), du langage des mathématiques (nombres, signes mathématiques), des systèmes numériques, des langages de programmation, etc. Au cœur de toute langue se trouve l’alphabet – un ensemble de symboles/signes. Le nombre total de symboles dans un alphabet est appelé cardinalité de l’alphabet.


Les supports d'informations sont un support ou un corps physique pour la transmission, le stockage et la reproduction d'informations. (Il s'agit de signaux électriques, lumineux, thermiques, sonores, radio, disques magnétiques et laser, publications imprimées, photographies, etc.)

Processus d'information- ce sont les processus associés à la réception, au stockage, au traitement et à la transmission des informations (c'est-à-dire les actions effectuées avec les informations). Ceux. Il s'agit de processus au cours desquels le contenu de l'information ou la forme de sa présentation change.

Pour assurer le processus d'information, il faut une source d'information, un canal de communication et un consommateur d'information. La source transmet (envoie) des informations et le récepteur les reçoit (les perçoit). Les informations transmises sont transmises de la source au récepteur à l'aide d'un signal (code). Changer le signal permet d'obtenir des informations.

Étant un objet de transformation et d'utilisation, l'information se caractérise par les propriétés suivantes :

La syntaxe est une propriété qui détermine la manière dont les informations sont présentées sur une porteuse (dans un signal). Ainsi, ces informations sont présentées sur medias ELECTRONIQUES avec une police spécifique. Ici, vous pouvez également prendre en compte des paramètres de présentation d'informations tels que le style et la couleur de la police, sa taille, interligne etc. La sélection des paramètres requis comme propriétés syntaxiques est évidemment déterminée par la méthode de transformation proposée. Par exemple, pour une personne malvoyante, la taille et la couleur de la police sont essentielles. Si vous avez l'intention de saisir ce texte dans un ordinateur via un scanner, le format du papier est important ;


La sémantique est une propriété qui définit le sens d'une information comme la correspondance d'un signal avec le monde réel. Ainsi, la sémantique du signal « informatique » est dans la définition donnée précédemment. La sémantique peut être considérée comme un accord, connu du consommateur d'informations, sur la signification de chaque signal (ce qu'on appelle la règle d'interprétation). Par exemple, c'est la sémantique des signaux qui est étudiée par un automobiliste novice qui étudie les règles trafic, l'apprentissage de la signalisation routière (dans ce cas, les panneaux eux-mêmes font office de signaux). La sémantique des mots (signaux) est apprise par un apprenant de n'importe quelle langue étrangère. On peut dire que le sens de l'enseignement de l'informatique est d'étudier la sémantique de divers signaux - l'essence des concepts clés de cette discipline ;


La pragmatique est une propriété qui détermine l'impact de l'information sur le comportement du consommateur. Ainsi, la pragmatique des informations reçues par le lecteur de ce guide d'étude est, au moins, la réussite de l'examen d'informatique. J'aimerais croire que la pragmatique de ce travail ne se limitera pas à cela et qu'il servira à la formation continue et activité professionnelle lecteur.

Il convient de noter que des signaux de syntaxe différente peuvent avoir la même sémantique. Par exemple, les signaux « ordinateur » et « ordinateur » désignent un dispositif électronique permettant de convertir des informations. Dans ce cas, on parle généralement de synonymie de signal. D’un autre côté, un signal (c’est-à-dire une information avec une propriété syntaxique) peut avoir une pragmatique différente pour les consommateurs et une sémantique différente. Ainsi, un panneau routier, dit « brique » et ayant une sémantique bien définie (« entrée interdite »), signifie une interdiction d'entrée pour un automobiliste, mais n'affecte en rien un piéton. Parallèlement, le signal « clé » peut avoir différentes sémantiques : une clé de sol, une clé à ressort, une clé pour ouvrir une serrure, une clé utilisée en informatique pour coder un signal afin de le protéger d'un accès non autorisé (en dans ce cas, le signal est appelé homonymie). Il existe des signaux - des antonymes qui ont une sémantique opposée. Par exemple, « froid » et « chaud », « rapide » et « lent », etc.


Le sujet d'étude de la science informatique, ce sont précisément les données : les modalités de leur création, de leur stockage, de leur traitement et de leur transmission. Et l'information elle-même enregistrée dans les données, sa signification significative intéresse les utilisateurs des systèmes d'information qui sont des spécialistes de diverses sciences et domaines d'activité : un médecin s'intéresse à l'information médicale, un géologue s'intéresse à l'information géologique, un entrepreneur est intéressé par des informations commerciales, etc. (y compris un informaticien intéressé par des informations sur l'utilisation des données).

Sémiotique - la science de l'information

L'information ne peut être imaginée sans sa réception, son traitement, sa transmission, etc., c'est-à-dire en dehors du cadre de l'échange d'informations. Tous les actes d'échange d'informations s'effectuent au moyen de symboles ou de signes, à l'aide desquels un système en influence un autre. Par conséquent, la principale science qui étudie l'information est la sémiotique - la science des signes et des systèmes de signes dans la nature et la société (la théorie des signes). Dans chaque acte d'échange d'informations, on peut trouver trois de ses « participants », trois éléments : un signe, un objet qu'il désigne et un destinataire (utilisateur) du signe.


Selon les relations entre les éléments considérés, la sémiotique se divise en trois sections : syntaxique, sémantique et pragmatique. La syntaxe étudie les signes et les relations entre eux. En même temps, elle fait abstraction du contenu du signe et de sa signification pratique pour le destinataire. La sémantique étudie la relation entre les signes et les objets qu'ils désignent, en faisant abstraction du destinataire des signes et de la valeur de ce dernier : pour lui. Il est clair que l'étude des modèles de représentation sémantique des objets dans les signes est impossible sans prendre en compte et utiliser les modèles généraux de construction de tout système de signes étudié par la syntaxe. La pragmatique étudie la relation entre les signes et leurs utilisateurs. Dans le cadre de la pragmatique, tous les facteurs qui distinguent un acte d'échange d'informations d'un autre, toutes les questions des résultats pratiques de l'utilisation de l'information et de sa valeur pour le destinataire sont étudiés.


En même temps, de nombreux aspects de la relation des signes entre eux et avec les objets qu’ils désignent sont inévitablement affectés. Ainsi, les trois sections de la sémiotique correspondent à trois niveaux d’abstraction (distraction) des caractéristiques d’actes spécifiques d’échange d’informations. L'étude de l'information dans toute sa diversité correspond au niveau pragmatique. En distrayant le destinataire de l'information, en l'excluant de la considération, nous passons à son étude au niveau sémantique. En s'éloignant du contenu des signes, l'analyse de l'information est transférée au niveau syntaxique. Une telle interpénétration des principales sections de la sémiotique, associées à différents niveaux d'abstraction, peut être représentée à l'aide du schéma « Trois sections de la sémiotique et leurs relations ». La mesure de l'information s'effectue respectivement sous trois aspects : syntaxique, sémantique et pragmatique. La nécessité d'un tel dimension différente l'information, comme nous le montrerons ci-dessous, est dictée par la pratique de conception et d'organisation du travail des systèmes d'information. Prenons une situation de production typique.


À la fin du quart de travail, le planificateur de chantier prépare les données sur la mise en œuvre du calendrier de production. Ces données sont transmises au centre d'information et de calcul (ICC) de l'entreprise, où elles sont traitées, et sous forme de rapports sur l'état actuel de la production, elles sont délivrées aux dirigeants. Sur la base des données reçues, le chef d'atelier décide de modifier le plan de production pour la prochaine période de planification ou de prendre toute autre mesure organisationnelle. Il est évident que pour le chef d'entreprise, la quantité d'informations contenues dans le résumé dépend de l'ampleur de l'impact économique résultant de son utilisation dans la prise de décision, de l'utilité de l'information. Pour le planificateur du site, la quantité d'informations contenues dans un même message est déterminée par l'exactitude de sa correspondance avec la situation réelle sur le site et le degré de surprise des faits rapportés. Plus ils sont inattendus, plus vous devez les signaler rapidement à la direction, plus il y a d'informations dans ce message. Pour les employés d'ITC, le nombre de caractères, la longueur du message porteur d'informations seront d'une importance primordiale, puisqu'ils déterminent le temps de chargement des équipements informatiques et des canaux de communication. En même temps, ni l'utilité de l'information, ni la mesure quantitative de la valeur sémantique de l'information ne les intéressent pratiquement.


Naturellement, lors de l'organisation d'un système de gestion de production, en construisant des modèles pour choisir une solution, nous utiliserons l'utilité de l'information comme mesure du contenu informatif des messages. Lors de la création d'un système de comptabilité et de reporting permettant de gérer les données sur le déroulement du processus de production, la nouveauté des informations reçues doit être considérée comme une mesure de la quantité d'informations. L'organisation des procédures de traitement mécanique de l'information nécessite de mesurer le volume des messages sous la forme du nombre de caractères traités. Ces trois approches essentiellement différentes de la mesure de l’information ne se contredisent ni ne s’excluent. Au contraire, en mesurant l'information à différentes échelles, ils permettent une évaluation plus complète et plus complète du contenu informationnel de chaque message et une organisation plus efficace du système de gestion de la production. Selon l'expression pertinente du Prof. PAS. Kobrinsky, quand nous parlons concernant l'organisation rationnelle des flux d'informations, la quantité, la nouveauté et l'utilité de l'information s'avèrent aussi interconnectées que la quantité, la qualité et le coût des produits en production.

L'information dans le monde matériel

L'information est l'un des concepts généraux associés à la matière. L'information existe dans tout objet matériel sous la forme d'une variété de ses états et est transmise d'objet en objet au cours de leur interaction. L'existence de l'information en tant que propriété objective de la matière découle logiquement des propriétés fondamentales bien connues de la matière - structure, changement continu (mouvement) et interaction des objets matériels.


La structure de la matière se manifeste comme un démembrement interne de l'intégrité, un ordre régulier de connexion des éléments dans la composition de l'ensemble. En d’autres termes, tout objet matériel, depuis la particule subatomique du métaunivers (Big Bang) dans son ensemble, est un système de sous-systèmes interconnectés. En raison d'un mouvement continu, entendu au sens large comme mouvement dans l'espace et évolution dans le temps, les objets matériels changent d'état. L'état des objets change également lors de l'interaction avec d'autres objets. L'ensemble des états du système matériel et de tous ses sous-systèmes représente des informations sur le système.


À proprement parler, en raison de l'incertitude, de l'infini et des propriétés structurelles, la quantité d'informations objectives dans tout objet matériel est infinie. Cette information est dite complète. Cependant, il est possible de distinguer des niveaux structurels comportant des ensembles finis d’états. Les informations qui existent à un niveau structurel avec un nombre fini d’états sont dites privées. Pour les informations privées, la signification est la notion de quantité d’informations.

De la représentation ci-dessus, le choix de l'unité de mesure de la quantité d'informations découle logiquement et simplement. Imaginez un système qui ne peut se trouver que dans deux états équiprobables. Attribuons le code « 1 » à l'un d'eux et « 0 » à l'autre. Il s'agit de la quantité minimale d'informations que le système peut contenir. C'est l'unité de mesure de l'information et s'appelle un bit. Il existe d'autres méthodes et unités, plus difficiles à définir, pour mesurer la quantité d'informations.


Selon la forme matérielle du support, les informations peuvent être de deux types principaux : analogiques et discrètes. Les informations analogiques changent continuellement dans le temps et prennent des valeurs dans un continuum de valeurs. Les informations discrètes changent à certains moments et prennent des valeurs à partir d'un certain ensemble de valeurs. Tout objet ou processus matériel est la principale source d’information. Tous ses états possibles constituent le code de la source d'information. Valeur instantanée states est représenté comme un symbole (« lettre ») de ce code. Pour que les informations soient transmises d'un objet à un autre en tant que récepteur, il est nécessaire qu'il existe une sorte de support matériel intermédiaire qui interagit avec la source. En règle générale, de tels porteurs dans la nature sont des processus de propagation rapide de la structure des ondes - rayonnements cosmiques, gamma et rayons X, ondes électromagnétiques et sonores, potentiels (et peut-être des ondes non encore découvertes) du champ gravitationnel. Lorsque le rayonnement électromagnétique interagit avec un objet, son spectre change en raison de l'absorption ou de la réflexion, c'est-à-dire les intensités de certaines longueurs d'onde changent. Les harmoniques des vibrations sonores changent également lors des interactions avec les objets. Les informations sont également transmises lors d'une interaction mécanique, mais l'interaction mécanique entraîne généralement des changements importants dans la structure des objets (jusqu'à leur destruction) et les informations sont fortement déformées. La distorsion de l'information lors de sa transmission est appelée désinformation.


Le transfert des informations sources vers une structure porteuse est appelé codage. Dans ce cas, le code source est converti en code transporteur. Une porteuse avec un code source qui lui est transféré sous la forme d'un code de porteuse est appelée un signal. Le récepteur de signal possède son propre ensemble d’états possibles, appelé code du récepteur. Le signal, interagissant avec l'objet récepteur, change d'état. Le processus de conversion d'un code de signal en code de récepteur est appelé décodage. Le transfert d'informations d'une source à un récepteur peut être considéré comme un échange d'informations. L’interaction informationnelle est fondamentalement différente des autres interactions. Avec toutes les autres interactions d'objets matériels, il y a un échange de matière et (ou) d'énergie. Dans ce cas, l’un des objets perd de la matière ou de l’énergie, tandis que l’autre les reçoit. Cette propriété des interactions est appelée symétrie. Lors de l'interaction d'informations, le récepteur reçoit des informations et la source ne les perd pas. L'interaction de l'information n'est pas symétrique. L'information objective elle-même n'est pas matérielle, c'est une propriété de la matière, telle que la structure, le mouvement, et existe sur des supports matériels sous la forme de ses codes.

Informations sur la faune

La faune est complexe et variée. Les sources et les récepteurs d'informations sont les organismes vivants et leurs cellules. L'organisme possède un certain nombre de propriétés qui le distinguent des objets matériels inanimés.


Principal:

Échange continu de matière, d'énergie et d'informations avec l'environnement ;

Irritabilité, la capacité du corps à percevoir et à traiter les informations sur les changements dans l'environnement et l'environnement interne du corps ;

Excitabilité, la capacité de répondre à l'action de stimuli ;

Auto-organisation, se manifestant par des changements dans le corps pour s'adapter aux conditions environnementales.


L'organisme, considéré comme un système, possède une structure hiérarchique. Cette structure, relative à l'organisme lui-même, se subdivise en niveaux internes : moléculaire, cellulaire, le niveau des organes et, enfin, l'organisme lui-même. Cependant, l'organisme interagit également avec des systèmes vivants, dont les niveaux sont la population, l'écosystème et l'ensemble de la nature vivante (la biosphère). Non seulement la matière et l'énergie circulent, mais aussi l'information circule entre tous ces niveaux. Les interactions d'information dans la nature vivante se produisent de la même manière que dans la nature inanimée. Dans le même temps, la faune en cours d’évolution a créé une grande variété de sources, de porteurs et de récepteurs d’informations.


La réaction aux influences du monde extérieur se manifeste dans tous les organismes, puisqu'elle est due à l'irritabilité. Chez les organismes supérieurs, l'adaptation à l'environnement est une activité complexe qui n'est efficace qu'avec des informations suffisamment complètes et opportunes sur l'environnement. Les récepteurs des informations provenant de l’environnement extérieur sont les organes des sens, qui comprennent la vue, l’ouïe, l’odorat, le goût, le toucher et l’appareil vestibulaire. Dans la structure interne des organismes, il existe de nombreux récepteurs internes associés au système nerveux. Le système nerveux est constitué de neurones dont les processus (axones et dendrites) sont analogues aux canaux de transmission d'informations. Les principaux organes qui stockent et traitent les informations chez les vertébrés sont la moelle épinière et le cerveau. Conformément aux caractéristiques des organes des sens, les informations perçues par le corps peuvent être classées en visuelles, auditives, gustatives, olfactives et tactiles.


En arrivant sur la rétine de l'œil humain, le signal excite d'une manière particulière les cellules qui le composent. Les influx nerveux des cellules via les axones sont transmis au cerveau. Le cerveau se souvient de cette sensation sous la forme d'une certaine combinaison d'états de ses neurones constitutifs. (Suite de l'exemple - dans la section "L'information dans la société humaine"). En accumulant des informations, le cerveau crée une structure connectée sur sa structure. modèle d'information le monde environnant. Dans la faune pour l'organisme - le récepteur de l'information caractéristique importante est sa disponibilité. La quantité d'informations que le système nerveux humain est capable de soumettre au cerveau lors de la lecture de textes est d'environ 1 bit par 1/16 de seconde.

L'étude des organismes est entravée par leur complexité. L'abstraction de la structure en tant qu'ensemble mathématique, acceptable pour les objets inanimés, est difficilement acceptable pour un organisme vivant, car pour créer un modèle abstrait plus ou moins adéquat d'un organisme, il faut prendre en compte tous les niveaux hiérarchiques de sa structure. Il est donc difficile d’introduire une mesure de la quantité d’informations. Il est très difficile de déterminer les relations entre les composants de la structure. Si l’on sait quel organe est la source de l’information, alors quel est le signal et quel est le récepteur ?


Avant l’avènement de l’informatique, la biologie, qui s’occupe de l’étude des organismes vivants, utilisait uniquement des méthodes qualitatives, c’est-à-dire modèles descriptifs. Dans un modèle qualitatif, il est pratiquement impossible de prendre en compte les liens informationnels entre les composants de la structure. La technologie informatique électronique a permis d'appliquer de nouvelles méthodes à la recherche biologique, en particulier la méthode de modélisation mécanique, qui implique une description mathématique de phénomènes et de processus connus se produisant dans le corps, en y ajoutant des hypothèses sur certains processus inconnus et en calculant choix comportement corporel. Les options qui en résultent sont comparées au comportement réel de l'organisme, ce qui permet de déterminer la vérité ou la fausseté des hypothèses avancées. L'interaction des informations peut également être prise en compte dans de tels modèles. Les processus d’information qui assurent l’existence de la vie elle-même sont extrêmement complexes. Et bien qu'il soit intuitivement clair que cette propriété est directement liée à la formation, au stockage et à la transmission d'informations complètes sur la structure du corps, une description abstraite de ce phénomène a semblé impossible pendant un certain temps. Cependant, les processus informationnels qui assurent l'existence de cette propriété ont été en partie révélés grâce au déchiffrement du code génétique et à la lecture du génome de divers organismes.

L'information dans la société humaine

Le développement de la matière en cours de mouvement vise à compliquer la structure des objets matériels. L’une des structures les plus complexes est le cerveau humain. Jusqu'à présent, c'est la seule structure que nous connaissons qui possède la propriété que l'homme lui-même appelle conscience. En parlant d'information, nous, en tant qu'êtres pensants, entendons a priori que l'information, en plus de sa présence sous la forme de signaux que nous recevons, a également une sorte de sens. Formant dans son esprit un modèle du monde environnant en tant qu'ensemble interconnecté de modèles de ses objets et processus, une personne utilise des concepts sémantiques et non des informations. Le sens est l’essence de tout phénomène qui ne coïncide pas avec lui-même et le relie à un contexte plus large de réalité. Le mot lui-même indique directement que le contenu sémantique de l'information ne peut être formé que par des récepteurs pensants de l'information. Dans la société humaine, ce n'est pas l'information elle-même qui acquiert une importance décisive, mais son contenu sémantique.


Exemple (suite). Ayant éprouvé une telle sensation, une personne attribue le concept « tomate » à l'objet et le concept « couleur rouge » à son état. De plus, sa conscience fixe la connexion : « tomate » - « rouge ». C'est la signification du signal reçu. (Exemple suite : plus loin dans cette section). La capacité du cerveau à créer des concepts sémantiques et des connexions entre eux constitue la base de la conscience. La conscience peut être considérée comme un modèle sémantique auto-développé du monde environnant. Le sens n’est pas une information. Les informations n'existent que sur un support physique. La conscience humaine est considérée comme intangible. Le sens existe dans l’esprit humain sous forme de mots, d’images et de sensations. Une personne peut prononcer des mots non seulement à voix haute, mais aussi « pour elle-même ». Il peut également créer (ou mémoriser) des images et des sensations « pour lui-même ». Cependant, il peut récupérer l'information correspondant à ce sens en prononçant ou en écrivant les mots.

Exemple (suite). Si les mots « tomate » et « couleur rouge » sont la signification de concepts, alors où est l'information ? L'information est contenue dans le cerveau sous la forme de certains états de ses neurones. Il est également contenu dans le texte imprimé composé de ces mots, et lors du codage des lettres avec un code binaire à trois chiffres, son nombre est de 120 bits. Si vous prononcez les mots à voix haute, vous obtiendrez beaucoup plus d’informations, mais le sens restera le même. Le plus grand nombre l’information porte une image visuelle. Cela se reflète même dans le folklore - " il vaut mieux voir une fois que d'entendre cent fois. " Les informations ainsi restaurées sont appelées informations sémantiques, car elles codent la signification de certaines informations primaires (sémantique). En entendant (ou en voyant) une phrase prononcée (ou écrite) dans une langue qu'une personne ne connaît pas, elle reçoit des informations, mais ne peut en déterminer le sens. Par conséquent, afin de transmettre le contenu sémantique de l'information, certains accords sont nécessaires entre la source et le récepteur sur le contenu sémantique des signaux, c'est-à-dire mots. De tels accords peuvent être conclus par la communication. La communication est l'une des conditions les plus importantes pour l'existence de la société humaine.

DANS monde moderne l’information est l’une des ressources les plus importantes et, en même temps, l’un des moteurs du développement de la société humaine. Les processus d'information se produisant dans le monde matériel, la faune sauvage et la société humaine sont étudiés (ou du moins pris en compte) par toutes les disciplines scientifiques, de la philosophie au marketing. La complexité croissante des tâches de la recherche scientifique a conduit à la nécessité d'impliquer dans leur solution de grandes équipes de scientifiques de diverses spécialités. Par conséquent, presque toutes les théories examinées ci-dessous sont interdisciplinaires. Historiquement, deux branches complexes de la science – la cybernétique et l’informatique – sont directement impliquées dans l’étude de l’information.


La cybernétique moderne est une branche scientifique multidisciplinaire qui étudie les systèmes super complexes, tels que :

Société humaine (cybernétique sociale) ;

Économie (cybernétique économique);

Organisme vivant (cybernétique biologique);

cerveau humain et sa fonction est la conscience ( intelligence artificielle).


L'informatique, constituée en science au milieu du siècle dernier, s'est séparée de la cybernétique et est engagée dans des recherches dans le domaine des méthodes d'obtention, de stockage, de transmission et de traitement de l'information sémantique. Ces deux industries utilisent plusieurs théories scientifiques sous-jacentes. Ceux-ci incluent la théorie de l'information et ses sections - théorie du codage, théorie des algorithmes et théorie des automates. Les études du contenu sémantique de l'information reposent sur un complexe de théories scientifiques sous le nom général de sémiotique. La théorie de l'information est une théorie complexe, principalement mathématique, qui comprend une description et une évaluation des méthodes d'extraction, de transmission, de stockage et de classification de l'information. Considére les supports d'information comme des éléments d'un ensemble abstrait (mathématique), et les interactions entre supports comme un moyen d'organiser les éléments dans cet ensemble. Cette approche permet de décrire formellement le code de l'information, c'est-à-dire de définir un code abstrait et de l'explorer avec des méthodes mathématiques. Pour ces études, il applique les méthodes de la théorie des probabilités, des statistiques mathématiques, de l'algèbre linéaire, de la théorie des jeux et d'autres théories mathématiques.


Les bases de cette théorie ont été posées par le scientifique américain E. Hartley en 1928, qui a déterminé la mesure de la quantité d'informations pour certains problèmes de communication. Plus tard, la théorie a été considérablement développée par le scientifique américain C. Shannon, les scientifiques russes A.N. " Théorie qualitative information", proposé par le scientifique polonais M. Mazur. Toute personne connaît le concept d'algorithme, sans même le savoir. Voici un exemple d'algorithme informel : "Coupez les tomates en cercles ou en tranches. Mettez les oignons hachés dans eux, versez huile végétale, puis saupoudrer de poivron finement haché, mélanger. Avant utilisation, saupoudrer de sel, mettre dans un saladier et garnir de persil. (Salade de tomates).


Les premières règles permettant de résoudre des problèmes arithmétiques dans l'histoire de l'humanité ont été développées par l'un des célèbres scientifiques de l'Antiquité Al-Khwarizmi au 9ème siècle après JC. En son honneur, les règles formalisées pour atteindre un objectif sont appelées algorithmes. Le sujet de la théorie des algorithmes est de trouver des méthodes pour construire et évaluer des algorithmes de calcul et de contrôle efficaces (y compris universels) pour le traitement de l'information. Pour justifier de telles méthodes, la théorie des algorithmes utilise l'appareil mathématique théorie de l'information... Le concept scientifique moderne des algorithmes en tant que moyens de traiter l'information a été introduit dans les travaux de E. Post et A. Turing dans les années 20 du XXe siècle (Turing Machine). Les scientifiques russes A. Markov (algorithme de Markov normal) et A. Kolmogorov ont grandement contribué au développement de la théorie des algorithmes. La théorie des automates est une section de la cybernétique théorique qui étudie les modèles mathématiques de dispositifs réellement existants ou fondamentalement possibles qui traitent informations discrètes à des moments discrets.


Le concept d’automate trouve son origine dans la théorie des algorithmes. S'il existe des algorithmes universels pour résoudre des problèmes de calcul, il doit alors exister des dispositifs (bien qu'abstraits) pour la mise en œuvre de tels algorithmes. En fait, la machine abstraite de Turing, considérée dans la théorie des algorithmes, est en même temps un automate défini de manière informelle. La justification théorique de la construction de tels dispositifs fait l'objet de la théorie des automates. La théorie des automates utilise l'appareil des théories mathématiques - algèbre, logique mathématique, analyse combinatoire, théorie des graphes, théorie des probabilités, etc. La théorie des automates, ainsi que la théorie des algorithmes , est la principale base théorique pour la création d'ordinateurs électroniques et de systèmes de contrôle automatisés. La sémiotique est un complexe de théories scientifiques qui étudient les propriétés des systèmes de signes. Les résultats les plus significatifs ont été obtenus dans le domaine de la sémiotique – la sémantique. Le sujet de la recherche en sémantique est le contenu sémantique de l'information.


Un système de signes est un système d'objets concrets ou abstraits (signes, mots), à chacun desquels une certaine valeur est associée d'une certaine manière. En théorie, il est prouvé qu’il peut y avoir deux comparaisons de ce type. Le premier type de correspondance définit directement l'objet matériel qui désigne ce mot et est appelé la dénotation (ou, dans certains ouvrages, le candidat). Le deuxième type de correspondance détermine la signification du signe (mot) et s'appelle le concept. Dans le même temps, des propriétés de comparaison telles que le « sens », la « vérité », la « définissabilité », le « suivi », « l'interprétation », etc. sont étudiées. Pour la recherche, l'appareil de logique mathématique et de linguistique mathématique est utilisé. de Saussure au XIXe siècle, formulée et développée par C. Pierce (1839-1914), C. Morris (né en 1901), R. Carnap (1891-1970) et d'autres. La principale réalisation de la théorie est la création d'une appareil d'analyse sémantique qui permet de représenter la signification d'un texte dans une langue naturelle comme un enregistrement dans un langage sémantique (sémantique) formalisé. L'analyse sémantique est la base de la création de dispositifs (programmes) traduction automatique d'une langue naturelle à une autre.

Les informations sont stockées au moyen de leur transfert vers certains supports matériels. Les informations sémantiques enregistrées sur un support de stockage matériel sont appelées un document. L’humanité a appris à stocker des informations depuis très longtemps. Dans les formes les plus anciennes de stockage d'informations, la disposition des objets était utilisée - des coquillages et des pierres sur le sable, des nœuds sur une corde. Un développement important de ces méthodes a été l'écriture - une représentation graphique de symboles sur pierre, argile, papyrus, papier. L'invention de l'imprimerie a été d'une grande importance dans le développement de cette direction. Tout au long de son histoire, l’humanité a accumulé une énorme quantité d’informations dans les bibliothèques, les archives, les périodiques et autres documents écrits.


Actuellement sens spécial reçu le stockage d'informations sous forme de séquences de caractères binaires. Pour mettre en œuvre ces méthodes, divers périphériques de stockage sont utilisés. Ils constituent le maillon central des systèmes de stockage d’informations. En plus d'eux, ces systèmes utilisent des outils de recherche d'informations ( système de recherche), les moyens d'obtention d'informations (systèmes d'information et de référence) et les moyens d'affichage d'informations (dispositif de sortie). Constitués en fonction de la finalité de l'information, ces systèmes d'information constituent des bases de données, des banques de données et une base de connaissances.

Le transfert d'informations sémantiques est le processus de son transfert spatial de la source au destinataire (destinataire). L'homme a appris à transmettre et à recevoir des informations avant même de les stocker. La parole est un mode de transmission que nos lointains ancêtres utilisaient par contact direct (conversation) - nous l'utilisons encore aujourd'hui. Pour transmettre des informations sur de longues distances, il est nécessaire d'utiliser des processus d'information beaucoup plus complexes. Pour mettre en œuvre un tel processus, l'information doit être formalisée (présentée) d'une manière ou d'une autre. Pour représenter l'information, divers systèmes de signes sont utilisés - des ensembles de symboles sémantiques prédéterminés : objets, images, mots écrits ou imprimés d'une langue naturelle. Présenté avec leur aide informations sémantiques sur tout objet, phénomène ou processus est appelé un message.


Évidemment, pour transmettre un message à distance, les informations doivent être transférées vers un opérateur de téléphonie mobile. Les transporteurs peuvent se déplacer dans l'espace à l'aide de véhicules, comme c'est le cas des lettres envoyées par courrier. Cette méthode garantit une fiabilité totale de la transmission des informations, puisque le destinataire reçoit le message original, mais nécessite un temps de transmission important. Depuis le milieu du XIXe siècle, les méthodes de transmission d'informations se sont généralisées, utilisant un support d'information à propagation naturelle : les oscillations électromagnétiques (oscillations électriques, ondes radio, lumière). La mise en œuvre de ces méthodes nécessite :

Transfert préliminaire des informations contenues dans le message au transporteur - encodage ;

Assurer la transmission du signal ainsi obtenu au destinataire via un canal de communication spécial ;

Conversion inverse du code de signal en code de message - décodage.

L'utilisation de supports électromagnétiques rend la transmission d'un message au destinataire presque instantanée, mais elle nécessite des mesures supplémentaires pour garantir la qualité (fiabilité et exactitude) des informations transmises, car les véritables canaux de communication sont soumis à des interférences naturelles et artificielles. Appareils qui mettent en œuvre le processus de transmission de données sous forme de systèmes de communication. Selon la méthode de présentation de l'information, les systèmes de communication peuvent être divisés en systèmes de signalisation (télégraphe, télécopie), sonore (téléphone), vidéo et systèmes combinés (télévision). Le système de communication le plus développé à notre époque est Internet.

Traitement de l'information

L'information n'étant pas matérielle, son traitement consiste en diverses transformations. Les processus de traitement incluent tout transfert d'informations d'un support vers un autre support. Les informations à traiter sont appelées données. Le principal type de traitement des informations primaires reçues par divers appareils est la transformation en une forme qui assure sa perception par les sens humains. Ainsi, les photographies spatiales obtenues aux rayons X sont converties en photographies couleur ordinaires à l'aide de convertisseurs de spectre et de matériel photographique spéciaux. Les appareils de vision nocturne convertissent une image obtenue dans les rayons infrarouges (thermiques) en une image dans le domaine visible. Pour certaines tâches de communication et de contrôle, il est nécessaire de convertir des informations analogiques. Pour cela, des convertisseurs de signaux analogique-numérique et numérique-analogique sont utilisés.


Le type le plus important de traitement de l'information sémantique est la détermination de la signification (contenu) contenue dans un certain message. Contrairement aux informations sémantiques primaires, elles n'ont pas de caractéristiques statistiques, c'est-à-dire une mesure quantitative - soit il y a un sens, soit il n'y en a pas. Et quelle proportion, le cas échéant, est impossible à établir. Le sens contenu dans le message est décrit dans un langage artificiel qui reflète les relations sémantiques entre les mots du texte source. Un dictionnaire d'un tel langage, appelé thésaurus, réside dans le destinataire du message. Le sens des mots et des phrases du message est déterminé en les référant à certains groupes de mots ou de phrases dont le sens a déjà été établi. Le thésaurus permet ainsi d'établir le sens du message et, en même temps, se reconstitue de nouveaux concepts sémantiques. Le type de traitement de l'information décrit est utilisé dans les systèmes de recherche d'informations et les systèmes de traduction automatique.


L'un des types de traitement de l'information les plus répandus est la solution de problèmes informatiques et de problèmes contrôle automatique avec l'aide des ordinateurs. Le traitement des informations est toujours effectué dans un but précis. Pour y parvenir, il faut connaître l’ordre des actions sur l’information, conduisant à un objectif donné. Cette procédure s'appelle un algorithme. En plus de l'algorithme lui-même, vous avez également besoin d'un appareil qui implémente cet algorithme. Dans les théories scientifiques, un tel dispositif est appelé automate. Il convient de noter comme caractéristique la plus importante de l'information qui, en raison de l'asymétrie échange d'informations Lorsque les informations sont traitées, de nouvelles informations sont générées et les informations d'origine ne sont pas perdues.

Informations analogiques et numériques

Le son est constitué de vibrations ondulatoires dans un milieu tel que l'air. Lorsqu'une personne parle, les vibrations des ligaments de la gorge sont converties en vibrations ondulatoires de l'air. Si nous considérons le son non pas comme une onde, mais comme des oscillations en un point, alors ces oscillations peuvent être représentées comme une pression atmosphérique changeant au fil du temps. Un microphone peut capter les changements de pression et les convertir en tension électrique. Il y a eu une transformation de la pression atmosphérique en fluctuations de tension électrique.


Une telle transformation peut se produire selon diverses lois, le plus souvent la transformation se produit selon une loi linéaire. Par exemple, comme ceci :

U(t)=K(P(t)-P_0),

où U(t) est la tension électrique, P(t) est la pression atmosphérique, P_0 est la pression atmosphérique moyenne et K est le facteur de conversion.

La tension électrique et la pression atmosphérique sont des fonctions continues dans le temps. Les fonctions U(t) et P(t) renseignent sur les vibrations des ligaments de la gorge. Ces fonctions sont continues et ces informations sont appelées analogiques. La musique est un cas particulier du son et elle peut également être représentée comme une fonction du temps. Ce sera représentation analogique musique. Mais la musique est aussi enregistrée sous forme de notes. Chaque note a une durée qui est un multiple d'une durée prédéterminée et une hauteur (do, re, mi, fa, sol, etc.). Si ces données sont converties en nombres, nous obtenons alors une représentation numérique de la musique.


La parole humaine est également un cas particulier de son. Il peut également être représenté sous forme analogique. Mais tout comme la musique peut être décomposée en notes, la parole peut être décomposée en lettres. Si chaque lettre reçoit son propre ensemble de chiffres, alors nous obtiendrons une représentation numérique de la parole. La différence entre les informations analogiques et les informations numériques est que les informations analogiques sont continues, tandis que les informations numériques sont discrètes. La transformation de l'information d'un type en une autre, selon le type de transformation, est appelée différemment : simplement « conversion », comme la conversion numérique-analogique, ou la conversion analogique-numérique ; les transformations complexes sont appelées « codage », par exemple codage delta, codage entropique ; la transformation entre des caractéristiques telles que l'amplitude, la fréquence ou la phase est appelée « modulation », par exemple modulation amplitude-fréquence, modulation de largeur d'impulsion.

Habituellement, les conversions analogiques sont assez simples et peuvent être facilement réalisées par divers appareils inventés par l'homme. Un magnétophone convertit la magnétisation d'un film en son, un enregistreur vocal convertit le son en magnétisation d'un film, une caméra vidéo convertit la lumière en magnétisation d'un film, un oscilloscope convertit la tension ou le courant électrique en une image, etc. La conversion d'informations analogiques en données numériques est beaucoup plus difficile. Certaines transformations ne peuvent pas être effectuées par la machine ou peuvent être réalisées avec de grandes difficultés. Par exemple, convertir une parole en texte, ou convertir un enregistrement de concert en partition, et même par nature en représentation numérique : il est très difficile pour une machine de convertir un texte sur papier en le même texte dans la mémoire d'un ordinateur.

Pourquoi alors recourir à la représentation numérique de l’information, si c’est si difficile ? Le principal avantage de l’information numérique par rapport à l’analogique est l’immunité au bruit. Autrement dit, en train de copier des informations informations numériques est copié tel quel, il peut être copié presque un nombre infini de fois, tandis que les informations analogiques deviennent bruyantes lors de la copie, leur qualité se détériore. Habituellement, les informations analogiques ne peuvent pas être copiées plus de trois fois. Si vous disposez d'un magnétophone à deux cassettes, vous pouvez faire une telle expérience, essayez de copier la même chanson plusieurs fois d'une cassette à l'autre, après quelques réenregistrements de ce type. vous remarquerez à quel point la qualité d’enregistrement s’est détériorée. Les informations sur la cassette sont stockées sous forme analogique. Vous pouvez réécrire de la musique au format mp3 autant de fois que vous le souhaitez et la qualité de la musique ne se détériore pas. Les informations contenues dans un fichier mp3 sont stockées dans forme numérique.

Quantité d'informations

Une personne ou un autre destinataire d'informations, ayant reçu une partie de l'information, résout une certaine incertitude. Prenons un arbre comme exemple. Lorsque nous avons vu l’arbre, nous avons résolu un certain nombre d’incertitudes. Nous avons appris la hauteur de l'arbre, le type d'arbre, la densité du feuillage, la couleur des feuilles, et s'il s'agit d'un arbre fruitier, alors nous avons vu les fruits dessus, leur maturité, etc. Avant de regarder l'arbre, nous ne savions pas tout cela, après avoir regardé l'arbre, nous avons résolu l'incertitude - nous avons obtenu des informations.


Si nous allons dans le pré et l’observons, nous obtiendrons un autre type d’informations : quelle est la taille du pré, quelle est la hauteur de l’herbe et quelle est sa couleur. Si un biologiste entre dans la même prairie, il pourra, entre autres, découvrir : quelles variétés d'herbe poussent dans la prairie, de quel type de prairie il s'agit, il verra quelles fleurs ont fleuri, lesquelles vont juste fleurir , si la prairie est adaptée au pâturage des vaches, etc. Autrement dit, il recevra plus d'informations que nous, puisqu'il avait plus de questions avant de regarder la prairie, le biologiste résoudra plus d'incertitudes.

Plus l'incertitude était résolue lors du processus d'obtention d'informations, plus nous recevions d'informations. Mais il s’agit d’une mesure subjective de la quantité d’informations, et nous aimerions avoir une mesure objective. Il existe une formule pour calculer la quantité d'informations. Nous avons une certaine incertitude, et nous avons un N-ème nombre de cas de résolution d'incertitude, et chaque cas a une certaine probabilité de résolution, alors la quantité d'informations reçues peut être calculée à l'aide de la formule suivante que Shannon nous a suggérée :

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), où

I est la quantité d'informations ;

N est le nombre de résultats ;

p_1, p_2, ..., p_N - probabilités de résultat.

La quantité d'informations est mesurée en bits - une abréviation des mots anglais BInary digiT, qui signifie un chiffre binaire.

Pour événements tout aussi probables la formule peut être simplifiée :

I = \log_(2)N, où

I est la quantité d'informations ;

N est le nombre de résultats.

Prenez, par exemple, une pièce de monnaie et jetez-la sur la table. Il atterrira sur pile ou sur face. Nous avons 2 événements également probables. Après avoir lancé une pièce de monnaie, nous avons obtenu \log_(2)2=1 bit d'information.

Essayons de découvrir la quantité d'informations que nous obtenons après avoir lancé le dé. Le cube a six faces – six événements équiprobables. On obtient : \log_(2)6 \approx 2.6. Après avoir lancé le dé sur la table, nous avons obtenu environ 2,6 bits d’informations.


La chance de voir un dinosaure martien lorsque nous quittons notre maison est d’une sur dix sur un milliard. Quelle quantité d’informations obtiendrons-nous sur le dinosaure martien après avoir quitté la maison ?

-\left(((1 \over (10^(10))) \log_2(1 \over (10^(10))) + \left(( 1 - (1 \over (10^(10))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \environ 3,4 \cdot 10^(-9) bits.

Supposons que nous lancions 8 pièces. Nous avons 2 ^ 8 options de dépôt de pièces. Ainsi, après avoir lancé des pièces, nous obtenons \log_2(2^8)=8 bits d'information.

Lorsque nous posons une question et que nous sommes également susceptibles d’obtenir une réponse par oui ou par non, après avoir répondu à la question, nous obtenons une information.


Étonnamment, si nous appliquons la formule de Shannon aux informations analogiques, nous obtenons alors une quantité infinie d’informations. Par exemple, la tension en un point d’un circuit électrique peut prendre une valeur équiprobable comprise entre zéro et un volt. Le nombre de résultats que nous avons est infini, et en substituant cette valeur dans la formule des événements équiprobables, nous obtenons l'infini – une quantité infinie d'informations.

Je vais maintenant vous montrer comment encoder "Guerre et Paix" avec une seule encoche sur n'importe quelle tige métallique. Codons toutes les lettres et signes trouvés dans "Guerre et Paix" en utilisant des nombres à deux chiffres - ils devraient nous suffire. Par exemple, nous donnerons à la lettre « A » le code « 00 », à la lettre « B » - le code « 01 », et ainsi de suite, nous encoderons les signes de ponctuation, les lettres latines et les chiffres. Recodons "Guerre et Paix" en utilisant ce code et obtenons un nombre long, par exemple, 70123856383901874..., ajoutons une virgule et un zéro avant ce nombre (0,70123856383901874...). Le résultat est un nombre de zéro à un. Mettons un risque sur une tige métallique pour que le rapport du côté gauche de la tige à la longueur de cette tige soit exactement égal à notre nombre. Ainsi, si nous voulons soudainement lire Guerre et Paix, nous mesurons simplement le côté gauche de la tige aux risques et la longueur de la tige entière, divisons un chiffre par un autre, récupérons le chiffre et le recodons en lettres (« 00 » à « A », « 01 » à « B », etc.).

En réalité, nous ne pourrons pas le faire, puisque nous ne pourrons pas déterminer les longueurs avec une précision infinie. Certains problèmes d'ingénierie nous empêchent d'augmenter la précision des mesures, et la physique quantique nous montre qu'au-delà d'une certaine limite, les lois quantiques vont déjà interférer avec nous. Intuitivement, nous comprenons que plus la précision des mesures est faible, moins nous recevons d’informations, et plus la précision des mesures est grande, plus nous recevons d’informations. La formule de Shannon ne convient pas pour mesurer la quantité d'informations analogiques, mais il existe d'autres méthodes pour cela, qui sont discutées dans la théorie de l'information. DANS la technologie informatique un peu correspond à l'état physique du support d'information : magnétisé - non magnétisé, il y a un trou - pas de trou, chargé - non chargé, réfléchit la lumière - ne réfléchit pas la lumière, potentiel électrique élevé - potentiel électrique faible. Dans ce cas, un état est généralement désigné par le chiffre 0, et l'autre par le chiffre 1. Toute information peut être codée par une séquence de bits : texte, image, son, etc.


Avec un bit, une valeur appelée octet est souvent utilisée, elle est généralement égale à 8 bits. Et si le bit vous permet de choisir une option également probable sur deux possibles, alors l'octet est 1 sur 256 (2 ^ 8). Pour mesurer la quantité d'informations, il est également d'usage d'utiliser des unités plus grandes :

1 Ko (un kilo-octet) 210 octets = 1 024 octets

1 Mo (un mégaoctet) 210 Ko = 1 024 Ko

1 Go (un gigaoctet) 210 Mo = 1 024 Mo

En réalité, les préfixes SI kilo-, méga-, giga- devraient être utilisés respectivement pour les facteurs de 10^3, 10^6 et 10^9, mais la pratique consistant à utiliser des facteurs avec des puissances de deux s'est historiquement développée.


Un bit de Shannon et un bit d'ordinateur sont identiques si les probabilités qu'un zéro ou un un se produise dans un bit d'ordinateur sont égales. Si les probabilités ne sont pas égales, alors la quantité d'informations selon Shannon devient moindre, nous l'avons vu dans l'exemple du dinosaure martien. La quantité d’informations informatiques donne une estimation supérieure de la quantité d’informations. Une fois mise sous tension, la mémoire volatile est généralement initialisée avec une certaine valeur, par exemple uniquement des uns ou uniquement des zéros. Il est clair qu'une fois la mémoire alimentée, il n'y a aucune information, puisque les valeurs dans les cellules mémoire sont strictement définies, il n'y a aucune incertitude. La mémoire peut stocker une certaine quantité d’informations, mais une fois alimentée, elle ne contient aucune information.

La désinformation est une information délibérément fausse fournie à un adversaire ou à un partenaire commercial pour une conduite plus efficace des hostilités, une coopération, une vérification des fuites d'informations et de la direction de ces fuites, l'identification de clients potentiels du marché noir. En outre, la désinformation (également mal informée) est le processus de manipulation de l'information. lui-même, tels que : induire quelqu'un en erreur en fournissant des informations incomplètes ou complètes, mais qui ne sont plus nécessaires, déformer le contexte, déformer une partie de l'information.


Le but d'un tel impact est toujours le même : l'adversaire doit agir comme il est nécessaire pour le manipulateur. L'acte de l'objet contre lequel est dirigée la désinformation peut consister à prendre la décision nécessaire au manipulateur ou à refuser de prendre une décision défavorable au manipulateur. Mais dans tous les cas, le but ultime est l’action qui sera entreprise par l’adversaire.

La désinformation est donc un produit de l’activité humaine, une tentative de créer une fausse impression et, par conséquent, de pousser aux actions souhaitées et/ou à l’inaction.

Types de désinformation :

Induire en erreur une personne ou un groupe de personnes spécifique (y compris une nation entière) ;

Manipulation (par les actions d'une personne ou d'un groupe de personnes) ;

Créer l'opinion publique sur un problème ou un objet.

La fausse déclaration n’est rien d’autre qu’une pure tromperie, la fourniture de fausses informations. La manipulation est une méthode d'influence visant directement à changer la direction de l'activité des personnes. Il existe les niveaux de manipulation suivants :

Renforcer les valeurs (idées, attitudes) qui existent dans l'esprit des personnes et qui sont bénéfiques pour le manipulateur ;

Changement partiel de point de vue sur un événement ou une circonstance particulière ;

Un changement radical dans les attitudes de vie.

La création de l'opinion publique est la formation dans la société d'une certaine attitude envers le problème choisi.


Sources et liens

en.wikipedia.org - l'encyclopédie gratuite Wikipédia

youtube.com - Hébergement de vidéos YouTube

images.yandex.ua - Images Yandex

google.com.ua - google photos

fr.wikibooks.org - wikibook

inf1.info – Planète de l'informatique

old.russ.ru – Journal russe

shkolo.ru - Guide d'information

5byte.ru - Site informatique

ssti.ru – Technologies de l'information

klgtu.ru - Informatique

informatika.sch880.ru - site Web du professeur d'informatique O.V. Podvintseva

bibliofond.ru - bibliothèque électronique Bibliofond

life-prog.ru - programmation

Les propriétés de l'information ne sont rien d'autre que des signes d'information - ses caractéristiques qualitatives.

Ces propriétés sont étroitement liées :

  • objectivité - subjectivité,
  • crédibilité, manque de fiabilité
  • complétude - incomplétude,
  • pertinence - non-pertinence,
  • valeur - inutilité,
  • l'intelligibilité est l'incompréhensibilité.

Objectivité. L'information est objective si elle ne dépend de l'opinion ou du jugement de personne.

Exemple. Le message « Il fait chaud dehors » véhicule des informations subjectives, et le message « Il fait 22 degrés Celsius dehors » - des informations objectives (si le thermomètre fonctionne). Des informations objectives peuvent être obtenues à l'aide de capteurs et d'instruments de mesure en bon état. Mais, reflétée dans l'esprit d'une personne particulière, l'information cesse d'être objective et devient subjective, car elle se transforme en fonction de l'opinion, du jugement, de l'expérience, de la connaissance d'un sujet particulier.

Fiabilité. L’information est fiable si elle reflète la véritable situation.

Exemple. Lors d'une conversation téléphonique, le bruit gêne l'audition de l'interlocuteur, ce qui rend impossible la perception précise de l'information, auquel cas l'information ne sera pas fiable. Les informations objectives sont toujours fiables ; mais les informations fiables peuvent être à la fois objectives et subjectives. Des informations fiables nous aident à prendre la bonne décision. Des informations inexactes peuvent être dues aux raisons suivantes :

  • distorsion délibérée (désinformation) ;
  • distorsion due à des interférences (« téléphone endommagé ») ;
  • distorsion involontaire (rumeurs, histoires, histoires de pêche).

exhaustivité. L'information peut être qualifiée de complète si elle est suffisante pour comprendre la situation et prendre une décision. Par exemple, le rêve d'un historien est d'avoir des informations complètes sur les époques passées. Mais l’information historique n’est jamais complète, et l’exhaustivité de l’information diminue à mesure que l’époque historique s’éloigne de nous. Même les événements qui se sont déroulés sous nos yeux sont entièrement documentés, beaucoup de choses sont oubliées et les souvenirs sont déformés. Des informations incomplètes peuvent conduire à une conclusion ou une décision erronée.

Pertinence(l'actualité) de l'information est importante, sa matérialité pour le moment présent.

Exemple. Le message « Il pleut dehors maintenant » est pertinent pour une personne qui s'apprête à sortir, et non pertinent pour une personne qui s'apprête à rester à la maison. Seules des informations reçues en temps opportun peuvent apporter les bénéfices nécessaires, tels que des alertes concernant les tremblements de terre, les ouragans et autres catastrophes naturelles. Les informations non pertinentes peuvent être pour deux raisons : elles peuvent être obsolètes (le journal de l'année dernière) ou insignifiantes, inutiles (par exemple, un message indiquant que les prix en Italie ont été réduits de 5 %).

Utilité ou inutilité. Puisqu'il n'y a pas de frontière entre ces concepts, nous devrions parler du degré d'utilité par rapport aux besoins de personnes spécifiques. L'utilité de l'information est évaluée par les tâches que nous pouvons résoudre avec son aide.

Exemple. Le message « Demain, il y aura un contrôle de mathématiques » est utile pour l'élève - il peut se préparer, et cela lui est inutile s'il a de la fièvre et ne va pas à l'école.

Les informations les plus précieuses pour nous sont très utiles, complètes, objectives et fiables. Dans le même temps, gardons en compte qu'un petit pourcentage d'informations inutiles est même utile, vous permettant de vous détendre sur des sections non informatives du texte. Et les informations les plus complètes et les plus fiables ne peuvent pas être nouvelles.

Clarté. Les informations sont compréhensibles si elles sont exprimées dans un langage compréhensible pour le destinataire.

Exemple. Une notation musicale pour un étudiant d'une école de musique contient des informations claires. Mais pour un étudiant peu familier avec la notation musicale, cette information sera tout simplement incompréhensible.

DISPOSITIONS GÉNÉRALES

Chapitre 1. Le droit de l'information en tant que branche du droit

La création de technologies de l'information modernes et complexes d'une nouvelle génération a ouvert des possibilités presque illimitées à la société et à l'État pour obtenir et utiliser l'information. En conséquence, l'information est devenue la ressource la plus importante de l'État, avec ses autres ressources principales - naturelles, économiques, professionnelles et matérielles.

Dans la littérature philosophique, une tradition stable s'est développée pour considérer l'information sur la base des catégories philosophiques de réflexion et de différence (diversité). L'information n'existe pas sans réflexion, tout comme la réflexion sans information. La propriété de réflexion réside dans la capacité de tout objet à reproduire certaines caractéristiques des objets agissant sur lui. Cependant, pour définir la notion d’information, une seule catégorie de réflexion ne suffit pas. L'information n'a lieu que là où, parmi certaines identités, il existe une certaine différence. L'unité de mesure de l'information peut être considérée comme une différence élémentaire, c'est-à-dire différence entre deux objets dans une même propriété fixe. Plus il y a d’éléments différents les uns des autres dans l’agrégat, plus cet agrégat contient d’informations. Ainsi, l'information en philosophie est définie comme une variété réfléchie, à savoir la variété que l'objet réfléchissant contient du réfléchi.

ressortir quatre types de réflexion: dans la nature naturelle inanimée (réflexion élémentaire), dans la nature vivante (réflexion biologique), dans la société (réflexion sociale) et dans la nature artificielle.

Les principales formes de réflexion correspondent à quatre types d'informations:

- élémentaire (dans la nature inanimée) ;

– biologique (dans les objets de la faune) ;

- social (dans la société) ;

– techno-cybernétique (dans les appareils automatisés).

Comme I.A. Yurchenko, la particularité de l'information est qu'elle ne peut être imaginée sans aucune base matérielle, c'est un attribut (propriété) de la matière et en est inséparable. Même lorsque l'information est réfléchie par la conscience d'une personne, elle n'existe qu'en unité avec certains processus neurophysiologiques, c'est-à-dire possède son propre support matériel. Il convient de noter que dans la vision idéaliste, l'information peut exister de manière indépendante, sans support, par exemple l'âme humaine, le champ d'information de la Terre, etc.

L'information sociale est une information obtenu et utilisé par des personnes. Il existe sous deux formes : matérielle et idéale. L’information sociale matérielle est une information « potentielle » qui existe comme une « chose en soi ». Il est présent dans les objets qui ont subi un impact humain (par exemple, la technologie, d'autres objets créés par l'homme, de nouvelles variétés de plantes et de races animales, etc.). Les informations qu'une personne extrait de l'environnement et affiche avec sa conscience se transforment en informations sociales idéales.



L’information sociale idéale est le contenu perçu d'un message concernant un fait particulier, transmis par un individu ou un groupe d'entre eux sous forme verbale ou sous tout autre signe ou forme figurative à un autre individu ou groupe d'entre eux. C'est ce type d'informations sociales qui fait l'objet d'une réglementation légale. Autrement dit, la réglementation juridique de l'information en tant qu'objet n'est possible que si cette information est affichée par une personne.

A la fin des années 50. l'un des fondateurs de la cybernétique, N. Winner, a défini l'information comme « une désignation du contenu reçu du monde extérieur dans le processus de notre adaptation à celui-ci et de l'adaptation de nos sentiments à celui-ci ». Le processus d'obtention et d'utilisation de l'information est le processus de notre adaptation aux contingences de l'environnement extérieur et de notre activité de vie dans cet environnement. Dans cette définition, le scientifique aborde pour la première fois le problème de l'incomplétude des informations reçues par l'individu, d'une part, et d'autre part, la nécessité de protéger les informations des « accidents de l'environnement extérieur ».

Le développement des technologies de l'information nécessite une amélioration intensive du cadre législatif et introduit dans la sphère juridique des concepts auparavant utilisés en cybernétique et en informatique.

De plus, pour que les informations soient soumises à une réglementation légale, elles doivent posséder les propriétés dites juridiques appropriées.

Les propriétés juridiques des informations sont les suivantes.

1. Inaliénabilité physique - les informations ne peuvent être séparées du support matériel. Par exemple, si une personne a composé un poème ou écrit une histoire et souhaite le vendre, cette information ne lui disparaîtra pas après la transaction, comme si elle avait vendu une voiture ou une garde-robe ; ainsi, l'aliénation de l'information est remplacée par le transfert des droits d'utilisation.

2. Isolement - les informations à inclure dans la circulation civile sont utilisées sous forme de symboles, de signes, elles sont donc isolées du fabricant et existent séparément.

3. La double unité de l'information et du support réside dans le fait que l'information est une chose sur un support matériel.

4. Distribution (réplicabilité) - la capacité de distribuer un nombre illimité de copies sans modifier le contenu de l'information.

5. Forme organisationnelle l'information est un document.

6. Instance - l'existence d'informations sur un support matériel distinct, d'où la comptabilisation du nombre de copies par la comptabilisation du nombre de supports.

Bien entendu, le concept juridique d’information est un peu plus étroit que le concept philosophique. Oui, l'art. 2 de la loi fédérale du 20 février 1995 n° 24-FZ « sur l'information, l'informatisation et la protection de l'information » donne la définition suivante : « L'information est une information sur des personnes, des objets, des faits, des événements, des phénomènes et des processus, quelle que soit la forme. de leur présentation » . Nouveau la loi fédérale N° 149-ФЗ du 27 juillet 2006 « Sur l'information, les technologies de l'information et la protection de l'information » (ci-après dénommée la loi sur l'information) à l'art. 2 a élargi le concept d'« information » : « L'information est une information (messages, données) quelle que soit la forme de leur présentation). Dans le contexte ci-dessus, le terme « information » devient universel, il désigne toute information sur quelqu'un ou quelque chose, obtenue de n'importe quelle source sous quelque forme : écrite, orale, visuelle, etc. Dans cette définition, l'information est comprise comme des objets réels de la vie sociale : personnes, objets, faits, événements, phénomènes, processus. Ces informations peuvent servir à la fois d'objet de connaissance et de ressource de réapprovisionnement. base d'informations: d'une part, l'information peut être obtenue à la suite d'une étude de la réalité environnante et rattachée à un système objectif de connaissance du monde déjà existant, et d'autre part, elle peut faire l'objet d'une recherche menée par un consommateur spécifique pour atteindre ses objectifs.

La plupart des scientifiques renoncent aujourd’hui à donner une définition stricte de l’information et estiment que l’information doit être considérée comme un concept primaire et indéfinissable, à l’instar d’un ensemble en mathématiques. Certains auteurs de manuels proposent les définitions suivantes de l’information :

Information est une connaissance ou une information sur quelqu'un ou quelque chose.

Information- il s'agit d'informations qui peuvent être collectées, stockées, transmises, traitées, utilisées.

Informatique - la science de l'information

C'est la science de la structure et des propriétés de l'information, des méthodes de collecte, de traitement et de transmission de l'information.

L'informatique étudie la technologie de collecte, de stockage et de traitement de l'information, et l'ordinateur est le principal outil de cette technologie.

Le terme information vient du mot latin informatio qui signifie information, clarification, présentation. À l'heure actuelle, la science tente de trouver des propriétés et des modèles communs inhérents au concept multiforme d'information, mais jusqu'à présent, ce concept reste largement intuitif et reçoit divers contenus sémantiques dans diverses branches de l'activité humaine :

1. Dans la vie de tous les jours, une information désigne toute donnée, information, connaissance qui intéresse quelqu'un. Par exemple, un message sur des événements, sur les activités de quelqu'un, etc. ;

2. En technologie, l'information s'entend comme des messages transmis sous forme de signes ou de signaux (dans ce cas, il existe une source de messages, un destinataire (destinataire) de messages, un canal de communication) ;

Signal- un moyen de transférer des informations. Il s'agit d'un processus physique qui a une valeur informative. Elle peut être continue ou discrète.
Un signal est dit discret s'il ne peut prendre qu'un nombre fini de valeurs à un nombre fini de fois.

Signal analogique- un signal qui varie continuellement en amplitude et dans le temps.
Signaux porteurs d'informations textuelles et symboliques, discret.
Les signaux analogiques sont utilisés dans communication téléphonique, radiodiffusion, télévision.

Il est inutile de parler de l'information en général, et non par rapport à l'un de ses types spécifiques.

Vous pouvez le classer :

Par la perception (visuelle, tactile, etc.) ;

Par la forme de présentation (texte, numérique, graphique, etc.) ;

Par signification sociale (de masse, spéciale, personnelle).

Données- présentation de faits et d'idées sous une forme formalisée adaptée à la transmission et au traitement dans certains processus d'information.

Initialement - valeurs données, c'est-à-dire des valeurs données à l'avance, ainsi que l'état du problème. Le contraire est variables.

En informatique, les données sont le résultat de la fixation, de l'affichage d'informations sur un support matériel, c'est-à-dire d'une représentation d'informations enregistrées sur le support, que ces informations soient ou non parvenues à un destinataire et qu'elles l'intéressent.

Il existe deux manières traditionnelles d'organiser les données :

- données texte (dans système de fichiers: fichier texte, en programmation : type de données chaîne) est une séquence de caractères alphabétiques représentée comme un encodage.

Les données binaires sont une séquence d'octets. L'organisation « binaire » n'est pas une manière d'organiser les données en soi, mais seulement un terme qui regroupe des formats (formes d'organisation) autres que le texte.

Peut inclure une variété d'éléments tels que du code machine (ou autre exécutable), des données numériques, des codes conditionnels, des bitmaps, l'emplacement d'autres données, des extraits de texte (voir ci-dessus), des données compressées et aléatoires.

Informations et ses propriétés

Les objets du monde matériel sont dans un état de changement continu, qui s'accompagne d'un échange d'énergie. Toutes les espèces s'accompagnent de l'apparition de signaux. Lorsque les signaux interagissent avec des corps physiques, certains changements de propriétés se produisent dans ces derniers - ce phénomène est appelé enregistrement du signal.

Les données sont des signaux enregistrés.

Information- il s'agit d'informations sur les objets et phénomènes de l'environnement, leurs paramètres, propriétés et états, qui réduisent le degré d'incertitude et le caractère incomplet des connaissances. Les données peuvent être considérées comme des observations enregistrées qui ne sont pas utilisées, mais qui sont néanmoins stockées.

Propriétés de l'information qui déterminent ses qualités

La qualité de l'information s'entend comme la mesure dans laquelle elle répond aux besoins des consommateurs. Les propriétés de l'information sont relatives, car elles dépendent des besoins du consommateur d'information. On distingue les propriétés suivantes caractérisant la qualité de l'information :

  • Objectivité l'information caractérise son indépendance par rapport à l'opinion ou à la conscience de quiconque, ainsi que par rapport aux méthodes d'obtention. Plus objectives sont les informations dans lesquelles les méthodes d'obtention et de traitement introduisent un élément de subjectivité moindre.
  • exhaustivité. L'information peut être considérée comme complète lorsqu'elle contient un ensemble minimum mais suffisant d'indicateurs pour prendre la bonne décision. Les informations incomplètes et redondantes réduisent l’efficacité des décisions fondées sur l’information.
  • Fiabilité- la propriété de l'information d'être correctement perçue. Les informations objectives sont toujours fiables, mais les informations fiables peuvent être à la fois objectives et subjectives. Les raisons d’une inexactitude peuvent être :
    • distorsion délibérée (désinformation) ;
    • distorsion involontaire de la propriété subjective ;
    • distorsion due aux interférences ;
    • erreurs de fixation d'informations;

De manière générale, la fiabilité des informations est atteinte :

    • indication de l'heure des événements dont les informations sont transmises ;
    • comparaison de données obtenues à partir de diverses sources ;
    • divulgation en temps opportun de fausses informations ;
    • exclusion des informations déformées, etc.
  • Adéquation- le degré de conformité avec l'état objectif réel des choses.
  • Disponibilité information - une mesure de la capacité d'obtenir telle ou telle information.
  • Pertinence L’information est la mesure dans laquelle l’information correspond au moment présent.

Il est également possible de classer les propriétés de l'information qui caractérisent sa qualité, comme suit [ Akulov O.A., Medvedev N.V. Informatique : cours de base. - M. : Oméga-L, 2004. S. 42.] :

  • Contenu ou qualité intrinsèque (qualité inhérente à l'information elle-même et préservée lors de son transfert d'un système à un autre)
    • Importance (la capacité à conserver de la valeur pour le consommateur au fil du temps)
      • Complétude (une propriété caractérisée par une mesure de sa suffisance pour résoudre certains problèmes)
      • Identité (propriété consistant en la correspondance des informations avec l'état de l'objet)
    • Caractère cumulatif (la propriété des informations contenues dans un tableau d'un petit volume pour refléter pleinement la réalité)
      • Sélectivité
      • Homomorphisme
  • Sécurité ou qualité extrinsèque (la qualité inhérente des informations trouvées ou utilisées uniquement dans un système particulier)
    • Préservation
    • Fiabilité
    • Confidentialité

Opérations sur les données

Pour améliorer la qualité, les données sont converties d'une forme à une autre à l'aide de méthodes de traitement. Le traitement des données comprend les opérations :

1) Saisie des données (collecte) - accumulation de données afin de garantir une exhaustivité suffisante pour la prise de décision

2) Formalisation des données - rassembler des données provenant de différentes sources sous la même forme pour accroître leur accessibilité.

3) Le filtrage des données consiste à éliminer les données « superflues », ce qui n'est pas nécessaire pour accroître la fiabilité et l'adéquation.

4) Le tri des données est le classement des données en fonction d'un attribut donné dans le but d'en faciliter l'utilisation.

5) L'archivage est l'organisation du stockage des données sous une forme pratique et facilement accessible.

6) Protection des données - comprend des mesures visant à empêcher la perte, la reproduction et la modification des données.

7) Transport de données - réception et transmission de données entre les participants au processus d'information.

8) La transformation des données est le transfert de données d'une forme à une autre ou d'une structure à une autre.

Encodage des données

Pour automatiser le travail avec les données liées à différents types, il est nécessaire d'unifier leur forme de représentation - consistant en l'expression de données d'un type, à travers des données d'un autre type. Le code système de la technologie informatique est un codage binaire basé sur la fourniture de données sous la forme de deux caractères consécutifs : 1 et 0. Ces caractères sont appelés chiffres binaires-chiffre binaire ou bit.

Un bit exprime deux concepts : 0 ou 1.

Deux bits - quatre concepts : 00, 01, 10, 11.

Trois bits - huit concepts : 000 001 010 011 100 101 110 111

Une augmentation d'un du nombre de chiffres du système de codage binaire entraîne une augmentation de 2 fois le nombre de valeurs qu'ils peuvent exprimer. La forme générale est N=2 m , où N est le nombre de valeurs codées indépendantes ; m - profondeur de bits du codage binaire.

Codage d'entiers et de nombres réels

Algorithme de conversion de nombres décimaux entiers en binaires : 1) Divisez le nombre par 2. Fixez le quotient restant (0 ou 1).

2) Si le quotient n’est pas égal à zéro, divisez-le par 2, et ainsi de suite. jusqu'à ce que le quotient devienne 0. Si le quotient est 0, notez tous les restes résultants, en commençant par le premier de droite à gauche.

Pour obtenir l'inverse, vous devez additionner les puissances de 2 correspondant aux chiffres non nuls de l'entrée numérique.

Pour le codage d'entiers : 0 à 255 - 8 bits (entrée binaire octale) 0 à 655 - 16 bits 0 à 16,5 millions - 24 bits

Encodage des données texte

Si chaque caractère de l'alphabet est associé à un certain nombre entier ou non entier (par exemple, un numéro de série), alors en utilisant code binaire peut être codé et informations textuelles Et le son. Huit bits suffisent pour coder 256 caractères différents. Pour que le monde entier puisse coder les données textuelles de la même manière, des tables de codage unifiées sont nécessaires, ce qui est encore impossible en raison des contradictions entre les symboles des alphabets nationaux, ainsi que des contradictions d'entreprise.

Pour la langue anglaise, qui s’est de facto accaparée la niche d’un moyen de communication international, les contradictions ont déjà été levées. L'Institut américain de normalisation (ANSI - American National Standard Institute) a introduit le système de codage ASCII (American Standard Code for Information Interchange - le code standard américain pour l'échange d'informations). Deux tables de codage sont fixées dans le système ASCII - de base et étendu. La table de base fixe les valeurs de code de 0 à 127 et la table étendue fait référence aux caractères avec des nombres de 128 à 255. En URSS, le système de codage KOI-7 (code d'échange d'informations à sept chiffres) fonctionnait dans ce domaine. Cependant, le soutien des fabricants de matériel et de logiciels a amené le code ASCII américain au niveau d'un standard international.

Sujet et tâches de l'informatique

L'informatique est une science technique qui systématise les méthodes de création, de stockage, de reproduction, de traitement et de transmission des données au moyen de la technologie informatique, ainsi que les principes de fonctionnement de ces outils et les méthodes de leur gestion.

Le sujet de l'informatique comprend les concepts suivants :

Matériel informatique;

Logiciels pour installations informatiques;

Moyens d'interaction entre le matériel et les logiciels ;

Moyens d'interaction humaine avec le matériel et outils logiciels.

En informatique, une attention particulière est portée aux questions d’interaction. Il existe même un concept spécial pour cela - interface. Les méthodes et moyens d'interaction humaine avec le matériel et les logiciels sont appelés interface utilisateur. En conséquence, il existe des interfaces matérielles, des interfaces logicielles et des interfaces matériel-logiciel.

Dans le cadre de la tâche principale de l'informatique aujourd'hui, on peut distinguer les domaines d'applications pratiques suivants :

Architecture des systèmes informatiques (techniques et méthodes de construction de systèmes conçus pour le traitement automatique des données) ;

Interfaces de systèmes informatiques (techniques et méthodes de gestion du matériel et des logiciels) ;

Programmation (techniques, méthodes et moyens de développement de programmes informatiques) ; "

Transformation des données (techniques et méthodes de transformation des structures de données) ;

Protection des informations (généralisation des techniques, développement de méthodes et moyens de protection des données) ;

Automatisation (fonctionnement des logiciels et du matériel sans intervention humaine) ;

Standardisation (garantir la compatibilité entre le matériel et les logiciels, ainsi qu'entre les formats de présentation des données liés aux différents types de systèmes informatiques).

Liens

  • Informatique, cours de base. Edité par S.V. Simanovitch 2004

Fondation Wikimédia. 2010 .

Voyez ce qu'est « Informations et ses propriétés » dans d'autres dictionnaires :

    Information- (Information) L'information est une information sur quelque chose Le concept et les types d'informations, la transmission et le traitement, la recherche et le stockage d'informations Contenu >>>>>>>>>>>> ... Encyclopédie de l'investisseur

    Information- - tout type de connaissances sur les sujets, faits, concepts, etc. du domaine problématique, qui sont échangées par les utilisateurs Système d'Information. … … Encyclopédie des termes, définitions et explications des matériaux de construction

    information- (de lat. informatio clarification, présentation) 1) une manifestation fondamentale des propriétés dynamiques du monde, sa diversité structurelle, sémantique et qualitative et quantitative ; 2) dans les documentaires, les messages, les informations transmises par les personnes les unes aux autres dans ... ... Grande encyclopédie psychologique

    Informations (du latin informatio - explication, présentation), à l'origine - informations transmises par certaines personnes à d'autres personnes oralement, par écrit ou d'une autre manière (par exemple, à l'aide de signaux conditionnels, en utilisant des techniques ... ... Grande Encyclopédie Soviétique

    Existe., nombre de synonymes : 1 négatif (8) Dictionnaire de synonymes ASIS. V.N. Trishin. 2013... Dictionnaire de synonymes

    - (de lat. informatio clarification, sensibilisation) toute information et donnée reflétant les propriétés des objets dans les domaines naturel (biol., physique., etc.), social et technique. systèmes et transmis par voie sonore, graphique (y compris écrite) ou de toute autre manière sans ... ... Encyclopédie physique

    informations sur le modèle sont des caractéristiques associées au comportement d’un objet. Les informations de modèle sont souvent attribuées par les systèmes de gestion des identités en fonction de la réputation et des itérations récentes, au lieu d'être déterminées par l'entité elle-même. Exemples d’informations sur les modèles… Manuel du traducteur technique

    - (lat. clarification de l'information, présentation, sensibilisation) est l'un des concepts les plus généraux de la science, désignant certaines informations, un ensemble de données, de connaissances, etc. Dans les limites de l'approche cybernétique systémique, I. est considéré dans ... ... Le dernier dictionnaire philosophique

    Souhaitez-vous améliorer cet article ? : Recherchez et fournissez des notes de bas de page pour les références à des sources faisant autorité qui confirment ce qui a été écrit. Ajoutez des illustrations. Ajouter des informations pour d'autres pays et régions... Wikipédia

    En statistiques mathématiques et en théorie de l'information, les informations de Fisher sont la variance de la fonction de contribution de l'échantillon. Cette fonction porte le nom de Ronald Fisher qui l'a décrite. Table des matières 1 Définition 2 Propriétés ... Wikipédia

Livres

  • Propriétés des matériaux de structure de l'industrie nucléaire. Aciers et alliages pour canalisations de centrales nucléaires. Volume 3, Yu. V. Kashirsky. La collection contient des informations sur plus de 40 qualités d'aciers et d'alliages nationaux et 60 étrangers utilisés dans l'industrie électronucléaire. Il discute en détail des caractéristiques et des propriétés...