Maison / Travailler sur Internet / Le volume du message est indiqué par quelle lettre. Unités de mesure de la quantité d'informations. Représentation des caractères en code binaire

Le volume du message est indiqué par quelle lettre. Unités de mesure de la quantité d'informations. Représentation des caractères en code binaire

L'approche alphabétique est utilisée pour mesurer quantité d'informations dans un texte représenté comme une séquence de caractères d'un certain alphabet. Cette approche n'est pas liée au contenu du texte. La quantité d'informations dans ce cas est appelée volume d'information du texte, qui est proportionnel à la taille du texte - le nombre de caractères qui composent le texte. Parfois, cette approche de mesure de l'information est appelée l'approche volumétrique.

Chaque caractère du texte contient une certaine quantité d'informations. Il est appelé symbole information poids. Par conséquent, le volume d'informations du texte est égal à la somme des poids d'informations de tous les caractères qui composent le texte.

Ici, on suppose que le texte est une chaîne consécutive de caractères numérotés. Dans la formule (1) je 1 désigne le poids informationnel du premier caractère du texte, je 2 - le poids informationnel du second caractère du texte, etc. ; K- taille du texte, c'est-à-dire le nombre total de caractères dans le texte.

Tous les nombreux caractères différents utilisés pour écrire des textes, est appelé alphabétiquement. La taille de l'alphabet est un entier appelé le pouvoir de l'alphabet. Il faut garder à l'esprit que l'alphabet comprend non seulement les lettres d'une certaine langue, mais tous les autres caractères pouvant être utilisés dans le texte : chiffres, signes de ponctuation, parenthèses diverses, espaces, etc.

La détermination des poids d'information des symboles peut se faire selon deux approximations :

1) sous l'hypothèse d'une probabilité égale (même fréquence d'occurrence) de tout caractère dans le texte ;

2) en tenant compte de la probabilité différente (fréquence d'occurrence différente) des différents caractères dans le texte.

Approximation de l'égalité de probabilité des caractères dans un texte

Si nous supposons que tous les caractères de l'alphabet dans n'importe quel texte apparaissent avec la même fréquence, alors le poids de l'information de tous les caractères sera le même. Laisser N- pouvoir de l'alphabet. Alors la proportion de n'importe quel caractère dans le texte est 1/ Nème partie du texte. Selon la définition de la probabilité (cf. ) cette valeur est égale à la probabilité d'occurrence d'un caractère à chaque position du texte :

p = 1/N

Selon la formule de K. Shannon (voir. « Mesure de l'information. Approche de contenu »), la quantité d'informations qu'un symbole contient est calculée comme suit :

je = log2(1/ p) = log2 N(bit) (2)

Par conséquent, le poids informationnel du symbole ( je) et la cardinalité de l'alphabet ( N) sont interconnectés par la formule de Hartley (voir " Mesure des informations. Approche de contenu » )

2 je = N

Connaître le poids informationnel d'un caractère ( je) et la taille du texte, exprimée en nombre de caractères ( K), vous pouvez calculer le volume d'informations du texte à l'aide de la formule :

je= K · je (3)

Cette formule est une version particulière de la formule (1), dans le cas où tous les symboles ont le même poids d'information.

De la formule (2) il résulte qu'à N= 2 (alphabet binaire) le poids d'information d'un caractère est de 1 bit.

Du point de vue de l'approche alphabétique de la mesure de l'information1 bit -est le poids informationnel d'un caractère de l'alphabet binaire.

Une plus grande unité d'information est octet.

1 octet -est le poids d'information d'un caractère d'un alphabet avec une puissance de 256.

Depuis 256 \u003d 2 8, la connexion entre un bit et un octet découle de la formule de Hartley :

2 je = 256 = 2 8

D'ici: je= 8 bits = 1 octet

Pour représenter des textes stockés et traités dans un ordinateur, on utilise le plus souvent un alphabet d'une capacité de 256 caractères. Ainsi,
1 caractère d'un tel texte "pese" 1 octet.

En plus du bit et de l'octet, des unités plus grandes sont également utilisées pour mesurer les informations :

1 Ko (kilooctet) = 2 10 octets = 1024 octets,

1 Mo (mégaoctet) = 2 10 Ko = 1024 Ko,

1 Go (gigaoctet) = 2 10 Mo = 1024 Mo.

Approximation des différentes probabilités d'occurrence des caractères dans le texte

Cette approximation tient compte du fait que dans un texte réel, différents caractères apparaissent avec des fréquences différentes. Il s'ensuit que les probabilités d'apparition de différents caractères dans une certaine position du texte sont différentes et, par conséquent, leurs poids d'information sont différents.

L'analyse statistique des textes russes montre que la fréquence de la lettre « o » est de 0,09. Cela signifie que pour 100 caractères, la lettre « o » apparaît en moyenne 9 fois. Le même nombre indique la probabilité que la lettre « o » apparaisse à une certaine position du texte : p o = 0,09. Il s'ensuit que le poids d'information de la lettre "o" dans le texte russe est égal à :

La lettre la plus rare dans les textes est la lettre "f". Sa fréquence est de 0,002. D'ici:

Une conclusion qualitative en découle : le poids informationnel lettres rares plus que le poids des lettres fréquentes.

Comment calculer le volume d'information du texte en tenant compte des différents poids d'information des symboles de l'alphabet ? Cela se fait selon la formule suivante :

Ici N- taille (puissance) de l'alphabet ; New Jersey- nombre de répétitions du numéro de caractère j dans le texte; je j- poids de l'information du numéro de symbole j.

Approche alphabétique dans le cursus d'informatique à la fondation de l'école

Dans le cours d'informatique à l'école primaire, la familiarisation des élèves avec l'approche alphabétique de la mesure de l'information se produit le plus souvent dans le contexte de la représentation informatique de l'information. La déclaration principale va comme ceci:

La quantité d'informations est mesurée par la taille du code binaire avec lequel ces informations sont représentées.

Étant donné que tout type d'information est représenté dans la mémoire de l'ordinateur sous la forme d'un code binaire, cette définition est universelle. Elle est valable pour les informations symboliques, numériques, graphiques et sonores.

Un caractère ( décharge)le code binaire porte 1peu d'informations.

Lors de l'explication de la méthode de mesure du volume d'information d'un texte dans le cours d'informatique de base, cette problématique se révèle à travers la séquence de concepts suivante : alphabet-taille du code binaire des caractères-volume d'information du texte.

La logique du raisonnement va des exemples particuliers à l'obtention d'une règle générale. Qu'il n'y ait que 4 caractères dans l'alphabet d'une langue. Notons-les : , , , . Ces caractères peuvent être codés à l'aide de quatre codes binaires à deux bits : - 00, - 01, - 10, - 11. Ici, on utilise toutes les options de placement de deux caractères par deux, dont le nombre est 2 2 = 4. On en conclut : le poids d'information d'un caractère d'un alphabet à 4 caractères est égal à deux bits.

Le cas particulier suivant est un alphabet à 8 caractères, dont chaque caractère peut être codé avec un code binaire à 3 bits, puisque le nombre de placements de deux caractères par groupes de 3 est de 2 3 = 8. Par conséquent, le poids de l'information d'un caractère d'un alphabet à 8 caractères est de 3 bits. Etc.

En généralisant des exemples particuliers, on obtient règle générale: en utilisant b- bit code binaire, vous pouvez coder un alphabet composé de N = 2 b- symboles.

Exemple 1 Pour écrire le texte, seules les lettres minuscules de l'alphabet russe sont utilisées et un "espace" est utilisé pour séparer les mots. Quel est le volume d'information d'un texte composé de 2000 caractères (une page imprimée) ?

Solution. Il y a 33 lettres dans l'alphabet russe. En le réduisant de deux lettres (par exemple, "ё" et "й") et en entrant un espace, nous obtenons un nombre très pratique de caractères - 32. En utilisant l'approximation de l'égalité de probabilité des caractères, nous écrivons la formule de Hartley :

2je= 32 = 2 5

D'ici: je= 5 bits - poids informationnel de chaque caractère de l'alphabet russe. Alors le volume d'information de tout le texte est égal à :

je= 2000 5 = 10 000 bit

Exemple 2 Calculez le volume d'informations d'un texte d'une taille de 2000 caractères, dans l'enregistrement duquel l'alphabet d'une représentation informatique de textes d'une capacité de 256 est utilisé.

Solution. Dans cet alphabet, le poids d'information de chaque caractère est de 1 octet (8 bits). Par conséquent, le volume d'informations du texte est de 2000 octets.

Dans les tâches pratiques sur ce sujet, il est important de développer les compétences des élèves à convertir la quantité d'informations en différentes unités: bits - octets - kilooctets - mégaoctets - gigaoctets. Si on recalcule le volume d'information du texte de l'exemple 2 en kilo-octets, on obtient :

2000 octets = 2000/1024 1,9531 Ko

Exemple 3 Le volume du message contenant 2048 caractères était de 1/512 de mégaoctet. Quelle est la taille de l'alphabet avec lequel le message est écrit ?

Solution. Traduisons le volume d'informations du message de mégaoctets en bits. Pour ce faire, on multiplie cette valeur deux fois par 1024 (on obtient des octets) et une fois par 8 :

je= 1/512 1024 1024 8 = 16 384 bits.

Étant donné que cette quantité d'informations est portée par 1024 caractères ( POUR), alors un caractère représente :

je = je/K= 16 384/1024 = 16 bits.

Il s'ensuit que la taille (puissance) de l'alphabet utilisé est de 2 16 = 65 536 caractères.

Approche volumétrique dans le cours d'informatique au lycée

En étudiant l'informatique en 10e et 11e année au niveau de l'enseignement général de base, les élèves peuvent laisser leurs connaissances de l'approche volumétrique pour mesurer l'information au même niveau que celui décrit ci-dessus, c'est-à-dire dans le contexte de la quantité de code informatique binaire.

Lors de l'étude de l'informatique au niveau du profil, l'approche volumétrique doit être considérée à partir de positions mathématiques plus générales, en utilisant des idées sur la fréquence des caractères dans un texte, sur les probabilités et la relation des probabilités avec les poids d'information des symboles.

La connaissance de ces questions est importante pour une meilleure compréhension de la différence dans l'utilisation du codage binaire uniforme et non uniforme (voir. "Encodage des informations"), pour comprendre certaines techniques de compression de données (voir. "Compression des données") et algorithmes cryptographiques (voir "Cryptographie" ).

Exemple 4 Dans l'alphabet de la tribu MUMU, il n'y a que 4 lettres (A, U, M, K), un signe de ponctuation (point) et un espace sert à séparer les mots. Il a été calculé que le roman populaire «Mumuka» ne contient que 10 000 caractères, dont: lettres A - 4000, lettres U - 1000, lettres M - 2000, lettres K - 1500, points - 500, espaces - 1000. Combien d'informations le livre contient-il?

Solution. Le volume du livre étant assez important, on peut supposer que la fréquence d'apparition dans le texte de chacun des symboles de l'alphabet calculé à partir de celui-ci est typique de tout texte en langue MUMU. Calculons la fréquence d'occurrence de chaque caractère dans tout le texte du livre (c'est-à-dire la probabilité) et les poids d'information des caractères

La quantité totale d'informations dans le livre est calculée comme la somme des produits du poids de l'information de chaque symbole et du nombre de répétitions de ce symbole dans le livre :

Quantité d'informations

La quantité d'informations comme mesure de réduction de l'incertitude des connaissances.
(Approche significative pour déterminer la quantité d'informations)

Le processus de cognition du monde environnant conduit à l'accumulation d'informations sous forme de connaissances (faits, théories scientifiques, etc.). Reçu nouvelle information conduit à une augmentation des connaissances ou, comme on dit parfois, à une diminution de l'incertitude des connaissances. Si un certain message conduit à une diminution de l'incertitude de nos connaissances, alors nous pouvons dire qu'un tel message contient de l'information.

Par exemple, après avoir réussi un test ou terminé un test, vous êtes tourmenté par l'incertitude, vous ne savez pas quelle note vous avez reçue. Enfin, le professeur annonce les résultats et vous obtenez l'un des deux message d'information: "pass" ou "fail", et après le test l'un des quatre messages d'information : "2", "3", "4" ou "5".

Un message d'information sur une évaluation pour un crédit entraîne une double diminution de l'incertitude de vos connaissances, puisqu'un des deux messages d'information possibles a été reçu. Un message d'information sur l'évaluation d'un test entraîne une diminution par quatre de l'incertitude de vos connaissances, puisque l'un des quatre messages d'information possibles est reçu.

Il est clair que plus la situation initiale est incertaine (plus le nombre de messages d'information possibles est important), plus nous recevrons d'informations nouvelles à la réception du message d'information (plus le nombre de fois que l'incertitude de la connaissance diminuera).

Quantité d'informations peut être considérée comme une mesure pour réduire l'incertitude des connaissances lors de la réception de messages d'information.

L'approche discutée ci-dessus de l'information comme mesure de réduction de l'incertitude des connaissances permet de mesurer l'information quantitativement. Il existe une formule qui relie le nombre de messages d'information possibles N et la quantité d'informations I que le message reçu contient :

N = 2 je (1.1)

Bit. Pour quantifier une quantité, vous devez d'abord déterminer l'unité de mesure. Ainsi, pour mesurer la longueur, un mètre est choisi comme unité, pour mesurer la masse - un kilogramme, etc. De même, pour déterminer la quantité d'informations, il est nécessaire de saisir une unité de mesure.

Derrière unité d'information la quantité d'informations contenues dans le message d'information est reçue, ce qui réduit de moitié l'incertitude de la connaissance. Cette unité s'appelle bit.

Si l'on revient à la réception d'un message d'information sur les résultats du décalage considéré ci-dessus, alors ici l'incertitude est juste divisée par deux et, par conséquent, la quantité d'informations que porte le message est égale à 1 bit.

Unités dérivées pour mesurer la quantité d'informations. L'unité minimale pour mesurer la quantité d'informations est un bit, et l'unité la plus grande suivante est un octet, et :

1 octet = 8 bits = 2 3 bits.

En informatique, le système d'enseignement des unités de mesure multiples est quelque peu différent de ceux acceptés dans la plupart des sciences. Unités métriques traditionnelles, par ex. Système international Unités SI, un facteur de 10 n est utilisé comme multiples d'unités multiples, où n \u003d 3, 6, 9, etc., ce qui correspond aux préfixes décimaux "Kilo" (10 3), "Mega" (10 6), "Giga" (10 9), etc.

Dans un ordinateur, les informations sont codées à l'aide d'un système de signes binaires et, par conséquent, dans plusieurs unités de mesure de la quantité d'informations, le coefficient 2 n est utilisé

Ainsi, les unités de mesure de la quantité d'informations qui sont des multiples d'un octet sont saisies comme suit :

1 kilo-octet (Ko) = 2 10 octets = 1024 octets ;

1 mégaoctet (Mo) = 2 10 Ko = 1024 Ko ;

1 gigaoctet (Go) = 2 10 Mo = 1024 Mo.

Questions de contrôle

    1. Donner des exemples de messages d'information qui conduisent à une diminution de l'incertitude des connaissances.
    2. Donnez des exemples de messages d'information qui transportent 1 bit d'information.

Déterminer la quantité d'informations

Détermination du nombre de messages d'information. Selon la formule (1.1), on peut facilement déterminer le nombre de messages d'information possibles si la quantité d'informations est connue. Par exemple, lors d'un examen, vous prenez un ticket d'examen et l'enseignant signale que le message d'information visuel sur son numéro comporte 5 bits d'information. Si vous souhaitez déterminer le nombre de tickets d'examen, il suffit de déterminer le nombre de messages d'information possibles sur leur nombre à l'aide de la formule (1.1):

Ainsi, le nombre de tickets d'examen est de 32.

Déterminer la quantité d'informations. Au contraire, si le nombre possible de messages d'information N est connu, alors pour déterminer la quantité d'informations que le message porte, il est nécessaire de résoudre l'équation pour I.

Imaginez que vous contrôlez le mouvement du robot et que vous pouvez définir la direction de son mouvement à l'aide de messages d'information : « nord », « nord-est », « est », « sud-est », « sud », « sud-ouest », « ouest » et « nord-ouest » (Fig. 1.11). Combien d'informations le robot recevra-t-il après chaque message ?

Il y a 8 messages d'information possibles au total, donc la formule (1.1) prend la forme d'une équation pour I :

Nous décomposons le nombre 8 sur le côté gauche de l'équation en facteurs et le représentons sous une forme de puissance :

8 = 2 × 2 × 2 = 2 3 .

Notre équation :

L'égalité des parties gauche et droite de l'équation est vraie si les exposants du nombre 2 sont égaux. Ainsi, I = 3 bits, c'est-à-dire que la quantité d'informations que chaque message d'information transmet au robot est de 3 bits.

Approche alphabétique pour déterminer la quantité d'informations

Avec une approche alphabétique pour déterminer la quantité d'informations, on fait abstraction du contenu de l'information et considère un message d'information comme une séquence de signes d'un certain système de signes.

Capacité d'information du signe. Imaginez qu'il soit nécessaire de transmettre un message d'information sur un canal de transmission d'informations de l'expéditeur au destinataire. Soit le message codé à l'aide d'un système de signes dont l'alphabet est composé de N caractères (1, ..., N). Dans le cas le plus simple, lorsque la longueur du code de message est d'un caractère, l'expéditeur peut envoyer l'un des N messages possibles "1", "2", ..., "N", qui contiendra la quantité d'informations I (Fig. 1.5).

Riz. 1.5. Transfert d'informations

La formule (1.1) relie le nombre de messages d'information possibles N et la quantité d'informations I que porte le message reçu. Alors dans la situation considérée, N est le nombre de caractères de l'alphabet du système de signes, et I est la quantité d'informations que chaque caractère porte :

À l'aide de cette formule, vous pouvez, par exemple, déterminer la quantité d'informations qu'un signe contient dans un système de signes binaire :

N = 2 => 2 = 2 je => 2 1 = 2 je => je=1 bit.

Ainsi, dans un système de signe binaire, un signe porte 1 bit d'information. Il est intéressant de noter que l'unité même de mesure de la quantité d'informations "bit" (bit) tire son nom de l'expression anglaise "Binary digiT" - "binary digit".

La capacité d'information d'un signe d'un système de signes binaires est 1 bit

Plus l'alphabet du système de signes contient de caractères, plus un caractère contient d'informations. A titre d'exemple, déterminons la quantité d'informations qu'une lettre de l'alphabet russe contient. L'alphabet russe comprend 33 lettres, mais en pratique, seules 32 lettres sont souvent utilisées pour envoyer des messages (la lettre "ё" est exclue).

En utilisant la formule (1.1), nous déterminons la quantité d'informations qu'une lettre de l'alphabet russe contient:

N = 32 => 32 = 2 je => 2 5 = 2 je => je=5 bits.

Ainsi, une lettre de l'alphabet russe porte 5 bits d'information (avec une approche alphabétique pour mesurer la quantité d'information).

La quantité d'informations qu'un signe porte dépend de la probabilité de le recevoir. Si le destinataire sait à l'avance exactement quel caractère va arriver, alors la quantité d'information reçue sera égale à 0. A l'inverse, moins la réception du caractère est probable, plus sa capacité d'information est grande.

Dans le discours écrit russe, la fréquence d'utilisation des lettres dans le texte est différente, il y a donc en moyenne 200 lettres "a" pour 1000 caractères d'un texte significatif et cent fois moins de lettres "f" (seulement 2). Ainsi, du point de vue de la théorie de l'information, la capacité d'information des signes de l'alphabet russe est différente (la lettre "a" est la plus petite et la lettre "f" la plus grande).

La quantité d'informations dans le message. Le message est constitué d'une séquence de caractères, dont chacun porte une certaine quantité d'informations.

Si les caractères portent la même quantité d'informations, alors la quantité d'informations I c dans le message peut être calculée en multipliant la quantité d'informations I c qu'un caractère porte par la longueur du code (le nombre de caractères dans le message) K :

je c \u003d je s × K

Ainsi, chaque chiffre d'un code informatique binaire porte des informations sur 1 bit. Ainsi, deux chiffres portent des informations sur 2 bits, trois chiffres sur 3 bits, etc. La quantité d'informations en bits est égale au nombre de chiffres d'un code informatique binaire (tableau 1.1).

Tableau 1.1. La quantité d'informations qu'un code informatique binaire contient

Et de nombreux autres concepts ont les liens les plus directs les uns avec les autres. Très peu d'utilisateurs connaissent aujourd'hui suffisamment ces questions. Essayons de clarifier quelle est la puissance de l'alphabet, comment la calculer et l'appliquer dans la pratique. À l'avenir, cela pourra sans aucun doute être utile dans la pratique.

Comment les informations sont mesurées

Avant de procéder à l'étude de la question de savoir quel est le pouvoir de l'alphabet, et en général, de quoi il s'agit, nous devrions commencer, pour ainsi dire, par les bases.

Tout le monde sait sûrement qu'il existe aujourd'hui des systèmes spéciaux pour mesurer toutes les quantités basées sur des valeurs de référence. Par exemple, pour les distances et quantités similaires, il s'agit de mètres, pour la masse et le poids - kilogrammes, pour les intervalles de temps - secondes, etc.

Mais comment mesurer l'information en termes de volume de texte ? C'est pour cela que le concept de cardinalité d'un alphabet a été introduit.

Quel est le pouvoir de l'alphabet: le concept initial

Ainsi, si nous suivons la règle généralement acceptée selon laquelle la valeur finale d'une quantité est un paramètre qui détermine combien de fois l'unité de référence est placée dans la valeur mesurée, nous pouvons conclure que la puissance de l'alphabet est le nombre total de symboles utilisés pour une langue particulière.

Pour que ce soit plus clair, laissons de côté pour l'instant la question de savoir comment trouver le pouvoir de l'alphabet, et prêtons attention aux symboles eux-mêmes, bien sûr, du point de vue technologies de l'information. Grosso modo, liste complète les caractères utilisés contiennent des lettres, des chiffres, toutes sortes de parenthèses, Symboles spéciaux, signes de ponctuation, etc. Cependant, si nous abordons la question de savoir quelle est exactement la puissance de l'alphabet par ordinateur, cela doit également inclure un espace (un seul espace entre les mots ou d'autres caractères).

Prenons la langue russe comme exemple, ou plutôt la disposition du clavier. Sur la base de ce qui précède, la liste complète contient 33 lettres, 10 chiffres et 11 caractères spéciaux. Ainsi, la puissance totale de l'alphabet est de 54.

Poids des informations de symbole

Cependant, le concept général de la puissance de l'alphabet ne définit pas l'essence du calcul des volumes d'information d'un texte contenant des lettres, des chiffres et des symboles. Cela nécessite une approche particulière.

En principe, réfléchissez-y, eh bien, voici ce que peut être l'ensemble minimum du point de vue de Système d'ordinateur combien de caractères peut-il contenir ? Réponse : deux. Et c'est pourquoi. Le fait est que chaque caractère, qu'il s'agisse d'une lettre ou d'un chiffre, a son propre poids informationnel, grâce auquel la machine reconnaît ce qui se trouve devant lui. Mais l'ordinateur ne comprend que la représentation sous forme de uns et de zéros, sur laquelle, en fait, toute l'informatique est basée.

Ainsi, tout caractère peut être représenté sous forme de séquences contenant les chiffres 1 et 0, c'est-à-dire que la séquence minimale désignant une lettre, un chiffre ou un symbole est constituée de deux composants.

Le poids de l'information lui-même, pris comme norme unité d'information la mesure est appelée un bit (1 bit). Par conséquent, 8 bits constituent 1 octet.

Représentation des caractères en code binaire

Donc, quel est le pouvoir de l'alphabet, je pense, c'est déjà un peu clair. Voyons maintenant un autre aspect, en particulier la représentation pratique de la puissance à l'aide. Pour simplifier, prenons comme exemple un alphabet contenant seulement 4 caractères.

Dans un code binaire à deux chiffres, la séquence et leur représentation informationnelle peuvent être décrites comme suit :

Numéro de série

code binaire

D'où - la conclusion la plus simple : à la puissance de l'alphabet N=4, le poids d'un seul caractère est de 2 bits.

Si vous utilisez un code binaire à trois chiffres pour l'alphabet, par exemple avec 8 caractères, le nombre de combinaisons serait :

Numéro de série

code binaire

Autrement dit, avec la capacité de l'alphabet N=8, le poids d'un caractère pour un code binaire à trois chiffres sera égal à 3 bits.

alphabet et l'utiliser dans une expression informatique

Essayons maintenant de regarder la dépendance, qui exprime le nombre de caractères du code et la puissance de l'alphabet. La formule, où N est la puissance alphabétique de l'alphabet et b est le nombre de caractères du code binaire, ressemblera à ceci :

Autrement dit, 2 1 =2, 2 2 =4, 2 3 =8, 2 4 =16, etc. En gros, le nombre de caractères souhaité du code binaire lui-même est le poids du caractère. En termes d'informations, cela ressemble à ceci:

Mesure du volume d'informations

Cependant, ce n'étaient que les exemples les plus simples, pour ainsi dire, pour une première compréhension de ce qu'est le pouvoir de l'alphabet. Passons directement à la pratique.

A ce stade de développement la technologie informatique pour la saisie en tenant compte des majuscules, des majuscules et des lettres cyrilliques et latines, des signes de ponctuation, des parenthèses, des symboles arithmétiques, etc. 256 caractères sont utilisés. Partant du fait que 256 vaut 2 8 , il est facile de deviner que le poids de chaque caractère dans un tel alphabet est 8, c'est-à-dire 8 bits ou 1 octet.

Sur la base de tous les paramètres connus, nous pouvons facilement obtenir la valeur du volume d'informations de tout texte dont nous avons besoin. Par exemple, nous avons un texte informatique contenant 30 pages. Une page contient 50 lignes de 60 caractères ou symboles quelconques, y compris les espaces.

Ainsi, une page contiendra 50 x 60 = 3 000 octets d'informations, et le texte entier contiendra 3 000 x 50 = 150 000 octets. Comme vous pouvez le voir, même les petits textes ne sont pas pratiques à mesurer en octets. Qu'en est-il des bibliothèques entières ?

Dans ce cas, il est préférable de convertir le volume en valeurs plus puissantes - kilo-octets, mégaoctets, gigaoctets, etc. En se basant sur le fait que, par exemple, 1 kilooctet est égal à 1024 octets (2 10) et un mégaoctet est égal à 2 10 kilooctets (1024 kilooctets), il est facile de calculer que la quantité de texte dans l'expression mathématique d'information pour notre exemple sera 150000/1024=146,484375 kilooctets ou environ 0,14305 mégaoctets.

Au lieu d'une postface

En gros, c'est en bref et tout ce qui concerne l'examen de la question, quelle est la puissance de l'alphabet. Il reste à ajouter qu'une approche purement mathématique a été utilisée dans cette description. Il va de soi que la charge sémantique du texte dans ce cas n'est pas prise en compte.

Mais, si nous abordons les questions de considération d'un point de vue qui donne à une personne quelque chose à comprendre, un ensemble de combinaisons ou de séquences de caractères sans signification à cet égard aura une charge d'information nulle, bien que, du point de vue du concept de volume d'information, le résultat puisse toujours être calculé.

En général, les connaissances sur le pouvoir de l'alphabet et les concepts associés ne sont pas si difficiles à comprendre et peuvent simplement être appliquées dans le sens d'actions pratiques. Dans le même temps, tout utilisateur est confronté presque tous les jours à cela. Il suffit de citer le populaire éditeur de mots ou tout autre de même niveau utilisant un tel système. Mais ne le confondez pas avec le bloc-notes habituel. Ici, la puissance de l'alphabet est plus faible, puisque, par exemple, les lettres majuscules ne sont pas utilisées lors de la frappe.

Le but de la leçon :

  1. Avoir une idée de l'approche alphabétique pour déterminer la quantité d'informations ;
  2. Connaître la formule pour déterminer le nombre de messages d'information, la quantité d'informations dans les messages ;
  3. Être capable de résoudre des problèmes pour déterminer le nombre de messages d'information et la quantité d'informations que le message reçu contient.

Pendant les cours

1. Mise à jour des connaissances :

Les gars, regardons ce que nous voyons par la fenêtre. Que peux-tu dire de la nature ? (L'hiver est arrivé.)
- Mais pourquoi avez-vous décidé que l'hiver était venu ? (Il fait froid, il neige.)
- Mais nulle part il n'est écrit que ce sont des signes d'hiver. (Mais nous savons ce que tout cela signifie : l'hiver est arrivé.)

Par conséquent, il s'avère que la connaissance que nous extrayons de la réalité environnante est information. (diapositive 1)

Réchauffer.

Remplissez le tableau et utilisez les flèches pour afficher les correspondances.

Est-il possible de mesurer la quantité d'informations et comment le faire ? (Oui)

Il s'avère que l'information peut également être mesurée et quantifiée.

Il existe deux approches pour mesurer l'information. Nous allons rencontrer l'un d'eux aujourd'hui. (Regardez l'application diapositive 2)

2. Apprendre du nouveau matériel.

Comment pouvez-vous trouver la quantité d'informations?

Prenons un exemple.

Nous avons un petit texte écrit en russe. Il se compose de lettres de l'alphabet russe, de chiffres, de signes de ponctuation. Pour simplifier, nous supposerons que les caractères du texte sont présents avec la même probabilité.

L'ensemble des symboles utilisés dans le texte est appelé alphabétiquement.

En informatique, l'alphabet est compris non seulement comme des lettres, mais aussi comme des chiffres, des signes de ponctuation et d'autres caractères spéciaux.

L'alphabet a une taille (nombre total de caractères), qui est appelée la puissance de l'alphabet. Avec l'approche alphabétique, on considère que chaque caractère du texte a un certain « poids informationnel ». Avec une augmentation de la puissance de l'alphabet, le poids informationnel des symboles de cet alphabet augmente.

Notons la cardinalité de l'alphabet par N.

Trouvons la relation entre le poids d'information du symbole (i) et la puissance de l'alphabet (N). Le plus petit alphabet contient 2 caractères, qui sont désignés par "0" et "1". Le poids d'information d'un caractère d'alphabet binaire est considéré comme une unité d'information et est appelé 1 bit. (Voir l'annexe diapositive 3)

N 2 4 8 16 32 64 128 256
je 1 bit 2 bits 3 bits 4 bits 5 bits 6 bits 7 bits 8 bits

L'ordinateur utilise également son propre alphabet, que l'on peut appeler un alphabet informatique. Le nombre de caractères qu'il comprend est de 256 caractères. C'est la puissance de l'alphabet informatique.

Nous avons également découvert que 256 caractères différents peuvent être encodés en utilisant 8 bits.

8 bits est une valeur si caractéristique qu'on lui a donné son propre nom - octet.

1 octet = 8 bits

A partir de ce fait : on peut rapidement calculer la quantité d'informations contenues dans un texte informatique, c'est-à-dire dans un texte tapé à l'aide d'un ordinateur, étant donné que la plupart des articles, livres, publications, etc. écrit à l'aide d'éditeurs de texte, vous pouvez ainsi trouver le volume d'informations de tout message créé de cette manière.

Voyons la règle de mesure des informations du point de vue de l'approche alphabétique sur la diapositive. (Voir l'annexe diapositive 4)

Exemple:

Trouver le volume d'information d'une page de texte informatique.

Solution:

Utilisons la règle.

1. Trouvez la puissance : N=256
2. Trouvez le volume d'informations d'un personnage : N= 2 je i = 8 bits = 1 octet.
3. Trouvez le nombre de caractères sur la page. Environ.

(Trouvez le nombre de caractères dans une chaîne et multipliez par le nombre de chaînes)

Explication:

Demandez aux enfants de choisir une chaîne au hasard et de compter le nombre de caractères qu'elle contient, y compris tous les signes de ponctuation et les espaces.

40 caractères * 50 lignes = 2000 caractères.

4. Trouver le volume d'informations de la page entière : 2000 * 1 = 2000 octets

Convenez qu'un octet est une petite unité d'information. Les unités suivantes sont utilisées pour mesurer de grandes quantités d'informations (Voir l'annexe diapositive5)

3. Consolidation du matériel étudié.

Sur le bureau:

Remplissez les trous avec des chiffres et vérifiez l'exactitude.

1 Ko = ___ octets = ______ bits,
2 Ko = _____ octets = ______ bits,
24576 bits =_____octets =_____Koctets,
512 Ko = ___ octets = _____ bits.

Les élèves se voient confier les tâches suivantes :

1) Le message est rédigé à l'aide d'un alphabet de 8 caractères. Combien d'informations contient une lettre de cet alphabet ?

Solution: N=8 , alors i= 3 bits

2) Un message écrit avec des lettres de l'alphabet à 128 caractères contient 30 caractères. Combien d'informations transporte-t-il ?

1.N=128 , K=30
2. N= 2 je je= 7 morceaux (volume d'un caractère)
3.I=30*7=210bit (volume du message entier)

4. Travail créatif.

Tapez sur l'ordinateur du texte dont le volume d'informations est de 240 octets.

5. Les résultats de la leçon.

Qu'avons-nous appris de nouveau lors de la leçon d'aujourd'hui ?
- Comment la quantité d'informations est-elle déterminée d'un point de vue alphabétique ?
- Comment trouver le pouvoir de l'alphabet ?
A quoi correspond 1 octet ?

6. Devoirs (Voir l'annexe diapositive 6).

Apprenez la règle de mesure de l'information selon l'approche alphabétique.

Apprenez les unités de mesure pour information.

Résoudre un problème:

1) La capacité de certains alphabets est de 64 caractères. Quelle sera la quantité d'informations dans un texte composé de 100 caractères.
2) Le volume d'information du message est de 4096 bits. Il contient 1024 caractères. Quelle est la puissance de l'alphabet avec lequel ce message est composé ?

Pour mesurer la longueur, il existe des unités telles que millimètre, centimètre, mètre, kilomètre. On sait que la masse se mesure en grammes, kilogrammes, centièmes et tonnes. Le temps courant est exprimé en secondes, minutes, heures, jours, mois, années, siècles. L'ordinateur fonctionne avec des informations et il existe également des unités de mesure appropriées pour mesurer son volume.

Nous savons déjà qu'un ordinateur perçoit toutes les informations.

Bit- c'est l'unité minimale de mesure de l'information, correspondant à un chiffre binaire ("0" ou "1").

Octet se compose de huit bits. En utilisant un octet, vous pouvez coder un caractère sur 256 possibles (256 = 2 8). Ainsi, un octet est égal à un caractère, soit 8 bits :

1 caractère = 8 bits = 1 octet.

Lettre, chiffre, signe de ponctuation sont des symboles. Une lettre, un symbole. Un nombre est aussi un caractère. Un signe de ponctuation (soit un point, soit une virgule, soit un point d'interrogation, etc.) est à nouveau un caractère. Un espace est aussi un caractère.

En étudiant culture informatique implique la prise en compte d'autres unités plus larges de mesure de l'information.

Tableau des octets :

1 octet = 8 bits

1 Ko (1 Kilooctet) = 2 10 octets = 2*2*2*2*2*2*2*2*2*2 octets =
= 1024 octets (environ 1 mille octets - 10 3 octets)

1 Mo (1 Mégaoctet) = 2 20 octets = 1024 kilo-octets (environ 1 million d'octets - 10 6 octets)

1 Go (1 gigaoctet) = 2 30 octets = 1024 mégaoctets (environ 1 milliard d'octets - 10 9 octets)

1 To (1 Téraoctet) = 240 octets = 1024 gigaoctets (environ 1012 octets). Le téraoctet est parfois appelé tonne.

1 Po (1 pétaoctet) = 2 50 octets = 1024 téraoctets (environ 10 15 octets).

1 exaoctet= 260 octets = 1024 pétaoctets (environ 1018 octets).

1 Zettaoctet= 270 octets = 1024 exaoctets (environ 1021 octets).

1 Yottaoctet= 2 80 octets = 1024 zettaoctets (environ 10 24 octets).

Dans le tableau ci-dessus, les puissances de deux (2 10 , 2 20 , 2 30 , etc.) sont les valeurs exactes de kilooctets, mégaoctets, gigaoctets. Mais les puissances du nombre 10 (plus précisément, 10 3 , 10 6 , 10 9 , etc.) seront déjà des valeurs approximatives, arrondies à l'inférieur. Ainsi, 2 10 = 1024 octets représente la valeur exacte d'un kilo-octet, et 10 3 = 1000 octets est la valeur approximative d'un kilo-octet.

Une telle approximation (ou arrondi) est tout à fait acceptable et généralement acceptée.

Voici un tableau d'octets avec les abréviations anglaises (dans la colonne de gauche) :

1 Ko ~ 10 3 b = 10*10*10 b= 1000 b – kilooctet

1 Mo ~ 10 6 b = 10*10*10*10*10*10 b = 1 000 000 b - mégaoctet

1 Go ~ 10 9 b - gigaoctet

1 To ~ 10 12 b - téraoctet

1 Pb ~ 10 15 b - pétaoctet

1 Eb ~ 10 18 b - exaoctet

1 Zb ~ 10 21 b - zettaoctet

1 Yb ~ 10 24 b - yottaoctet

En haut dans la colonne de droite se trouvent les soi-disant "préfixes décimaux", qui sont utilisés non seulement avec des octets, mais aussi dans d'autres domaines de l'activité humaine. Par exemple, le préfixe « kilo » dans le mot « kilo-octet » signifie mille octets, tout comme dans le cas d'un kilomètre, il correspond à mille mètres, et dans l'exemple d'un kilogramme, il est égal à mille grammes.

À suivre…

La question se pose : la table d'octets a-t-elle une continuation ? En mathématiques, il y a le concept d'infini, qui est noté huit inversé : ∞.

Il est clair que dans la table d'octets, vous pouvez continuer à ajouter des zéros, ou plutôt des puissances au nombre 10 de cette manière : 10 27 , 10 30 , 10 33 et ainsi de suite à l'infini. Mais pourquoi est-ce nécessaire ? En principe, alors que les téraoctets et les pétaoctets suffisent. À l'avenir, peut-être même un yottaoctet ne suffira-t-il pas.

Enfin, quelques exemples d'appareils capables de stocker des téraoctets et des gigaoctets d'informations.

Il y a un "téraoctet" pratique - dur externe lecteur connecté via port USBà l'ordinateur. Il peut stocker un téraoctet d'informations. Particulièrement pratique pour les ordinateurs portables (où le changement disque dur peut être problématique) et Réserver une copie information. Il vaut mieux le faire à l'avance. sauvegardes informations, pas après que tout est parti.

Les lecteurs flash sont disponibles en 1 Go, 2 Go, 4 Go, 8 Go, 16 Go, 32 Go, 64 Go et même 1 téraoctet.