Comment mesure-t-on la puissance de l’alphabet en informatique ? Résoudre les problèmes de mesure des informations

17.11.2023

Le but de la leçon : introduire les concepts : « mesure de l'information », « alphabet », « pouvoir de l'alphabet », « approche alphabétique de la mesure de l'information », apprendre à mesurer le volume d'information des messages, en tenant compte du poids informationnel des caractères.

Type de cours : explicatif et démonstration avec des éléments pratiques.

En bref : présentation « Informations de mesure » (Annexe 1).

Littérature pédagogique : manuel « Informatique ». 8e année (cours de base) I.G. Semakin, cahier-atelier de problèmes « Informatique » (partie 1) I.G.

Exigences de connaissances et de compétences :

Les étudiants doivent savoir :

  • qu'est-ce que « l'alphabet », le « pouvoir de l'alphabet », « l'approche alphabétique dans la mesure de l'information » ;
  • comment mesurer le volume d'informations ;
  • comment l'unité de mesure des bits d'information est-elle déterminée ?
  • Qu'est-ce qu'un octet, un kilo-octet, un mégaoctet, un gigaoctet.

Les étudiants doivent être capables de :

  • donner des exemples de messages transportant 1 bit d'information ;
  • mesurer le volume d'informations du texte ;
  • représentent la quantité d'informations reçues dans diverses unités (bits, octets, kilo-octets, mégaoctets, gigaoctets).

Plan de cours

  1. Org. instant - 1 min.
  2. Vérification des devoirs - 2 min.
  3. Nouveau matériel. Informations de mesure. Approche alphabétique - 25 min.
  4. Consolidation des acquis - 14 min.
  5. Résumer la leçon. - 2 minutes.
  6. Devoirs - 1 min.

I. Org. moment.

II. Vérification des devoirs.

Cahier d'exercices n°1. p. 11 n°2, 5, 8, 11, 19*.

III. Nouveau matériel.

1. Introduction.

Le processus de cognition du monde environnant conduit à l'accumulation d'informations sous forme de connaissances.

Comment savoir si vous avez reçu beaucoup d’informations ou non ?

Il est nécessaire de mesurer la quantité d'informations. Et aujourd'hui, nous découvrirons comment procéder.

L'obtention de nouvelles informations conduit à un élargissement des connaissances ou, comme on peut le dire autrement, à une réduction de l'incertitude de la connaissance.

Si un message conduit à une diminution de l'incertitude de nos connaissances, alors nous pouvons dire que ces connaissances contiennent des informations (Figure 1).

2. Comment pouvez-vous mesurer la quantité d’informations.

Il existe des unités de mesure standard pour mesurer diverses quantités.

Par exemple:

  • La distance se mesure en millimètres, centimètres, décimètres...
  • La masse se mesure en grammes, kilogrammes, tonnes...
  • Le temps se mesure en secondes, minutes, jours, années...

Par conséquent, pour mesurer l’information, sa propre unité standard doit être introduite.

Il existe deux approches pour mesurer les informations :

b) Alphabétique. Permet de mesurer le volume d'informations d'un texte dans n'importe quelle langue (naturelle ou formelle) lors de l'utilisation de cette approche, le volume d'informations n'est pas associé au contenu du texte, dans ce cas, le volume dépend du poids informationnel de les personnages.

3. Approche alphabétique de la mesure de l'information.

Rappelons-nous ce qu'est l'alphabet ?

  • L'alphabet est l'ensemble des lettres, signes de ponctuation, chiffres, parenthèses et autres symboles utilisés dans le texte.

*L'alphabet comprend un espace (espace entre les mots).

Quel est le pouvoir de l’alphabet ?

  • La puissance de l’alphabet est le nombre total de caractères de l’alphabet.

Par exemple : la puissance de l'alphabet des lettres et symboles russes utilisés est de 54 :

33 lettres + 10 chiffres + 11 signes de ponctuation, parenthèses, espace.

L'alphabet utilisé dans un ordinateur (langage machine) est celui qui a le moins de pouvoir ; on l'appelle l'alphabet binaire, car il ne contient que deux caractères « 0 », « 1 ».

Le poids informationnel d'un symbole de l'alphabet binaire est considéré comme une unité d'information et est appelé 1 bit.

Essayez de déterminer le volume du message d'information :

Les informations écrites en langage machine pèsent :

01110 - …bit

010010 - …bit

010 - … peu

0111111011110 - … peu

Avec l’approche alphabétique, on pense que chaque caractère du texte a un poids informatif.

Le poids informationnel d’un symbole dépend de la puissance de l’alphabet.

À mesure que la puissance de l’alphabet augmente, le poids informationnel de chaque caractère augmente.

Pour mesurer le volume d'informations, il est nécessaire de déterminer combien de fois des informations égales à 1 bit sont contenues dans le volume d'informations déterminé.

Par exemple:

1) Prenons un alphabet à quatre chiffres (inventé), (Figure 2).

Tous les caractères de l'alphabet original peuvent être codés dans toutes les combinaisons possibles en utilisant les chiffres de l'alphabet binaire.

Obtenons le code binaire de chaque caractère de l'alphabet. Afin de coder les caractères d’un alphabet dont la cardinalité est quatre, nous avons besoin de deux caractères de code binaire.

Par conséquent, chaque caractère d’un alphabet de quatre caractères pèse 2 bits.

2) Code binaire pour chaque caractère de l'alphabet dont la cardinalité est 8 (Figure 3).

Conclusion. L'alphabet entier, dont la cardinalité est 8, peut être codé en langage machine à l'aide de trois caractères de l'alphabet binaire (Figure 4).

Selon vous, quel est le volume d'informations de chaque caractère de l'alphabet à huit caractères ?

Chaque caractère de l'alphabet de huit caractères pèse 3 bits.

3). Encodez chaque caractère de l'alphabet avec la cardinalité 16 en utilisant le code binaire.

Que peut-on conclure ?

Un alphabet de seize caractères peut être codé à l'aide d'un code binaire à quatre chiffres.

Résoudre le problème.

Tâche : Quelle quantité d'informations contiennent 3 caractères d'un alphabet de 16 caractères ?

Puisque chaque caractère de l'alphabet de 16 caractères peut être codé à l'aide d'un code binaire à quatre chiffres, chaque caractère de l'alphabet original pèse 4 bits.

Puisqu'un total de 3 caractères de l'alphabet ont été utilisés avec une capacité de 16 caractères donc : 4 bits 3 = 12 bits

Réponse : la quantité d'informations écrites en 3 caractères alphabétiques d'une capacité de 16 caractères est égale à 12 bits.

Écrivons un tableau de correspondance entre la puissance de l'alphabet (N) et le nombre de caractères dans le code (b) - la capacité en bits du code binaire.

Trouvez le modèle (Figure 5) !

Quelle conclusion peut-on en tirer ?

Le poids informationnel de chaque symbole, exprimé en bits (b), et la puissance de l'alphabet (N) sont liés par la formule : N = 2 b

L'alphabet à partir duquel un texte (document) est compilé sur un ordinateur est composé de 256 caractères.

Cet alphabet contient des symboles : lettres latines et russes minuscules et majuscules, chiffres, signes d'opérations arithmétiques, parenthèses de toutes sortes, signes de ponctuation et autres symboles.

Découvrez combien d'informations sont contenues dans un caractère de l'alphabet dont la puissance est 256.

Solution. De la formule N = 2 b il résulte 256 = 2 8.

Conclusion. Cela signifie que chaque caractère de l'alphabet utilisé dans un ordinateur pour imprimer des documents pèse 8 bits.

Cette valeur a également été prise comme unité d'information et a reçu le nom d'octet.

8 bits = 1 octet

Tâche. L'article contient 30 pages, chaque page contient 40 lignes, chaque ligne contient 50 caractères. Quelle quantité d’informations l’article contient-il ?

Avancement de la décision.

1) Chaque page comporte 50 40 = 2000 caractères ;

2) dans tout l'article 2000 30 = 60 000 caractères ;

3) parce que le poids de chaque caractère est de 1 octet, par conséquent, le volume d'informations de l'article entier est de 60 000 1 = 60 000 octets ou 60 000 8 = 480 000 bits.

Comme le montre le problème, l'octet est une « petite » unité de mesure du volume d'informations du texte, c'est pourquoi des unités plus grandes sont utilisées pour mesurer de grandes quantités d'informations.

Unités de mesure du volume d'informations :

1 kilo-octet = 1 Ko = 210 octets = 1024 octets

1 mégaoctet = 1 Mo = 210 Ko = 1 024 Ko

1 gigaoctet = 1 Go = 210 Mo = 1 024 Mo

Essayez de convertir le résultat du problème en unités de mesure plus grandes :

    60 000 octets 58,59375 Ko

    60 000 octets 0,057 Mo

IV. Consolidation des acquis.

Cahier de problèmes n°1. P. 19 n°19, 20, 22, 23, 25.

V. En résumé.

VI. Devoirs.

Feuille de travail n°1. p. 20 n° 21, 24, 26.


Approche alphabétique de la mesure des informations

Avec une approche alphabétique pour déterminer la quantité d'informations distrait du contenu informations et considérer le message d’information comme séquence de caractères un certain système de signes.

Tout est prêt utilisé dans la langue personnages nous appellerons traditionnellement alphabet .

Le nombre total de caractères de l'alphabet est généralement appelé le pouvoir de l'alphabet .

Nous désignerons cette quantité par la lettre N .


POUVOIR DE L'ALPHABET RUSSE :

  • 33 lettres
  • 10 chiffres
  • 11 signes de ponctuation
  • supports
  • espace

Poids informationnel d'un symbole

Le poids informationnel d’un symbole dépend de la puissance de l’alphabet.

poids informationnel du symbole - la quantité d'informations qu'un symbole transporte.

Plus petit nombre de caractères de l'alphabet : 2 (0 et 1) - alphabet binaire.

Le poids informationnel d'un symbole de l'alphabet binaire est pris comme unité d'information et est appelé 1 PEU.


À mesure que la puissance de l'alphabet augmente, le poids informationnel des symboles de cet alphabet augmente. Ainsi, un caractère d’un alphabet de quatre caractères (N = 4) « pèse » 2 bits.

En utilisant trois chiffres binaires, vous pouvez créer 8 combinaisons différentes

Par conséquent, si la puissance de l'alphabet est de 8, alors le poids de l'information d'un caractère est de 3 bits.

Numéro de séquence du symbole

Code binaire à deux chiffres

Numéro de séquence du symbole

Code binaire à trois chiffres


Chaque caractère de l'alphabet de 16 caractères peut être codé avec un code binaire à quatre chiffres. Et ainsi de suite.

Trouvons la relation entre la puissance de l'alphabet (N) et le nombre de caractères dans le code (b) - la capacité en bits du code binaire.

Notez que 2=2 1, 4=2 2, 8=2 3, 16=2 4.

En général, cela s'écrit ainsi : N=2 b


Tableau dépendance de la puissance de l'alphabet sur le poids informationnel du symbole

Poids informationnel du symbole

Symboles alphabétiques

Le pouvoir de l'alphabet

00000000… …11111111


La profondeur de bits d'un code binaire est le poids informationnel d'un symbole.

Le poids informationnel de chaque caractère, exprimé en bits ( b), et le pouvoir de l'alphabet ( N) sont liés entre eux par la formule : N=2 b

L’alphabet à partir duquel le « texte informatique » est composé contient 256 caractères. Un alphabet de cette taille peut accueillir presque tous les symboles nécessaires.


Puisque 256 = 2 8, alors un caractère de l'alphabet informatique « pèse » 8 bits d'information - c'est une valeur si caractéristique qu'on lui a même donné son propre nom - un octet.

1 octet = 8 bits

Il est facile de calculer le volume d'informations d'un texte si l'on sait que le poids d'information d'un caractère est de 1 octet. Il vous suffit de compter le nombre de caractères dans le texte. La valeur résultante sera le volume d'informations du texte, exprimé en octets.


, :, ;, #, &) b = 8 bits = 1 octet N = 256 = 2 8 N = 2 b 1 octet est le poids d'information d'un caractère de l'alphabet informatique = = = 1024 octets 2 10 octets 1 Ko 1 kilo-octet 1 Mo 1 mégaoctet 2 10 Ko 1 024 Ko = = = 1 024 Mo 2 10 Mo 1 gigaoctet 1 Go = = = 10" width="640"

UNITÉS DE MESURE DE L'INFORMATION

ALPHABET DES SYMBOLES INFORMATIQUES

  • Lettres russes (russes)
  • Latin ( LAT ) des lettres
  • nombres (1, 2, 3, 4, 5, 6, 7, 8, 9, 0)
  • signes mathématiques (+, -, *, / , ^, =)
  • autres caractères ("", N°, %, , , :, ;, #, &)

b = 8 peu = 1 octet

N = 256 = 2 8

N=2 b

1 octet est le poids informationnel d'un caractère de l'alphabet informatique

1024 octets

1 kilo-octet

1 mégaoctet

1024 Ko

1024 Mo

1 gigaoctet


1 Mo (mégaoctet) = 1 024 Ko (2 à 10 Ko ou 2 à 20 octets)

1 Go (gigaoctet) = 1 024 Mo (2 à 10 Mo ou 2 à 30 octets)

1 To (téraoctet) = 1 024 Go (2 à 10 Go ou 2 à 40 octets)

Mais dans un futur proche, les unités suivantes nous attendent :

1 Po (pétaoctet) = 1 024 To (2 à 10 To ou 2 à 50 octets)

1 EByte (exaoctet) = 1024 Po-octets (2 à 10 Po ou 2 à 60 octets)

1 Zbyte (zettabyte) - 1024 EBytes (2 10 EBytes ou 2 70 octets)

1 (yottaoctet) - 1024 Zoctets (2 10 Zoctets ou 2 80 octets)


VOLUME D'INFORMATION DU TEXTE

TÂCHE

Le livre, préparé à l'aide d'un ordinateur, contient 150 pages. Chaque page comporte 40 lignes, chaque ligne comporte 60 caractères (y compris les espaces entre les mots). Combien d’informations contient le livre ?

SOLUTION

La puissance de l’alphabet informatique est de 256, donc un caractère contient 1 octet d’information. Cela signifie que la page du livre contient 40 60 = 2400 octets d'informations.

[nombre de caractères par ligne] [nombre de lignes] = [volume d'informations sur la page]

Le volume de toutes les informations contenues dans le livre (en différentes unités) :

[volume d'informations sur la page] [nombre de pages] = [volume d'informations du livre]

2400 150 = 360 000 octets / 1024 = 351,5625 Ko / 1024 = 0,34332275 Mo


Problème 1

Le message est écrit en lettres de l'alphabet de 128 caractères et contient 30 caractères. Quelle quantité d’informations contient-il ?

N = 2 b

b = 7 bits (poids d'un caractère).

Le message contient 30 caractères, donc

7×30= 210 bits


Problème 2

Combien d'octets y a-t-il dans un message contenant 1000 bits ?

1 octet = 8 bits

1000 : 8 = 125 octets


Tâche 3

Un message d'information de 5 Ko contient 8 192 caractères. Combien de caractères contient l’alphabet avec lequel ce message a été écrit ?

SOLUTION

N = 2 b

5 Ko = 5 120 octets = 40 960 bits

Le message contient 8192 caractères, donc

b = 40960 : 8192 = 5 bits (poids d'un caractère).


Tâche 4

Le texte, tapé sur un ordinateur, occupe cinq pages. Chaque page contient 30 lignes de 70 caractères par ligne. Combien de RAM ce texte occupe-t-il ? Le texte tiendra-t-il sur un CD ?

Répondre

30 × 70 = 2100 caractères

2100 × 8 = 16800 octets

16800 : 1024 = 16,40625 Ko


Tâche 5

Quelle quantité d’informations contient un message de 10 caractères écrit avec des lettres d’un alphabet de 32 caractères ?

N = 2 b

SOLUTION

Quantité d'informations

je = 10*5 = 50 bits


Tâche 6

Pour stocker du texte, 84 000 bits sont nécessaires. Combien de pages prendra ce texte si la page contient 30 lignes de 70 caractères par ligne ?

SOLUTION

1 octet = 8 bits.

84000/8=10500 caractères dans le texte.

La page contient

30×70=2100 caractères.

5 pages.

5 pages.

RÉPONDRE:


Tâche 7

La tribu Chichevok compte 24 lettres et 8 chiffres dans son alphabet. Il n'y a pas de signes de ponctuation ni de signes arithmétiques. Quel est le nombre minimum de chiffres binaires dont ils ont besoin pour coder tous les caractères ?

N = 2 b

SOLUTION

RÉPONDRE:

5 bits


La première lettre se compose de 50 caractères d’un alphabet de 32 caractères et la deuxième lettre de 40 caractères d’un alphabet de 64 caractères.

Comparez la quantité d'informations contenues

en deux lettres.

Tâche 8

Déterminons la capacité informationnelle d'un caractère dans chaque lettre :

SOLUTION

2 b = 32, b = 5 bits – pour la première lettre, 2 b = 64, b = 6 bits – pour la deuxième lettre

Déterminons la quantité d'informations dans chaque lettre :

50*5 = 250 bits – pour la première lettre,

40*6 = 240 bits – pour la deuxième lettre.

Trouvons la différence entre les volumes d'informations de deux lettres. 250 - 240 = 10 bits.

Rappelons que, du point de vue d'une approche subjective de la définition de l'information, l'information est le contenu des messages qu'une personne reçoit de diverses sources. Le même message peut véhiculer beaucoup d’informations pour une personne et ne pas en véhiculer du tout pour une autre personne. Avec cette approche, il est difficile de déterminer sans ambiguïté la quantité d'informations.

L'approche alphabétique permet de mesurer le volume d'information d'un message présenté dans une langue (naturelle ou formelle), quel que soit son contenu.

Pour exprimer quantitativement n’importe quelle quantité, il faut tout d’abord une unité de mesure. La mesure est effectuée en comparant la valeur mesurée avec une unité de mesure. Le nombre de fois qu'une unité de mesure « s'adapte » à la valeur mesurée est le résultat de la mesure.

Avec l'approche alphabétique, on pense que chaque caractère d'un message a un certain poids d'information - il transporte une quantité fixe d'informations. Tous les caractères d’un même alphabet ont le même poids, selon la puissance de l’alphabet. Le poids informationnel d'un symbole de l'alphabet binaire est considéré comme l'unité minimale d'information et est appelé 1 bit. Veuillez noter que le nom de l'unité d'information « bit » vient de l'expression anglaise « binaire chiffre ».

1.4.2. Poids de l'information d'un caractère d'un alphabet arbitraire

Nous avons découvert précédemment que l'alphabet de toute langue naturelle ou formelle peut être remplacé par un alphabet binaire. Dans ce cas, la puissance de l'alphabet original N est liée à la capacité en bits du code binaire i nécessaire pour coder tous les caractères de l'alphabet original, la relation : N = 2 i.

Problème 1. L'alphabet Pulti contient 8 caractères. Quel est le poids informationnel d’un symbole de cet alphabet ?

Solution. Faisons un bref exposé des conditions du problème.

La relation entre les quantités i et N est connue : N = 2 i.

Compte tenu des données initiales : 8 = 2 i. D'où : i = 3.

Une entrée complète de bloc-notes pourrait ressembler à ceci :

Réponse : 3 bits

1.4.3. Volume d'informations du message

Le volume d'informations d'un message (la quantité d'informations dans un message), représenté par des symboles d'un langage naturel ou formel, est constitué des poids d'information de ses symboles constitutifs.

Problème 2. Le message, rédigé en lettres de l'alphabet de 32 caractères, contient 140 caractères. Quelle quantité d’informations contient-il ?

Solution.

Réponse » : 700 bits.

Problème 3. Un message d'information d'un volume de 720 bits comprend 180 caractères. Quelle est la puissance de l’alphabet dans lequel ce message est écrit ?

Solution.

Réponse : 16 caractères.

1.4.4. Unités d'information

De nos jours, la préparation des textes s’effectue principalement à l’aide d’ordinateurs. On peut parler d'un « alphabet informatique » qui comprend les caractères suivants : lettres minuscules et majuscules russes et latines, chiffres, signes de ponctuation, signes d'opérations arithmétiques, parenthèses, etc. Cet alphabet contient 256 caractères. Puisque 256 = 2 8 , le poids informationnel de chaque caractère de cet alphabet est de 8 bits. Une valeur égale à huit bits est appelée un octet. 1 octet est le poids informationnel d'un symbole alphabétique d'une capacité de 256.

Problème 4. Un message d'information de 4 Ko comprend 4 096 caractères. Quel est le poids informationnel du symbole de ce message ? Combien de caractères contient l’alphabet avec lequel ce message est écrit ? Solution.

Réponse : 256 caractères.

Le plus important

Avec l'approche alphabétique, on pense que chaque caractère d'un certain message a un certain poids d'information - il transporte une quantité fixe d'informations.

1 bit est l'unité d'information minimale.

Le poids d'information i du symbole alphabétique et la puissance N de l'alphabet sont liés l'un à l'autre par la relation : N = 2 i . Le volume d'information I du message est égal au produit du nombre K de caractères du message par le poids informationnel du i caractère de l'alphabet : I = K i.

1 octet = 8 bits.

L'octet, le kilooctet, le mégaoctet, le gigaoctet, le téraoctet sont des unités de mesure de l'information. Chaque unité suivante est 1024 (2 10) fois plus grande que la précédente.

Questions et tâches


Et bien d’autres concepts ont des liens très directs les uns avec les autres. Très peu d’utilisateurs connaissent aujourd’hui ces problématiques. Essayons de clarifier quel est le pouvoir de l'alphabet, comment le calculer et l'appliquer dans la pratique. À l’avenir, cela pourrait sans aucun doute être utile dans la pratique.

Comment les informations sont mesurées

Avant de commencer à étudier la question de savoir quel est le pouvoir de l’alphabet et ce qu’il est en général, nous devrions commencer, pour ainsi dire, par les bases.

Tout le monde sait sûrement qu'il existe aujourd'hui des systèmes spéciaux pour mesurer des quantités basées sur des valeurs de référence. Par exemple, pour les distances et quantités similaires, il s'agit de mètres, pour la masse et le poids - de kilogrammes, pour les intervalles de temps - de secondes, etc.

Mais comment mesurer l’information en termes de volume de texte ? C’est précisément pourquoi le concept de pouvoir alphabétique a été introduit.

Quel est le pouvoir de l’alphabet : un premier concept

Ainsi, si nous suivons la règle généralement acceptée selon laquelle la valeur finale de toute quantité est un paramètre qui détermine combien de fois l'unité de référence est contenue dans la quantité mesurée, nous pouvons conclure : la puissance de l'alphabet est le nombre total de symboles utilisés pour une langue particulière.

Pour que ce soit plus clair, laissons de côté pour l'instant la question de savoir comment trouver le pouvoir de l'alphabet et prêtons attention aux symboles eux-mêmes, bien sûr, du point de vue des technologies de l'information. En gros, la liste complète des caractères utilisés contient des lettres, des chiffres, toutes sortes de parenthèses, des caractères spéciaux, des signes de ponctuation, etc. Cependant, si nous abordons la question de savoir quel est le pouvoir de l’alphabet de manière informatique, nous devrions également inclure un espace (un seul espace entre des mots ou d’autres caractères).

Prenons comme exemple la langue russe, ou plutôt la disposition du clavier. Sur la base de ce qui précède, la liste complète contient 33 lettres, 10 chiffres et 11 caractères spéciaux. La puissance totale de l’alphabet est donc de 54.

Poids informationnel des caractères

Cependant, le concept général du pouvoir de l'alphabet ne définit pas l'essence du calcul de volumes d'informations de texte contenant des lettres, des chiffres et des symboles. Cela nécessite une approche particulière.

En gros, réfléchissez-y, quel pourrait être l'ensemble minimum du point de vue d'un système informatique, combien de caractères peut-il contenir ? Réponse : deux. Et c'est pourquoi. Le fait est que chaque symbole, qu'il s'agisse d'une lettre ou d'un chiffre, a son propre poids d'information, grâce auquel la machine reconnaît exactement ce qui se trouve devant elle. Mais l’ordinateur ne comprend que la représentation sous forme de uns et de zéros, sur laquelle repose en fait toute l’informatique.

Ainsi, n'importe quel caractère peut être représenté sous forme de séquences contenant les chiffres 1 et 0, c'est-à-dire que la séquence minimale désignant une lettre, un chiffre ou un symbole est constituée de deux composants.

Le poids de l'information lui-même, pris comme unité de mesure d'information standard, est appelé bit (1 bit). En conséquence, 8 bits font 1 octet.

Représentation des caractères en code binaire

Alors, quel est le pouvoir de l'alphabet, je pense, est déjà un peu clair. Voyons maintenant un autre aspect, notamment la représentation pratique du pouvoir en utilisant A titre d'exemple, pour simplifier, prenons un alphabet contenant seulement 4 caractères.

Dans un code binaire à deux chiffres, la séquence et leur représentation des informations peuvent être décrites comme suit :

Numéro de série

Code binaire

D’où la conclusion la plus simple : avec la puissance alphabétique N=4, le poids d’un seul caractère est de 2 bits.

Si l'on utilise un code binaire à trois chiffres pour un alphabet comportant par exemple 8 caractères, le nombre de combinaisons sera le suivant :

Numéro de série

Code binaire

Autrement dit, avec la puissance alphabétique N = 8, le poids d'un symbole pour un code binaire à trois chiffres sera égal à 3 bits.

alphabet et utilisez-le dans une expression informatique

Essayons maintenant d'examiner la relation exprimée entre le nombre de caractères du code et la puissance de l'alphabet. La formule, où N est la puissance alphabétique de l'alphabet et b est le nombre de caractères du code binaire, ressemblera à ceci :

Autrement dit, 2 1 =2, 2 2 =4, 2 3 =8, 2 4 =16, etc. En gros, le nombre requis de caractères du code binaire lui-même correspond au poids du symbole. En termes d'information, cela ressemble à ceci :

Mesurer le volume d’informations

Cependant, ce ne sont là que les exemples les plus simples, pour ainsi dire, pour une première compréhension de la puissance de l’alphabet. Passons à la pratique.

A ce stade de développement de la technologie informatique pour taper du texte, en tenant compte des lettres majuscules, majuscules et cyrilliques et latines, des signes de ponctuation, des parenthèses, des symboles arithmétiques, etc. 256 caractères sont utilisés. Partant du fait que 256 vaut 2 8, il n'est pas difficile de deviner que le poids de chaque caractère dans un tel alphabet est de 8, c'est-à-dire 8 bits ou 1 octet.

Sur la base de tous les paramètres connus, nous pouvons facilement obtenir le volume d'informations souhaité pour n'importe quel texte. Par exemple, nous avons un texte informatique contenant 30 pages. Une page contient 50 lignes de 60 caractères ou symboles, espaces compris.

Ainsi, une page contiendra 50 x 60 = 3 000 octets d'informations, et le texte entier contiendra 3 000 x 50 = 150 000 octets. Comme vous pouvez le constater, mesurer même de petits textes en octets n'est pas pratique. Qu’en est-il des bibliothèques entières ?

Dans ce cas, il est préférable de convertir le volume en unités plus puissantes - kilo-octets, mégaoctets, gigaoctets, etc. Partant du fait que, par exemple, 1 kilo-octet équivaut à 1 024 octets (2 10) et qu'un mégaoctet équivaut à 2 10 kilo-octets (1 024 kilo-octets), il est facile de calculer que le volume de texte en information et expression mathématique pour notre L'exemple sera 150000/1024 = 146, 484375 kilo-octets ou environ 0,14305 mégaoctets.

Au lieu d'une postface

En général, c'est brièvement tout ce qui concerne l'examen de la question de savoir quel est le pouvoir de l'alphabet. Il reste à ajouter que dans cette description une approche purement mathématique a été utilisée. Il va de soi que la charge sémantique du texte n'est pas prise en compte dans ce cas.

Mais, si nous abordons les questions de considération précisément à partir d'une position qui donne à une personne quelque chose à comprendre, un ensemble de combinaisons ou de séquences de symboles dénuées de sens à cet égard n'aura aucune charge d'information, bien que, du point de vue du concept d'information volume, le résultat peut encore être calculé.

En général, la connaissance du pouvoir de l'alphabet et des concepts associés n'est pas si difficile à comprendre et peut simplement être appliquée dans le sens d'actions pratiques. De plus, tout utilisateur est confronté à ce problème presque tous les jours. Il suffit de donner l'exemple du populaire éditeur Word ou de tout autre éditeur du même niveau qui utilise un tel système. Mais ne le confondez pas avec le Bloc-notes classique. Ici, la puissance de l'alphabet est moindre, puisque la frappe n'utilise pas, par exemple, de lettres majuscules.

Il existe plusieurs façons de mesurer la quantité d'informations. L'un d'eux s'appelle alphabétique.

Approche alphabétique permet de mesurer la quantité d'informations dans un texte (message symbolique) composé de caractères d'un certain alphabet.

Alphabet est un ensemble de lettres, signes, chiffres, parenthèses, etc.
Le nombre de caractères de l'alphabet s'appelle son pouvoir.

Avec l'approche alphabétique, on pense que chaque caractère du texte a une signification spécifique. poids des informations. Le poids informationnel d’un symbole dépend de la puissance de l’alphabet.

Quelle est la puissance minimale de l’alphabet qui peut être utilisée pour enregistrer (coder) des informations ?



Appelons une combinaison de 2, 3, etc. peu code binaire.

Combien de caractères peuvent être codés avec deux bits ?

Numéro de séquence du symbole

1

2

3

4

Code binaire à deux chiffres

00

01

10

11

4 personnages 2 morceaux.

Combien de caractères peuvent être codés avec trois bits ?

Numéro de séquence du symbole

1

2

3

4

5

6

7

8

Code binaire à trois chiffres

000

001

010

011

100

101

110

111


Il s'ensuit que dans l'alphabet de cardinalité 8 caractères poids informationnel de chaque caractère - 3 bits.

On peut conclure que dans l'alphabet avec capacité 16 caractères le poids informationnel de chaque caractère sera 4 bits.

Désignons la puissance de l'alphabet par la lettre N, et le poids informationnel du symbole est la lettre b.

La relation entre le pouvoir de l'alphabet N et le poids informationnel du symbole b.

N

2

4

8

16

b

1 peu