Casa / Padroneggiare il PC / fenomeno informativo. Metodi per riassumere le informazioni sulle transazioni commerciali dell'organizzazione per il periodo di rendicontazione Cosa non si applica alle proprietà delle informazioni

fenomeno informativo. Metodi per riassumere le informazioni sulle transazioni commerciali dell'organizzazione per il periodo di rendicontazione Cosa non si applica alle proprietà delle informazioni

Le informazioni sono informazioni su qualcosa.

Il concetto e i tipi di informazioni, la trasmissione e l'elaborazione, la ricerca e la memorizzazione delle informazioni

Espandi contenuto

Comprimi il contenuto

L'informazione è, definizione

L'informazione è qualsiasi informazione ricevuta e trasmessa, conservata da varie fonti. L'informazione è la totalità delle informazioni sul mondo che ci circonda, su tutti i tipi di processi che avvengono in esso, che possono essere percepite da organismi viventi, macchine elettroniche e altri sistemi informativi.

- questo è informazioni significative su qualcosa, quando la forma della loro presentazione è anche informazione, cioè ha una funzione di formattazione secondo la sua stessa natura.

L'informazione è tutto ciò che può essere integrato dalle nostre conoscenze e supposizioni.

L'informazione è informazioni su qualcosa, indipendentemente dalla forma della loro presentazione.

L'informazione è il prodotto mentale di qualsiasi organismo psicofisico, da esso prodotto quando utilizza alcuni mezzi, chiamato mezzo dell'informazione.

L'informazione è informazioni percepite da una persona e (o) speciali. dispositivi come riflesso dei fatti del mondo materiale o spirituale nel processo di comunicazione.

L'informazione è dati organizzati in modo tale da avere un senso per la persona che li gestisce.

L'informazione è il valore che una persona attribuisce ai dati in base alle convenzioni note utilizzate per rappresentarli.


L'informazione è informazioni, spiegazioni, presentazioni.

L'informazione è qualsiasi dato o informazione a cui qualcuno è interessato.

L'informazione è informazioni su oggetti e fenomeni ambiente, i loro parametri, proprietà e stato, che sono percepiti dai sistemi informativi (organismi viventi, macchine di controllo, ecc.) nel processo della vita e del lavoro.

Stesso Annuncio(un articolo di giornale, un annuncio pubblicitario, una lettera, un telegramma, un riferimento, una storia, un disegno, una trasmissione radiofonica, ecc.) possono contenere una quantità diversa di informazioni per persone diverse - a seconda delle loro precedenti conoscenze, su il livello di comprensione di questo messaggio e l'interesse per esso.

Nei casi in cui si parla di lavoro automatizzato con informazioni tramite qualsiasi dispositivi tecnici, non sono interessati al contenuto del messaggio, ma a quanti caratteri contiene questo messaggio.

In relazione all'elaborazione dei dati informatici, l'informazione è intesa come una certa sequenza di designazioni simboliche (lettere, numeri, immagini grafiche e suoni codificati, ecc.) che portano un carico semantico e sono presentate in una forma comprensibile a un computer. Ogni nuovo carattere in una tale sequenza di caratteri aumenta il volume di informazioni del messaggio.


Attualmente non esiste una definizione univoca di informazione come termine scientifico. Dal punto di vista dei vari campi della conoscenza, questo concetto è descritto dal suo insieme specifico di caratteristiche. Ad esempio, il concetto di "informazione" è basilare nel corso di informatica, ed è impossibile definirlo attraverso altri concetti più "semplici" (così come in geometria, ad esempio, è impossibile esprimere il contenuto di i concetti base di "punto", "linea", "piano" attraverso concetti più semplici).


Il contenuto dei concetti di base di base in ogni scienza deve essere spiegato con esempi o identificato confrontandoli con il contenuto di altri concetti. Nel caso del concetto di "informazione", il problema della sua definizione è ancora più complicato, poiché si tratta di un concetto scientifico generale. Questo concetto è utilizzato in varie scienze (informatica, cibernetica, biologia, fisica, ecc.), mentre in ogni scienza il concetto di "informazione" è associato a vari sistemi concetti.


Il concetto di informazione

Nella scienza moderna, vengono considerati due tipi di informazioni:

L'informazione oggettiva (primaria) è la proprietà degli oggetti e dei fenomeni materiali (processi) di generare una varietà di stati, che attraverso le interazioni (interazioni fondamentali) vengono trasmessi ad altri oggetti e impressi nella loro struttura.

L'informazione soggettiva (semantica, semantica, secondaria) è il contenuto semantico di informazioni oggettive su oggetti e processi del mondo materiale, formato dalla mente umana con l'aiuto di immagini semantiche (parole, immagini e sensazioni) e fissato su un supporto materiale.


Nel senso quotidiano, l'informazione è informazione sul mondo circostante e sui processi che avvengono in esso, percepita da una persona o dispositivo speciale.

Attualmente non esiste una definizione univoca di informazione come termine scientifico. Dal punto di vista dei vari campi della conoscenza, questo concetto è descritto dal suo insieme specifico di caratteristiche. Secondo il concetto di K. Shannon, l'informazione è l'incertezza rimossa, cioè informazioni che dovrebbero rimuovere, in un modo o nell'altro, l'incertezza che il consumatore ha prima di essere ricevute, ampliare la sua comprensione dell'oggetto con informazioni utili.


Dal punto di vista di Gregory Beton, l'unità elementare dell'informazione è una "differenza premurosa" o una differenza effettiva per un sistema percettivo più ampio. Quelle differenze che non vengono percepite, le chiama "potenziali" e percepite - "attive". "Le informazioni sono costituite da differenze indifferenti" (c) "Ogni percezione di informazioni è necessariamente un'acquisizione di informazioni su una differenza". Dal punto di vista dell'informatica, l'informazione ha una serie di proprietà fondamentali: novità, pertinenza, affidabilità, obiettività, completezza, valore, ecc. La scienza della logica è principalmente coinvolta nell'analisi delle informazioni. La parola "informazione" deriva dalla parola latina informatio, che in traduzione significa informazione, chiarimento, familiarizzazione. Il concetto di informazione era considerato dai filosofi antichi.

Prima della rivoluzione industriale, definire l'essenza dell'informazione restava prerogativa principalmente dei filosofi. Inoltre, la scienza della cibernetica, che a quel tempo era nuova, iniziò a considerare questioni di teoria dell'informazione.

A volte, per comprendere l'essenza di un concetto, è utile analizzare il significato della parola che denota questo concetto. Il chiarimento della forma interna della parola e lo studio della storia del suo uso possono gettare una luce inaspettata sul suo significato, eclissato dal consueto uso "tecnologico" di questa parola e dalle connotazioni moderne.

La parola informazione è entrata nella lingua russa nell'era petrina. Per la prima volta viene registrato nel "Regolamento Spirituale" del 1721 nel significato di "rappresentazione, concetto di qualcosa". (Nelle lingue europee, è stato risolto in precedenza, intorno al XIV secolo.)

Sulla base di questa etimologia, l'informazione può essere considerata qualsiasi cambiamento significativo nella forma, o, in altre parole, qualsiasi traccia materialmente fissa formata dall'interazione di oggetti o forze e suscettibile di comprensione. L'informazione è quindi una forma convertita di energia. Il vettore dell'informazione è un segno, e il modo della sua esistenza è l'interpretazione: rivelare il significato di un segno o di una sequenza di segni.

Il significato può essere un evento ricostruito a partire dal segno che ne ha causato il verificarsi (nel caso di segni "naturali" e involontari, come tracce, prove, ecc.), oppure un messaggio (nel caso di segni convenzionali caratteristici della sfera della lingua). È il secondo tipo di segni che costituisce il corpo della cultura umana, che, secondo una delle definizioni, è "un insieme di informazioni trasmesse non ereditariamente".

I messaggi possono contenere informazioni su fatti o interpretazioni di fatti (dal latino interpretatio, interpretazione, traduzione).

Un essere vivente riceve informazioni attraverso i sensi, così come attraverso la riflessione o l'intuizione. Lo scambio di informazioni tra soggetti è comunicazione o comunicazione (dal lat. communicatio, messaggio, trasmissione, derivato a sua volta da lat. communico, mettere in comune, informare, parlare, collegare).

Da un punto di vista pratico, l'informazione è sempre presentata come un messaggio. Un messaggio informativo è associato a un'origine del messaggio, un destinatario del messaggio e un canale di comunicazione.


Tornando all'etimologia latina della parola informazione, proviamo a rispondere alla domanda su quale sia esattamente la forma qui data.

È ovvio che, in primo luogo, un senso, che, essendo inizialmente informe e inespresso, esiste solo potenzialmente e deve essere "costruito" per essere percepito e trasmesso.

In secondo luogo, alla mente umana, educata a pensare in modo strutturato e chiaro. In terzo luogo, una società che, proprio perché i suoi membri condividono questi significati e li condividono, acquista unità e funzionalità.

L'informazione come significato ragionevole espresso è conoscenza che può essere memorizzata, trasmessa ed essere la base per la generazione di altra conoscenza. Le forme di conservazione della conoscenza (memoria storica) sono diverse: da miti, annali e piramidi a biblioteche, musei e banche dati informatiche.

Informazioni - informazioni sul mondo che ci circonda, sui processi che vi si svolgono, che sono percepiti da organismi viventi, macchine di controllo e altri sistemi informativi.

La parola "informazione" è latina. Per una lunga vita, il suo significato ha subito un'evoluzione, a volte ampliandosi, a volte restringendone i confini al limite. Inizialmente, la parola "informazione" significava: "rappresentazione", "concetto", quindi - "informazione", "trasmissione di messaggi".


Negli ultimi anni, gli scienziati hanno deciso che il significato consueto (generalmente accettato) della parola "informazione" è troppo elastico, vago e gli hanno dato un tale significato: "una misura di certezza in un messaggio".

La teoria dell'informazione è stata animata dalle esigenze della pratica. La sua origine è associata all'opera di Claude Shannon "Mathematical Theory of Communication", pubblicata nel 1946. Le basi della teoria dell'informazione si basano sui risultati ottenuti da molti scienziati. Entro la seconda metà del 20° secolo, il globo brulicava di informazioni trasmesse, che scorrevano attraverso cavi telefonici e telegrafici e canali radio. Più tardi apparvero i computer elettronici: processori di informazioni. E per quel tempo, il compito principale della teoria dell'informazione era, prima di tutto, aumentare l'efficienza del funzionamento dei sistemi di comunicazione. La difficoltà nella progettazione e nel funzionamento di mezzi, sistemi e canali di comunicazione è che non basta che il progettista e l'ingegnere risolvano il problema da posizioni fisiche ed energetiche. Da questi punti di vista, il sistema può essere il più perfetto ed economico. Ma è anche importante quando si creano sistemi di trasmissione prestare attenzione a quante informazioni passeranno attraverso questo sistema di trasmissione. Dopotutto, le informazioni possono essere quantificate, calcolate. E in tali calcoli agiscono nel modo più consueto: astraggono dal senso del messaggio, poiché rinunciano alla concretezza nelle operazioni aritmetiche a noi familiari (poiché dall'addizione di due mele e tre mele passano all'addizione di numeri in generale: 2 + 3).


Gli scienziati hanno affermato di "ignorare completamente la valutazione umana delle informazioni". Ad una sequenza di 100 lettere, ad esempio, assegnano un significato a un'informazione, indipendentemente dal fatto che l'informazione abbia un senso e che, a sua volta, l'applicazione pratica abbia senso. L'approccio quantitativo è la branca più sviluppata della teoria dell'informazione. Secondo questa definizione, una raccolta di 100 lettere - una frase di 100 lettere da un giornale, un'opera di Shakespeare o il teorema di Einstein - ha esattamente la stessa quantità di informazioni.


Questa quantificazione delle informazioni è molto utile e pratica. Corrisponde esattamente al compito dell'ingegnere delle comunicazioni, che deve veicolare tutte le informazioni contenute nel telegramma inviato, indipendentemente dal valore di tali informazioni per il destinatario. Il canale di comunicazione è senz'anima. Una cosa è importante per il sistema trasmittente: trasmettere la quantità di informazioni richiesta in un certo tempo. Come calcolare la quantità di informazioni in un messaggio particolare?

La valutazione della quantità di informazioni si basa sulle leggi della teoria della probabilità, più precisamente è determinata attraverso le probabilità degli eventi. Questo è comprensibile. Il messaggio ha valore, porta informazioni solo quando apprendiamo da esso l'esito di un evento che ha un carattere casuale, quando è in una certa misura inaspettato. Dopotutto, il messaggio sul già noto non contiene alcuna informazione. Quelli. se, ad esempio, qualcuno ti chiama al telefono e dice: "È chiaro di giorno e buio di notte", allora un messaggio del genere ti sorprenderà solo con l'assurdità dell'affermazione dell'ovvio e del noto, e non con le notizie che contiene. Un'altra cosa, per esempio, il risultato della gara alle gare. Chi verrà prima? Il risultato qui è difficile da prevedere: più l'evento che ci interessa ha esiti casuali, più prezioso è il messaggio sul suo risultato, più informazioni. Un messaggio di evento che ha solo due esiti ugualmente possibili contiene un'informazione chiamata bit. La scelta dell'unità di informazione non è casuale. È associato al più comune modo binario la sua codifica durante la trasmissione e l'elaborazione. Proviamo, almeno nella forma più semplificata, ad immaginare quel principio generale della valutazione quantitativa dell'informazione, che è la pietra angolare dell'intera teoria dell'informazione.


Sappiamo già che la quantità di informazioni dipende dalle probabilità di determinati esiti di un evento. Se un evento, come dicono gli scienziati, ha due esiti ugualmente probabili, significa che la probabilità di ciascun esito è 1/2. Questa è la probabilità di ottenere testa o croce quando si lancia una moneta. Se un evento ha tre esiti ugualmente probabili, la probabilità di ciascuno è 1/3. Nota che la somma delle probabilità di tutti i risultati è sempre uguale a uno: dopo tutto, uno di tutti i possibili risultati arriverà sicuramente. Un evento, come capisci, può avere esiti diseguali. Quindi, in una partita di calcio tra squadre forti e squadre deboli, la probabilità che una squadra forte vinca è alta, ad esempio 4/5. La probabilità di pareggio è molto inferiore, ad esempio 3/20. La probabilità di sconfitta è molto piccola.


Si scopre che la quantità di informazioni è una misura per ridurre l'incertezza di alcune situazioni. Diverse quantità di informazioni vengono trasmesse sui canali di comunicazione e la quantità di informazioni che passa attraverso il canale non può superare la sua capacità. Ed è determinato da quante informazioni passano qui per unità di tempo. Uno dei personaggi del romanzo di Jules Verne L'isola misteriosa, il giornalista Gideon Spillet, stava telefonando a un capitolo della Bibbia in modo che i suoi concorrenti non potessero usare il telefono. In questo caso, il canale è stato caricato completamente e la quantità di informazioni era pari a zero, perché l'abbonato ha ricevuto informazioni a lui note. Ciò significa che il canale era inattivo, passando un numero di impulsi rigorosamente definito, senza caricarli con nulla. Nel frattempo, più informazioni trasporta ciascuno di un certo numero di impulsi, più completamente viene utilizzata la larghezza di banda del canale. Pertanto, è necessario codificare in modo intelligente le informazioni, per trovare un linguaggio economico e avaro per la trasmissione dei messaggi.


Le informazioni vengono "setacciate" nel modo più completo. Nel telegrafo, le lettere frequenti, le combinazioni di lettere e persino le frasi intere sono rappresentate con un insieme più breve di zeri e uno, e quelle meno comuni con uno più lungo. Nel caso in cui la lunghezza della parola in codice sia ridotta per i simboli che ricorrono frequentemente e aumentata per quelli che ricorrono raramente, si parla di codifica efficiente delle informazioni. Ma in pratica capita spesso che il codice risultante dal più approfondito “spulciamento”, codice comodo ed economico, possa distorcere il messaggio a causa di interferenze, cosa che, purtroppo, accade sempre nei canali di comunicazione: distorsione del suono nel telefono, atmosfera rumore in radio, distorsione o oscuramento dell'immagine in televisione, errori di trasmissione nel telegrafo. Queste interferenze, o, come vengono chiamate dagli esperti, rumore, cadono sull'informazione. E da questo ci sono le sorprese più incredibili e, ovviamente, spiacevoli.


Pertanto, per aumentare l'affidabilità nella trasmissione e nell'elaborazione delle informazioni, è necessario introdurre caratteri extra, una sorta di protezione contro la distorsione. Loro - questi caratteri extra - non portano il contenuto effettivo nel messaggio, sono ridondanti. Dal punto di vista della teoria dell'informazione, tutto ciò che rende un linguaggio colorato, flessibile, ricco di sfumature, sfaccettato, multivalore, è ridondanza. Com'è ridondante da tali posizioni la lettera di Tatyana a Onegin! Quanti eccessi informativi ci sono per un messaggio breve e comprensibile "ti amo"! E quanto sono informativamente accurati i segnali disegnati a mano comprensibili a chiunque e tutti coloro che oggi entrano in metropolitana, dove al posto delle parole e delle frasi degli annunci ci sono laconici segni simbolici che indicano: "Ingresso", "Uscita".


A questo proposito, è utile ricordare un aneddoto raccontato un tempo dal famoso scienziato americano Benjamin Franklin su un cappellaio che invitò i suoi amici a discutere di un progetto di segno: avrebbe dovuto disegnare un cappello sul segno e scrivere: “John Thompson, il cappellaio, produce e vende cappelli per contanti”. Uno degli amici ha osservato che le parole "per contanti" sono ridondanti: un tale promemoria sarebbe offensivo per l'acquirente. Un altro ha anche ritenuto superflua la parola "vende", poiché è ovvio che un cappellaio vende cappelli e non li regala gratuitamente. Il terzo pensava che le parole "cappellaio" e "fa cappelli" fossero una tautologia non necessaria e le ultime parole furono buttate via. Il quarto ha suggerito di buttare via la parola "cappellaio": il cappello dipinto dice chiaramente chi è John Thompson. Infine, il quinto assicurò che era del tutto indifferente all'acquirente se il cappellaio si chiamasse John Thompson o altro, e suggerì di rinunciare a questa indicazione. Così, alla fine, sull'insegna non rimase altro che un cappello. Certo, se le persone usavano solo questo tipo di codici, senza ridondanza nei messaggi, allora tutto" moduli informativi» - libri, relazioni, articoli - sarebbe estremamente breve. Ma perderebbero in intelligibilità e bellezza.

Le informazioni possono essere suddivise in tipologie secondo diversi criteri: in verità: vero e falso;

secondo il modo di percezione:

Visivo: percepito dagli organi visivi;

Uditivo: percepito dagli organi dell'udito;

Tattile: percepito dai recettori tattili;

Olfattivo - percepito dai recettori olfattivi;

Gusto - percepito dalle papille gustative.


sotto forma di presentazione:

Testo - trasmesso sotto forma di simboli destinati a designare lessemi della lingua;

Numerico: sotto forma di numeri e segni che denotano operazioni matematiche;

Grafico - sotto forma di immagini, oggetti, grafici;

Suono - orale o sotto forma di registrazione, la trasmissione di lessemi linguistici con mezzi uditivi.


su appuntamento:

Messa - contiene informazioni banali e opera con un insieme di concetti comprensibili alla maggior parte della società;

Speciale: contiene un insieme specifico di concetti, quando viene utilizzato, vengono trasmesse informazioni che potrebbero non essere chiare alla maggior parte della società, ma sono necessarie e comprensibili all'interno di un ristretto gruppo sociale in cui vengono utilizzate questa informazione;

Segreto: trasmesso a una ristretta cerchia di persone e attraverso canali chiusi (sicuri);

Personale (privato) - un insieme di informazioni su una persona che determina la posizione sociale e i tipi di interazioni sociali all'interno della popolazione.


per valore:

Aggiornato - informazioni preziose in questo momento volta;

Affidabile: informazioni ricevute senza distorsioni;

Comprensibile - informazioni espresse in un linguaggio comprensibile alla persona a cui sono destinate;

Completo - informazioni sufficienti per l'accettazione giusta decisione o comprensione;

Utile: l'utilità delle informazioni è determinata dal soggetto che ha ricevuto le informazioni, a seconda del volume delle possibilità per il loro utilizzo.


Il valore dell'informazione nei vari campi della conoscenza

Nella teoria dell'informazione, oggigiorno vengono sviluppati molti sistemi, metodi, approcci, idee. Tuttavia, gli scienziati ritengono che le nuove tendenze si aggiungeranno alle tendenze moderne nella teoria dell'informazione, appariranno nuove idee. A riprova della correttezza delle loro ipotesi, citano la natura “viva”, in via di sviluppo della scienza, sottolineano che la teoria dell'informazione è sorprendentemente rapidamente e saldamente introdotta nelle aree più diverse della conoscenza umana. La teoria dell'informazione è penetrata in fisica, chimica, biologia, medicina, filosofia, linguistica, pedagogia, economia, logica, scienze tecniche ed estetica. Secondo gli stessi esperti, la dottrina dell'informazione, nata per esigenze della teoria della comunicazione e della cibernetica, ha scavalcato i propri limiti. E ora, forse, abbiamo il diritto di parlare di informazione come di un concetto scientifico che mette nelle mani dei ricercatori un metodo teorico e informativo con il quale è possibile penetrare in molte scienze della natura animata e inanimata, della società, che permetterà di non solo per guardare tutti i problemi da una nuova prospettiva, ma anche per vedere l'invisibile. Ecco perché il termine "informazione" si è diffuso nel nostro tempo, entrando a far parte di concetti come il sistema informativo, la cultura dell'informazione, persino l'etica dell'informazione.


Molte discipline scientifiche utilizzano la teoria dell'informazione per enfatizzare una nuova direzione nelle vecchie scienze. È così che sono nate, ad esempio, la geografia dell'informazione, l'economia dell'informazione e il diritto dell'informazione. Ma estremamente Grande importanza ha acquisito il termine "informazione" in connessione con lo sviluppo della più recente tecnologia informatica, l'automazione del lavoro mentale, lo sviluppo di nuovi mezzi di comunicazione e di elaborazione delle informazioni, e in particolare con l'emergere dell'informatica. Uno dei compiti più importanti della teoria dell'informazione è lo studio della natura e delle proprietà dell'informazione, la creazione di metodi per la sua elaborazione, in particolare la trasformazione di un'ampia varietà di informazioni moderne in programmi per computer, con l'aiuto dei quali il avviene l'automazione del lavoro mentale - una sorta di rafforzamento dell'intelletto, e quindi lo sviluppo delle risorse intellettuali della società.


La parola "informazione" deriva dal vocabolo latino informatio, che significa informazione, chiarimento, familiarizzazione. Il concetto di "informazione" è basilare nel corso di informatica, ma è impossibile definirlo attraverso altri concetti più "semplici". Il concetto di "informazione" è usato in varie scienze, ed in ogni scienza il concetto di "informazione" è associata a diversi sistemi di concetti. Informazioni in biologia: la biologia studia la fauna selvatica e il concetto di "informazione" è associato al comportamento appropriato degli organismi viventi. Negli organismi viventi, le informazioni vengono trasmesse e archiviate utilizzando oggetti di varia natura fisica (stato del DNA), che sono considerati segni di alfabeti biologici. Le informazioni genetiche vengono ereditate e memorizzate in tutte le cellule degli organismi viventi. Approccio filosofico: L'informazione è interazione, riflessione, cognizione. Approccio cibernetico: le informazioni sono le caratteristiche di un segnale di controllo trasmesso su una linea di comunicazione.

Il ruolo dell'informazione in filosofia

Il tradizionalismo del soggettivo ha sempre dominato nelle prime definizioni dell'informazione come categorie, concetti, proprietà del mondo materiale. L'informazione esiste al di fuori della nostra coscienza e può riflettersi nella nostra percezione solo come risultato dell'interazione: riflessione, lettura, ricezione sotto forma di segnale, stimolo. L'informazione non è materiale, come tutte le proprietà della materia. L'informazione sta nel seguente ordine: materia, spazio, tempo, consistenza, funzione, ecc., che sono i concetti fondamentali di una riflessione formalizzata della realtà oggettiva nella sua distribuzione e variabilità, diversità e manifestazioni. L'informazione è una proprietà della materia e ne riflette le proprietà (stato o capacità di interagire) e la quantità (misura) attraverso l'interazione.


Da un punto di vista materiale, l'informazione è l'ordine degli oggetti del mondo materiale. Ad esempio, l'ordine delle lettere su un foglio di carta secondo determinate regole è un'informazione scritta. La sequenza di punti multicolori su un foglio di carta secondo determinate regole è un'informazione grafica. L'ordine delle note musicali è un'informazione musicale. L'ordine dei geni nel DNA è un'informazione ereditaria. L'ordine dei bit in un computer è costituito dalle informazioni del computer e così via. eccetera. Per l'attuazione dello scambio di informazioni è richiesta la presenza di condizioni necessarie e sufficienti.

Le condizioni necessarie:

La presenza di almeno due diversi oggetti del mondo materiale o immateriale;

La presenza di oggetti di proprietà comune che permette di identificare gli oggetti come portatori di informazioni;

Gli oggetti hanno una proprietà specifica che consente loro di distinguere gli oggetti l'uno dall'altro;

La presenza di una proprietà dello spazio che consente di determinare l'ordine degli oggetti. Ad esempio, la disposizione delle informazioni scritte su carta è una proprietà specifica della carta che consente di disporre le lettere da sinistra a destra e dall'alto verso il basso.


Esiste una sola condizione sufficiente: la presenza di un soggetto capace di riconoscere le informazioni. Questa è una persona e una società umana, società di animali, robot, ecc. Un messaggio informativo viene costruito selezionando copie di oggetti dalla base e disponendo questi oggetti nello spazio in un certo ordine. La lunghezza del messaggio informativo è definita come il numero di copie degli oggetti base ed è sempre espressa come numero intero. È necessario distinguere tra la lunghezza di un messaggio informativo, che è sempre misurata come numero intero, e la quantità di conoscenza contenuta in un messaggio informativo, che è misurata in un'unità di misura sconosciuta. Da un punto di vista matematico, l'informazione è una sequenza di numeri interi scritti in un vettore. I numeri sono il numero dell'oggetto nella base delle informazioni. Il vettore è chiamato invariante dell'informazione, poiché non dipende dalla natura fisica degli oggetti di base. Uno stesso messaggio informativo può essere espresso in lettere, parole, frasi, file, immagini, note, canzoni, clip video, qualsiasi combinazione di tutti i nomi precedentemente indicati.

Il ruolo dell'informazione in fisica

Le informazioni sono informazioni sul mondo circostante (oggetto, processo, fenomeno, evento), che è oggetto di trasformazione (inclusi immagazzinamento, trasmissione, ecc.) e viene utilizzato per sviluppare comportamenti, prendere decisioni, gestire o apprendere.


Le caratteristiche delle informazioni sono le seguenti:

Questa è la risorsa più importante della produzione moderna: riduce il bisogno di terra, manodopera, capitali, riduce il consumo di materie prime ed energia. Quindi, ad esempio, avendo la possibilità di archiviare i tuoi file (cioè avere tali informazioni), non puoi spendere soldi per acquistare nuovi floppy disk;

L'informazione dà vita a nuove produzioni. Ad esempio, l'invenzione del raggio laser è stata la causa dell'emergere e dello sviluppo della produzione di dischi laser (ottici);

L'informazione è una merce e il venditore di informazioni non la perde dopo la vendita. Quindi, se uno studente informa il suo amico sull'orario delle lezioni durante il semestre, non perderà questi dati per se stesso;

Le informazioni danno valore aggiuntivo ad altre risorse, in particolare al lavoro. Anzi, un dipendente istruzione superiore valutato più della media.


Come segue dalla definizione, tre concetti sono sempre associati all'informazione:

La fonte dell'informazione è quell'elemento del mondo circostante (oggetto, processo, fenomeno, evento), di cui l'informazione è oggetto di trasformazione. Quindi, la fonte di informazioni che il lettore di questo Guida allo studio, è l'informatica come sfera dell'attività umana;

Il consumatore di informazioni è quell'elemento del mondo circostante che utilizza le informazioni (per lo sviluppo del comportamento, per il processo decisionale, per la gestione o per l'apprendimento). Il consumatore di queste informazioni è il lettore stesso;

Un segnale è un vettore materiale che acquisisce informazioni per il suo trasferimento da una fonte a un consumatore. In questo caso, il segnale è di natura elettronica. Se lo studente porta questo manuale in biblioteca, le stesse informazioni saranno su carta. Essendo lette e memorizzate da uno studente, le informazioni acquisiranno un altro supporto - biologico, quando verranno "registrate" nella memoria dello studente.


Il segnale è l'elemento più importante in questo circuito. Le forme della sua presentazione, nonché le caratteristiche quantitative e qualitative delle informazioni in esso contenute, che sono importanti per il consumatore di informazioni, sono discusse più avanti in questa sezione del libro di testo. Le principali caratteristiche del computer come strumento principale che mappa la fonte di informazione in un segnale (link 1 nella figura) e "portando" il segnale al consumatore di informazioni (link 2 nella figura) sono riportate nella sezione Computer . La struttura delle procedure che implementano i link 1 e 2 e compongono il processo informativo è oggetto di considerazione nella parte Processo informativo.

Gli oggetti del mondo materiale sono in uno stato di continuo cambiamento, caratterizzato dallo scambio di energia dell'oggetto con l'ambiente. Un cambiamento nello stato di un oggetto porta sempre a un cambiamento nello stato di un altro oggetto nell'ambiente. Questo fenomeno, indipendentemente da come, quali stati particolari e quali oggetti particolari sono cambiati, può essere considerato come una trasmissione di segnali da un oggetto all'altro. La modifica dello stato di un oggetto quando gli viene inviato un segnale è chiamata registrazione del segnale.


Un segnale o una sequenza di segnali formano un messaggio che può essere percepito dal destinatario in una forma o nell'altra, nonché in un volume o nell'altro. Informazione in fisica è un termine che generalizza qualitativamente i concetti di "segnale" e "messaggio". Se segnali e messaggi possono essere quantificati, allora possiamo dire che segnali e messaggi sono unità di misura della quantità di informazioni. Il messaggio (segnale) viene interpretato in modo diverso da diversi sistemi. Ad esempio, un segnale acustico lungo e due brevi in ​​sequenza nella terminologia del codice Morse è la lettera de (o D), nella terminologia BIOS di AWARD, un malfunzionamento della scheda video.

Il ruolo dell'informazione in matematica

In matematica, la teoria dell'informazione (teoria della comunicazione matematica) è una sezione della matematica applicata che definisce il concetto di informazione, le sue proprietà e stabilisce relazioni limitanti per i sistemi di trasmissione dati. Le sezioni principali della teoria dell'informazione sono la codifica della sorgente (codifica compressiva) e la codifica del canale (immunità al rumore). La matematica è più di una disciplina scientifica. Crea un unico linguaggio per tutta la Scienza.


L'oggetto della ricerca matematica sono gli oggetti astratti: numero, funzione, vettore, insieme e altri. Inoltre, la maggior parte di essi sono introdotti assiomaticamente (assioma), cioè senza alcun collegamento con altri concetti e senza alcuna definizione.

L'informazione non è tra le materie di studio della matematica. Tuttavia, la parola "informazione" è usata in termini matematici: informazioni proprie e informazioni reciproche, relative alla parte astratta (matematica) della teoria dell'informazione. Tuttavia, nella teoria matematica, il concetto di "informazione" è associato a oggetti esclusivamente astratti - variabili casuali, mentre nella moderna teoria dell'informazione questo concetto è considerato molto più ampiamente - come una proprietà degli oggetti materiali. La connessione tra questi due termini identici è innegabile. Era l'apparato matematico dei numeri casuali utilizzato dall'autore della teoria dell'informazione Claude Shannon. Egli stesso intende con il termine "informazione" qualcosa di fondamentale (irriducibile). La teoria di Shannon presuppone intuitivamente che l'informazione abbia un contenuto. L'informazione riduce l'incertezza complessiva e l'entropia dell'informazione. La quantità di informazioni disponibili per la misurazione. Tuttavia, mette in guardia i ricercatori contro il trasferimento meccanico di concetti dalla sua teoria ad altre aree della scienza.


«La ricerca di modi per applicare la teoria dell'informazione in altri campi della scienza non si riduce a un banale trasferimento di termini da un campo all'altro della scienza. verifica." K. Shannon.

Il ruolo dell'informazione nella cibernetica

Il fondatore della cibernetica, Norbert Wiener, ha parlato di informazioni come segue:

L'informazione non è materia o energia, l'informazione è informazione. "Ma la definizione di base dell'informazione che ha dato in molti dei suoi libri è la seguente: l'informazione è una designazione di contenuto che abbiamo ricevuto dal mondo esterno, nel processo di adattamento e i nostri sentimenti.

L'informazione è il concetto di base della cibernetica, così come l'informazione economica è il concetto di base della cibernetica economica.


Ci sono molte definizioni di questo termine, sono complesse e contraddittorie. La ragione, ovviamente, è che varie scienze si occupano della cibernetica come fenomeno, e la cibernetica è solo la più giovane di esse. I. - l'argomento di studio di scienze come la scienza del management, la statistica matematica, la genetica, la teoria dei mass media I. (stampa, radio, televisione), l'informatica, che tratta i problemi della scienza e della tecnica I. , ecc. Infine, recentemente i Filosofi mostrano grande interesse per i problemi della riflessione: tendono a considerare la riflessione come una delle proprietà universali fondamentali della materia, connessa con il concetto di riflessione. Con tutte le interpretazioni del concetto di I., presuppone l'esistenza di due oggetti: la fonte di I. e il consumatore (ricevente) di I. Il trasferimento di I. dall'uno all'altro avviene con l'ausilio di segnali che, generalmente parlando, potrebbe non avere alcun nesso fisico con il suo significato: questo il rapporto è determinato di comune accordo. Ad esempio, un colpo alla campana delle veche significava che era necessario radunarsi in piazza, ma per chi non fosse a conoscenza di questo ordine, non informò nessun I.


Nella situazione con la campana del vespro, la persona coinvolta nell'accordo sul significato del segnale sa che al momento ci possono essere due alternative: i vespri si svolgeranno oppure no. O, per dirla nel linguaggio della I. teoria, un evento indefinito (veche) ha due esiti. Il segnale ricevuto porta a una diminuzione dell'incertezza: la persona ora sa che l'evento (veche) ha un solo risultato: si verificherà. Tuttavia, se si sapeva in anticipo che la veche si sarebbe svolta a tale ora, la campana non annunciava nulla di nuovo. Ne consegue che meno probabile (cioè più inaspettato) è il messaggio, più I. contiene e viceversa, più probabile è l'esito prima dell'evento, meno I. contiene il segnale. Approssimativamente tale ragionamento ha portato negli anni '40. 20 ° secolo all'emergere di una teoria statistica, o “classica”, di I., che definisce il concetto di I. attraverso una misura di riduzione dell'incertezza della conoscenza sul compimento di un evento (tale misura era chiamata entropia). N. Wiener, K. Shannon e gli scienziati sovietici A. N. Kolmogorov, V. A. Kotelnikov e altri erano alle origini di questa scienza. ., capacità di archiviazione dei dispositivi I., ecc., Che è servito da potente stimolo per lo sviluppo della cibernetica come un la scienza e la tecnologia informatica elettronica come applicazione pratica delle conquiste della cibernetica.


Quanto alla definizione del valore, utilità di I. per il destinatario, c'è ancora molto da risolvere, poco chiaro. Se si procede dalle esigenze della gestione economica e, di conseguenza, della cibernetica economica, allora l'informazione può essere definita come tutte le informazioni, le conoscenze, i messaggi che aiutano a risolvere un particolare problema di gestione (cioè a ridurre l'incertezza dei suoi esiti). Allora si aprono alcune possibilità per valutare I.: tanto più è utile, tanto più prezioso, quanto prima oa minor costo porta alla soluzione del problema. Il concetto di I. è vicino al concetto di dati. Tuttavia, c'è una differenza tra loro: i dati sono segnali da cui devo ancora essere estratto, l'elaborazione dei dati è il processo per portarli in una forma adatta a questo.


Il processo del loro trasferimento dalla fonte al consumatore e la percezione come I. possono essere considerati come passanti attraverso tre filtri:

Fisico, o statistico (una limitazione puramente quantitativa alla larghezza di banda del canale, indipendentemente dal contenuto dei dati, cioè in termini sintattici);

Semantico (selezione di quei dati che possono essere compresi dal destinatario, cioè corrispondono al thesaurus della sua conoscenza);

Pragmatico (selezione tra le informazioni comprese di quelle utili per risolvere un determinato problema).

Questo è ben mostrato nel diagramma tratto dal libro di E. G. Yasin sull'informazione economica. Di conseguenza, si distinguono tre aspetti dello studio dei problemi di I.: sintattico, semantico e pragmatico.


In base al suo contenuto, I. è suddiviso in socio-politico, socio-economico (incluso I. economico), scientifico e tecnico, ecc. In generale, ci sono molte classificazioni di I., sono costruite su vari motivi. Di norma, a causa della vicinanza dei concetti, le classificazioni dei dati sono costruite allo stesso modo. Ad esempio, I. è suddiviso in statico (costante) e dinamico (variabile) e dati allo stesso tempo - in costanti e variabili. Un'altra divisione è primaria, derivata, uscita I. (i dati sono classificati allo stesso modo). La terza divisione è I. gestione e informazione. Il quarto è ridondante, utile e falso. Quinto: completo (continuo) e selettivo. Questa idea di Wiener dà un'indicazione diretta dell'obiettività dell'informazione, cioè la sua esistenza in natura è indipendente dalla coscienza umana (percezione).

La cibernetica moderna definisce l'informazione oggettiva come una proprietà oggettiva di oggetti e fenomeni materiali per generare una varietà di stati che vengono trasferiti da un oggetto (processo) all'altro attraverso interazioni fondamentali della materia e impressi nella sua struttura. Un sistema materiale in cibernetica è considerato come un insieme di oggetti che a loro volta possono trovarsi in stati diversi, ma lo stato di ciascuno di essi è determinato dagli stati di altri oggetti nel sistema.

In natura, l'insieme degli stati del sistema è un'informazione, gli stati stessi sono il codice primario, o codice sorgente. Pertanto, ogni sistema materiale è una fonte di informazioni. La cibernetica definisce l'informazione soggettiva (semantica) come il significato o il contenuto di un messaggio.

Il ruolo dell'informazione nell'informatica

Oggetto della scienza sono proprio i dati: modalità della loro creazione, conservazione, elaborazione e trasmissione. Contenuto (anche: "riempimento" (nel contesto), "contenuto del sito") - termine che indica tutti i tipi di informazioni (sia testuali che multimediali - immagini, audio, video) che compongono il contenuto (visualizzato, per il visitatore, contenuto) del sito web. Serve per separare il concetto di informazione che compone la struttura interna della pagina/sito (codice), da quello che verrà eventualmente visualizzato sullo schermo.

La parola "informazione" deriva dal vocabolo latino informatio, che significa informazione, chiarimento, familiarizzazione. Il concetto di "informazione" è basilare nel corso di informatica, ma è impossibile definirlo attraverso altri concetti più "semplici".


Si possono distinguere i seguenti approcci alla definizione delle informazioni:

Tradizionale (ordinario) - utilizzato nell'informatica: le informazioni sono informazioni, conoscenze, messaggi sullo stato delle cose che una persona percepisce dal mondo esterno con l'aiuto dei sensi (vista, udito, gusto, olfatto, tatto).

Probabilistico - utilizzato nella teoria dell'informazione: le informazioni sono informazioni su oggetti e fenomeni dell'ambiente, sui loro parametri, proprietà e stato, che riducono il grado di incertezza e incompletezza della conoscenza su di essi.


Le informazioni vengono memorizzate, trasmesse ed elaborate in forma simbolica (segno). Le stesse informazioni possono essere presentate in diverse forme:

Scrittura firmata, composta da vari segni, tra i quali ce n'è uno simbolico sotto forma di testo, numeri, speciali. personaggi; grafico; tabellare, ecc.;

La forma di gesti o segnali;

Forma verbale orale (conversazione).


La presentazione delle informazioni viene effettuata con l'aiuto delle lingue, come sistemi di segni, che sono costruiti sulla base di un certo alfabeto e hanno regole per eseguire operazioni sui segni. La lingua è un certo sistema di segni per rappresentare le informazioni. Esistere:

Le lingue naturali sono lingue parlate in forma parlata e scritta. In alcuni casi, la lingua parlata può essere sostituita dalla lingua delle espressioni facciali e dei gesti, la lingua della segnaletica speciale (ad esempio la segnaletica stradale);

Le lingue formali sono lingue speciali per varie aree dell'attività umana, caratterizzate da un alfabeto rigidamente fissato, regole grammaticali e sintattiche più rigide. Questi sono il linguaggio della musica (note), il linguaggio della matematica (numeri, segni matematici), i sistemi numerici, i linguaggi di programmazione, ecc. Al centro di ogni lingua c'è l'alfabeto, un insieme di simboli/segni. Il numero totale di simboli in un alfabeto è chiamato cardinalità dell'alfabeto.


I vettori di informazioni sono un mezzo o un corpo fisico per la trasmissione, l'archiviazione e la riproduzione di informazioni. (Si tratta di segnali elettrici, luminosi, termici, sonori, radio, dischi magnetici e laser, pubblicazioni stampate, fotografie, ecc.)

Processi informativi- questi sono i processi associati alla ricezione, conservazione, elaborazione e trasmissione di informazioni (cioè azioni eseguite con informazioni). Quelli. Si tratta di processi durante i quali cambia il contenuto delle informazioni o la forma della sua presentazione.

Per garantire il processo informativo, sono necessari una fonte di informazioni, un canale di comunicazione e un consumatore di informazioni. La sorgente trasmette (invia) informazioni e il ricevente le riceve (percepisce). L'informazione trasmessa viene ottenuta dalla sorgente al ricevitore utilizzando un segnale (codice). La modifica del segnale consente di ottenere informazioni.

Essendo oggetto di trasformazione e fruizione, l'informazione è caratterizzata dalle seguenti proprietà:

La sintassi è una proprietà che determina come le informazioni vengono presentate su una portante (in un segnale). Pertanto, queste informazioni sono presentate mezzi elettronici con un carattere specifico. Qui puoi anche considerare parametri di presentazione delle informazioni come lo stile e il colore del carattere, la sua dimensione, Interlinea eccetera. La scelta dei parametri richiesti come proprietà sintattiche è ovviamente determinata dal metodo di trasformazione proposto. Ad esempio, per una persona ipovedente, la dimensione e il colore del carattere sono essenziali. Se intendi inserire questo testo in un computer tramite uno scanner, il formato della carta è importante;


La semantica è una proprietà che definisce il significato di informazione come la corrispondenza di un segnale al mondo reale. Quindi, la semantica del segnale "informatica" è nella definizione data in precedenza. La semantica può essere pensata come un accordo, noto al consumatore di informazioni, sul significato di ciascun segnale (la cosiddetta regola di interpretazione). Ad esempio, è la semantica dei segnali che viene studiata da un automobilista alle prime armi che studia le regole traffico, imparando i segnali stradali (in questo caso, i segnali stessi fungono da segnali). La semantica delle parole (segnali) viene appresa da uno studente di qualsiasi lingua straniera. Possiamo dire che il significato dell'insegnamento dell'informatica è studiare la semantica di vari segnali - l'essenza dei concetti chiave di questa disciplina;


La pragmatica è una proprietà che determina l'impatto delle informazioni sul comportamento dei consumatori. Quindi la pragmatica delle informazioni ricevute dal lettore di questa guida allo studio è, almeno, il superamento dell'esame di informatica. Mi piacerebbe credere che la pragmatica di questo lavoro non si limiterà a questo, e servirà per ulteriore istruzione e attività professionale lettore.

Va notato che segnali di sintassi diversa possono avere la stessa semantica. Ad esempio, i segnali "computer" e "computer" indicano un dispositivo elettronico per la conversione di informazioni. In questo caso, di solito si parla di sinonimia di segnale. D'altra parte, un segnale (cioè un'informazione con una proprietà sintattica) può avere una pragmatica diversa per i consumatori e una semantica diversa. Pertanto, un segnale stradale, noto come “mattone” e avente una semantica ben definita (“divieto di accesso”), significa divieto di ingresso per un automobilista, ma non interessa in alcun modo un pedone. Allo stesso tempo, il segnale “chiave” può avere semantica diversa: una chiave di violino, una chiave di primavera, una chiave per aprire una serratura, una chiave usata in informatica per codificare un segnale in modo da proteggerlo da accessi non autorizzati (in in questo caso si parla di omonimia di segnale). Ci sono segnali - contrari che hanno semantica opposta. Ad esempio, "freddo" e "caldo", "veloce" e "lento", ecc.


Oggetto di studio della scienza dell'informatica sono proprio i dati: le modalità della loro creazione, conservazione, elaborazione e trasmissione. E l'informazione stessa registrata nei dati, il suo significato significativo è di interesse per gli utenti di sistemi informativi che sono specialisti in varie scienze e campi di attività: un medico è interessato alle informazioni mediche, un geologo è interessato alle informazioni geologiche, un imprenditore è interessati ad informazioni commerciali, ecc. (compreso un informatico interessato a informazioni sull'utilizzo dei dati).

Semiotica: la scienza dell'informazione

Le informazioni non possono essere immaginate senza la loro ricezione, elaborazione, trasmissione, ecc., cioè al di fuori del quadro dello scambio di informazioni. Tutti gli atti di scambio di informazioni vengono effettuati per mezzo di simboli o segni, con l'aiuto dei quali un sistema influenza un altro. Pertanto, la scienza principale che studia l'informazione è la semiotica: la scienza dei segni e dei sistemi di segni nella natura e nella società (la teoria dei segni). In ogni atto di scambio di informazioni si possono trovare tre dei suoi "partecipanti", tre elementi: un segno, un oggetto che designa e un destinatario (utente) del segno.


A seconda delle relazioni tra gli elementi considerati, la semiotica si divide in tre sezioni: sintattica, semantica e pragmatica. La sintattica studia i segni e le relazioni tra loro. Allo stesso tempo, astrae dal contenuto del segno e dal suo significato pratico per il destinatario. La semantica studia il rapporto tra i segni e gli oggetti che designano, astraendo dal destinatario dei segni e il valore di questi ultimi: per lui. È chiaro che lo studio dei modelli di rappresentazione semantica degli oggetti nei segni è impossibile senza tenere conto e utilizzare i modelli generali di costruzione di qualsiasi sistema segnico studiato dalla sintattica. La pragmatica studia la relazione tra i segni ei loro utenti. Nell'ambito della pragmatica, vengono studiati tutti i fattori che distinguono un atto di scambio di informazioni da un altro, vengono studiate tutte le questioni relative ai risultati pratici dell'utilizzo delle informazioni e al loro valore per il destinatario.


Allo stesso tempo, molti aspetti del rapporto dei segni tra loro e con gli oggetti che designano ne risentono inevitabilmente. Pertanto, le tre sezioni della semiotica corrispondono a tre livelli di astrazione (distrazione) dalle caratteristiche di specifici atti di scambio di informazioni. Lo studio dell'informazione in tutta la sua diversità corrisponde al livello pragmatico. Distraendo dal destinatario dell'informazione, escludendolo dalla considerazione, si passa allo studio della stessa a livello semantico. Con una distrazione dal contenuto dei segni, l'analisi delle informazioni viene trasferita al livello sintattico. Tale compenetrazione delle principali sezioni della semiotica, associate a diversi livelli di astrazione, può essere rappresentata utilizzando lo schema "Tre sezioni della semiotica e loro relazione". La misurazione delle informazioni viene effettuata rispettivamente in tre aspetti: sintattico, semantico e pragmatico. La necessità di tale dimensione diversa l'informazione, come verrà mostrato in seguito, è dettata dalla pratica di progettare e organizzare il lavoro dei sistemi informativi. Considera una situazione di produzione tipica.


Alla fine del turno, il pianificatore di cantiere prepara i dati sull'attuazione del programma di produzione. Questi dati vengono inviati al centro informativo e informatico (ICC) dell'impresa, dove vengono elaborati, e sotto forma di report sullo stato della produzione al momento attuale, vengono rilasciati ai dirigenti. Sulla base dei dati ricevuti, il responsabile del negozio decide di modificare il piano di produzione per il prossimo periodo di pianificazione o di adottare eventuali altre misure organizzative. È ovvio che per il responsabile del negozio, la quantità di informazioni contenute nella sintesi dipende dall'entità dell'impatto economico ricevuto dal suo utilizzo nel processo decisionale, dall'utilità delle informazioni. Per il pianificatore del sito, la quantità di informazioni nello stesso messaggio è determinata dall'accuratezza della sua corrispondenza allo stato attuale delle cose sul sito e dal grado di sorpresa dei fatti riportati. Più sono imprevisti, più velocemente è necessario segnalarli alla direzione, più informazioni ci saranno questo messaggio. Per i dipendenti ITC, il numero di caratteri, la lunghezza del messaggio che trasporta le informazioni sarà di fondamentale importanza, poiché determina il tempo di caricamento delle apparecchiature informatiche e dei canali di comunicazione. Allo stesso tempo, né l'utilità dell'informazione, né la misura quantitativa del valore semantico dell'informazione non sono praticamente di alcun interesse per loro.


Naturalmente, quando organizzeremo un sistema di gestione della produzione, costruendo modelli per la scelta di una soluzione, utilizzeremo l'utilità delle informazioni come misura del contenuto informativo dei messaggi. Quando si costruisce un sistema di contabilità e rendicontazione che prevede la gestione dei dati sull'andamento del processo produttivo, la novità delle informazioni ricevute dovrebbe essere presa come misura della quantità di informazioni. L'organizzazione delle procedure per l'elaborazione meccanica delle informazioni richiede la misurazione del volume dei messaggi sotto forma di numero di caratteri elaborati. Questi tre approcci essenzialmente diversi alla misurazione delle informazioni non si contraddicono né si escludono a vicenda. Al contrario, misurando le informazioni a diverse scale, consentono una valutazione più completa e completa del contenuto informativo di ciascun messaggio e una più efficiente organizzazione del sistema di gestione della produzione. Secondo la giusta espressione del prof. NON. Kobrynsky, quando noi stiamo parlando sull'organizzazione razionale dei flussi informativi, la quantità, la novità, l'utilità delle informazioni risultano essere interconnesse quanto la quantità, la qualità e il costo dei prodotti in produzione.

Informazioni nel mondo materiale

L'informazione è uno dei concetti generali associati alla materia. L'informazione esiste in ogni oggetto materiale sotto forma di una varietà dei suoi stati e viene trasmessa da un oggetto all'altro nel processo della loro interazione. L'esistenza dell'informazione come proprietà oggettiva della materia segue logicamente dalle ben note proprietà fondamentali della materia: struttura, cambiamento continuo (movimento) e interazione degli oggetti materiali.


La struttura della materia si manifesta come uno smembramento interno dell'integrità, un regolare ordine di connessione degli elementi nella composizione del tutto. In altre parole, qualsiasi oggetto materiale, dalla particella subatomica del Meta Universo (Big Bang) nel suo insieme, è un sistema di sottosistemi interconnessi. Come risultato del movimento continuo, inteso in senso lato come movimento nello spazio e sviluppo nel tempo, gli oggetti materiali cambiano il loro stato. Lo stato degli oggetti cambia anche quando si interagisce con altri oggetti. L'insieme degli stati del sistema materiale e di tutti i suoi sottosistemi rappresenta le informazioni sul sistema.


A rigor di termini, a causa dell'incertezza, dell'infinito, delle proprietà strutturali, la quantità di informazioni oggettive in qualsiasi oggetto materiale è infinita. Questa informazione è chiamata completa. Tuttavia, è possibile individuare livelli strutturali con insiemi finiti di stati. Le informazioni che esistono a livello strutturale con un numero finito di stati sono chiamate private. Per informazioni private, il significato è il concetto di quantità di informazioni.

Da tale rappresentazione discende logicamente e semplicemente la scelta dell'unità di misura per la quantità di informazioni. Immagina un sistema che può trovarsi solo in due stati ugualmente probabili. Assegniamo il codice "1" a uno di essi e "0" all'altro. Questa è la quantità minima di informazioni che il sistema può contenere. È l'unità di misura dell'informazione ed è chiamata bit. Esistono altri, più difficili da definire, metodi e unità per misurare la quantità di informazioni.


A seconda della forma materiale del vettore, le informazioni possono essere di due tipi principali: analogiche e discrete. Le informazioni analogiche cambiano nel tempo continuamente e prendono valori da un continuum di valori. Le informazioni discrete cambiano in alcuni momenti e prendono valori da un determinato insieme di valori. Qualsiasi oggetto o processo materiale è la principale fonte di informazioni. Tutti i suoi possibili stati costituiscono il codice della fonte dell'informazione. Valore istantaneo States è rappresentato come un simbolo ("lettera") di questo codice. Affinché le informazioni possano essere trasmesse da un oggetto all'altro come ricevitore, è necessario che ci sia una sorta di supporto materiale intermedio che interagisca con la sorgente. Tali vettori in natura, di regola, sono processi di propagazione rapida della struttura delle onde: radiazioni cosmiche, gamma e di raggi X, onde elettromagnetiche e sonore, potenziali (e forse onde non ancora scoperte) del campo gravitazionale. Quando la radiazione elettromagnetica interagisce con un oggetto, il suo spettro cambia a causa dell'assorbimento o della riflessione, ad es. le intensità di alcune lunghezze d'onda cambiano. Anche le armoniche delle vibrazioni sonore cambiano durante le interazioni con gli oggetti. Le informazioni vengono trasmesse anche durante l'interazione meccanica, ma l'interazione meccanica, di regola, porta a grandi cambiamenti nella struttura degli oggetti (fino alla loro distruzione) e l'informazione è notevolmente distorta. La distorsione delle informazioni durante la loro trasmissione è chiamata disinformazione.


Il trasferimento di informazioni di origine a una struttura portante è chiamato codifica. In questo caso, il codice sorgente viene convertito nel codice vettore. Una portante con un codice sorgente trasferito ad essa sotto forma di codice portante è chiamata segnale. Il ricevitore del segnale ha il proprio insieme di possibili stati, chiamato codice ricevitore. Il segnale, interagendo con l'oggetto ricevente, cambia i suoi stati. Il processo di conversione di un codice segnale in un codice ricevitore è chiamato decodifica.Il trasferimento di informazioni da una sorgente a un ricevitore può essere considerato come un'interazione di informazioni. L'interazione delle informazioni è fondamentalmente diversa dalle altre interazioni. Con tutte le altre interazioni di oggetti materiali, c'è uno scambio di materia e (o) energia. In questo caso, uno degli oggetti perde materia o energia, mentre l'altro li riceve. Questa proprietà delle interazioni è chiamata simmetria. Durante l'interazione delle informazioni, il ricevitore riceve le informazioni e la fonte non le perde. L'interazione dell'informazione non è simmetrica L'informazione oggettiva in sé non è materiale, è una proprietà della materia, come la struttura, il movimento, ed esiste su supporti materiali nella forma dei suoi codici.

Informazioni nella fauna selvatica

La fauna è complessa e varia. Fonti e ricevitori di informazioni in esso contenute sono gli organismi viventi e le loro cellule. L'organismo ha una serie di proprietà che lo distinguono dagli oggetti materiali inanimati.


Principale:

Scambio continuo di materia, energia e informazioni con l'ambiente;

Irritabilità, capacità del corpo di percepire ed elaborare informazioni sui cambiamenti nell'ambiente e nell'ambiente interno del corpo;

Eccitabilità, la capacità di rispondere all'azione degli stimoli;

Auto-organizzazione, manifestata come cambiamenti nel corpo per adattarsi alle condizioni ambientali.


L'organismo, considerato come un sistema, ha una struttura gerarchica. Questa struttura, relativa all'organismo stesso, è suddivisa in livelli interni: molecolare, cellulare, il livello degli organi e, infine, l'organismo stesso. Tuttavia, l'organismo interagisce anche con i sistemi viventi organismici, i cui livelli sono la popolazione, l'ecosistema e tutta la natura vivente nel suo insieme (la biosfera). Non solo i flussi di materia ed energia, ma anche i flussi di informazioni tra tutti questi livelli Le interazioni di informazioni nella natura vivente avvengono allo stesso modo della natura inanimata. Allo stesso tempo, la fauna selvatica nel processo di evoluzione ha creato un'ampia varietà di fonti, vettori e ricevitori di informazioni.


La reazione alle influenze del mondo esterno si manifesta in tutti gli organismi, poiché è dovuta all'irritabilità. Negli organismi superiori, l'adattamento all'ambiente è un'attività complessa che è efficace solo con informazioni sufficientemente complete e tempestive sull'ambiente. I ricevitori di informazioni dall'ambiente esterno sono gli organi di senso, che includono vista, udito, olfatto, gusto, tatto e l'apparato vestibolare. Nella struttura interna degli organismi sono presenti numerosi recettori interni associati al sistema nervoso. Il sistema nervoso è costituito da neuroni, i cui processi (assoni e dendriti) sono analoghi ai canali di trasmissione dell'informazione. Gli organi principali che immagazzinano ed elaborano le informazioni nei vertebrati sono il midollo spinale e il cervello. A seconda delle caratteristiche degli organi di senso, le informazioni percepite dal corpo possono essere classificate in visive, uditive, gustative, olfattive e tattili.


Salendo sulla retina dell'occhio umano, il segnale eccita in modo speciale le cellule che lo compongono. Gli impulsi nervosi delle cellule attraverso gli assoni vengono trasmessi al cervello. Il cervello ricorda questa sensazione sotto forma di una certa combinazione di stati dei suoi neuroni costituenti. (Continuazione dell'esempio - nella sezione "L'informazione nella società umana"). Accumulando informazioni, il cervello crea una struttura connessa sulla sua struttura. modello informativo il mondo circostante. Nella fauna selvatica per l'organismo - il ricevitore di informazioni caratteristica importanteè la sua disponibilità. La quantità di informazioni che il sistema nervoso umano è in grado di trasmettere al cervello durante la lettura di testi è di circa 1 bit per 1/16 di secondo.

Lo studio degli organismi è ostacolato dalla loro complessità. L'astrazione della struttura come insieme matematico, accettabile per oggetti inanimati, è difficilmente accettabile per un organismo vivente, perché per creare un modello astratto più o meno adeguato di un organismo, è necessario tener conto di tutti i livelli gerarchici di la sua struttura. Pertanto, è difficile introdurre una misura della quantità di informazioni. È molto difficile determinare le relazioni tra i componenti della struttura. Se si sa quale organo è la fonte dell'informazione, qual è il segnale e qual è il ricevitore?


Prima dell'avvento dei computer, la biologia, che si occupava dello studio degli organismi viventi, utilizzava solo qualitativo, cioè modelli descrittivi. In un modello qualitativo è praticamente impossibile tenere conto dei legami informativi tra i componenti della struttura. La tecnologia di calcolo elettronico ha permesso di applicare nuovi metodi alla ricerca biologica, in particolare il metodo di modellazione delle macchine, che prevede una descrizione matematica di fenomeni e processi noti che si verificano nel corpo, aggiungendo loro ipotesi su alcuni processi sconosciuti e calcolando opzioni comportamento corporeo. Le opzioni risultanti vengono confrontate con il comportamento effettivo dell'organismo, che consente di determinare la verità o la falsità delle ipotesi avanzate. Anche l'interazione delle informazioni può essere presa in considerazione in tali modelli. Estremamente complessi sono i processi informativi che assicurano l'esistenza della vita stessa. E sebbene sia intuitivamente chiaro che questa proprietà è direttamente correlata alla formazione, conservazione e trasmissione di informazioni complete sulla struttura del corpo, una descrizione astratta di questo fenomeno sembrava impossibile per qualche tempo. Tuttavia, i processi informativi che garantiscono l'esistenza di questa proprietà sono stati in parte rivelati attraverso la decifrazione del codice genetico e la lettura dei genomi di vari organismi.

L'informazione nella società umana

Lo sviluppo della materia nel processo di movimento è diretto alla complicazione della struttura degli oggetti materiali. Una delle strutture più complesse è il cervello umano. Finora, questa è l'unica struttura a noi nota che ha la proprietà che l'uomo stesso chiama coscienza. Parlando di informazioni, noi, come esseri pensanti, intendiamo a priori che l'informazione, oltre alla sua presenza sotto forma di segnali che riceviamo, ha anche un qualche tipo di significato. Formando nella sua mente un modello del mondo circostante come un insieme interconnesso di modelli dei suoi oggetti e processi, una persona usa concetti semantici, non informazioni. Il significato è l'essenza di ogni fenomeno che non coincide con se stesso e lo collega a un contesto più ampio della realtà. La parola stessa indica direttamente che il contenuto semantico dell'informazione può essere formato solo da ricevitori pensanti di informazioni. Nella società umana, non è l'informazione stessa ad acquisire un'importanza decisiva, ma il suo contenuto semantico.


Esempio (continua). Dopo aver sperimentato una tale sensazione, una persona assegna il concetto di "pomodoro" all'oggetto e il concetto di "colore rosso" al suo stato. Inoltre, la sua coscienza fissa la connessione: "pomodoro" - "rosso". Questo è il significato del segnale ricevuto. (Esempio continuato: più avanti in questa sezione). La capacità del cervello di creare concetti semantici e connessioni tra di loro è la base della coscienza. La coscienza può essere vista come un modello semantico auto-sviluppante del mondo circostante: il significato non è informazione. Le informazioni esistono solo su un supporto fisico. La coscienza umana è considerata immateriale. Il significato esiste nella mente umana sotto forma di parole, immagini e sensazioni. Una persona può pronunciare parole non solo ad alta voce, ma anche "a se stesso". Può anche creare (o ricordare) immagini e sensazioni “a se stesso”. Tuttavia, può recuperare le informazioni corrispondenti a questo significato pronunciando o scrivendo le parole.

Esempio (continua). Se le parole "pomodoro" e "colore rosso" sono il significato dei concetti, allora dove sono le informazioni? Le informazioni sono contenute nel cervello sotto forma di determinati stati dei suoi neuroni. È anche contenuto nel testo stampato composto da queste parole e quando si codificano lettere con un codice binario a tre cifre, il suo numero è di 120 bit. Se pronunci le parole ad alta voce, ci saranno molte più informazioni, ma il significato rimarrà lo stesso. La maggior quantità di informazioni è trasportata da un'immagine visiva. Ciò si riflette anche nel folklore: "è meglio vedere una volta che ascoltare cento volte." Le informazioni ripristinate in questo modo sono chiamate informazioni semantiche, poiché codificano il significato di alcune informazioni primarie (semantica). Sentendo (o vedendo) una frase pronunciata (o scritta) in una lingua che una persona non conosce, riceve informazioni, ma non può determinarne il significato. Pertanto, per trasmettere il contenuto semantico delle informazioni, sono necessari alcuni accordi tra la fonte e il destinatario sul contenuto semantico dei segnali, ad es. parole. Tali accordi possono essere raggiunti attraverso la comunicazione. La comunicazione è una delle condizioni più importanti per l'esistenza della società umana.

A mondo moderno l'informazione è una delle risorse più importanti e, allo stesso tempo, una delle forze trainanti per lo sviluppo della società umana. I processi informativi che si verificano nel mondo materiale, nella fauna selvatica e nella società umana sono studiati (o almeno presi in considerazione) da tutte le discipline scientifiche, dalla filosofia al marketing. La crescente complessità dei compiti della ricerca scientifica ha portato alla necessità di coinvolgere nella loro soluzione grandi team di scienziati di varie specialità. Pertanto, quasi tutte le teorie considerate di seguito sono interdisciplinari. Storicamente, due rami complessi della scienza - cibernetica e informatica - sono direttamente coinvolti nello studio dell'informazione.


La cibernetica moderna è una branca multidisciplinare della scienza che studia i sistemi supercomplessi, come:

Società umana (cibernetica sociale);

Economia (cibernetica economica);

Organismo vivente (cibernetica biologica);

cervello umano e la sua funzione è la coscienza ( intelligenza artificiale).


L'informatica, che si è formata come scienza a metà del secolo scorso, si è separata dalla cibernetica ed è impegnata nella ricerca nel campo dei metodi per ottenere, archiviare, trasmettere ed elaborare informazioni semantiche. Entrambi questi settori utilizzano diverse teorie scientifiche sottostanti. Questi includono la teoria dell'informazione e le sue sezioni: teoria della codifica, teoria degli algoritmi e teoria degli automi. Gli studi sul contenuto semantico dell'informazione si basano su un complesso di teorie scientifiche sotto il nome generale di semiotica.La teoria dell'informazione è una teoria complessa, principalmente matematica, che include una descrizione e una valutazione dei metodi per estrarre, trasmettere, archiviare e classificare le informazioni. Considera i vettori di informazioni come elementi di un insieme astratto (matematico) e le interazioni tra i vettori come un modo per organizzare gli elementi in questo insieme. Questo approccio permette di descrivere formalmente il codice dell'informazione, cioè di definire un codice astratto ed esplorarlo con metodi matematici. Per questi studi applica i metodi della teoria della probabilità, della statistica matematica, dell'algebra lineare, della teoria dei giochi e di altre teorie matematiche.


Le basi di questa teoria furono poste dallo scienziato americano E. Hartley nel 1928, che determinò la misura della quantità di informazioni per alcuni problemi di comunicazione. Successivamente, la teoria è stata sviluppata in modo significativo dallo scienziato americano C. Shannon, gli scienziati russi A.N. Kolmogorov, V.M. Glushkov e altri. La moderna teoria dell'informazione include la teoria della codifica, la teoria degli algoritmi, la teoria degli automi digitali (vedi sotto) e alcuni altri. Esistono anche teorie dell'informazione alternative, ad esempio " Teoria qualitativa informazioni", proposto dallo scienziato polacco M. Mazur. Chiunque ha familiarità con il concetto di algoritmo, senza nemmeno saperlo. Ecco un esempio di algoritmo informale: pepe, mescolare. Prima dell'uso, cospargere di sale, inserire un'insalatiera e guarnire con il prezzemolo." (Insalata di pomodori).


Le prime regole per risolvere i problemi aritmetici nella storia dell'umanità furono sviluppate da uno dei famosi scienziati dell'antichità Al-Khwarizmi nel IX secolo d.C. In suo onore, le regole formalizzate per raggiungere un obiettivo sono chiamate algoritmi.L'oggetto della teoria degli algoritmi è trovare metodi per costruire e valutare algoritmi computazionali e di controllo efficaci (anche universali) per l'elaborazione delle informazioni. Per sostanziare tali metodi, la teoria degli algoritmi utilizza l'apparato matematico della teoria dell'informazione.Il moderno concetto scientifico di algoritmi come modalità di elaborazione dell'informazione è stato introdotto nei lavori di E. Post e A. Turing negli anni '20 del XX secolo (Turing Macchina). Un grande contributo allo sviluppo della teoria degli algoritmi è stato dato dagli scienziati russi A. Markov (Normal Markov Algorithm) e A. Kolmogorov.La teoria degli automi è una sezione della cibernetica teorica che studia i modelli matematici di dispositivi effettivamente esistenti o fondamentalmente possibili che elaborano informazioni discrete in tempi discreti.


Il concetto di automa ha origine nella teoria degli algoritmi. Se esistono algoritmi universali per la risoluzione di problemi computazionali, allora ci devono essere dispositivi (sebbene astratti) per l'implementazione di tali algoritmi. In realtà, la macchina astratta di Turing, considerata nella teoria degli algoritmi, è allo stesso tempo un automa definito in modo informale. La giustificazione teorica per la costruzione di tali dispositivi è oggetto della teoria degli automi.La teoria degli automi utilizza l'apparato delle teorie matematiche - algebra, logica matematica, analisi combinatoria, teoria dei grafi, teoria della probabilità, ecc. La teoria degli automi, insieme alla teoria degli algoritmi , è la principale base teorica per la creazione di computer elettronici e sistemi di controllo automatizzati.La semiotica è un complesso di teorie scientifiche che studiano le proprietà dei sistemi di segni. I risultati più significativi sono stati raggiunti nel ramo della semiotica - semantica. L'oggetto della ricerca in semantica è il contenuto semantico dell'informazione.


Un sistema di segni è un sistema di oggetti concreti o astratti (segni, parole), a ciascuno dei quali un certo valore è associato in un certo modo. In teoria, è dimostrato che possono esserci due confronti di questo tipo. Il primo tipo di corrispondenza definisce direttamente l'oggetto materiale che denota questa parola ed è chiamato denotazione (o, in alcune opere, nominativo). Il secondo tipo di corrispondenza determina il significato del segno (parola) e prende il nome di concetto. Allo stesso tempo, vengono studiate proprietà di confronto come "significato", "verità", "definibilità", "seguire", "interpretazione", ecc.. Per la ricerca viene utilizzato l'apparato della logica matematica e della linguistica matematica. F de Saussure nel 19° secolo, formulato e sviluppato da C. Pierce (1839-1914), C. Morris (nato nel 1901), R. Carnap (1891-1970) e altri.Il principale risultato della teoria è la creazione di un apparato di analisi semantica che permette di rappresentare il significato di un testo in un linguaggio naturale come un record in un linguaggio semantico (semantico) formalizzato.L'analisi semantica è la base per la creazione di dispositivi (programmi) traduzione automatica da una lingua naturale all'altra.

Le informazioni vengono memorizzate tramite il loro trasferimento ad alcuni vettori materiali. Le informazioni semantiche registrate su un supporto di memorizzazione materiale sono chiamate documento. L'umanità ha imparato a memorizzare le informazioni per molto tempo. Nelle forme più antiche di archiviazione delle informazioni veniva utilizzata la disposizione degli oggetti: conchiglie e pietre sulla sabbia, nodi su una corda. Uno sviluppo significativo di questi metodi è stata la scrittura: una rappresentazione grafica di simboli su pietra, argilla, papiro, carta. Di grande importanza nello sviluppo di questa direzione è stata l'invenzione della stampa. Nel corso della sua storia, l'umanità ha accumulato un'enorme quantità di informazioni in biblioteche, archivi, periodici e altri documenti scritti.


Attualmente significato speciale ha ricevuto la memorizzazione di informazioni sotto forma di sequenze di caratteri binari. Per implementare questi metodi, vengono utilizzati vari dispositivi di archiviazione. Sono il collegamento centrale dei sistemi di archiviazione delle informazioni. In aggiunta a loro, tali sistemi utilizzano strumenti di recupero delle informazioni ( sistema di ricerca), mezzi per ottenere informazioni (informazioni e sistemi di riferimento) e mezzi per visualizzare informazioni (dispositivo di output). Formati secondo lo scopo dell'informazione, tali sistemi informativi formano banche dati, banche dati e una base di conoscenza.

Il trasferimento dell'informazione semantica è il processo del suo trasferimento spaziale dalla fonte al destinatario (destinatario). L'uomo ha imparato a trasmettere e ricevere informazioni anche prima di memorizzarle. La parola è un metodo di trasmissione che i nostri lontani antenati usavano in contatto diretto (conversazione) - lo usiamo ancora adesso. Per trasmettere informazioni su lunghe distanze, è necessario utilizzare processi informativi molto più complessi e per implementare tale processo, le informazioni devono essere formalizzate (presentate) in qualche modo. Per rappresentare le informazioni vengono utilizzati vari sistemi di segni: insiemi di simboli semantici predeterminati: oggetti, immagini, parole scritte o stampate di un linguaggio naturale. Presentato con il loro aiuto informazione semantica su qualsiasi oggetto, fenomeno o processo è chiamato messaggio.


Ovviamente, per trasmettere un messaggio a distanza, le informazioni devono essere trasferite a un qualche tipo di operatore di telefonia mobile. I vettori possono spostarsi nello spazio con l'ausilio di veicoli, come nel caso delle lettere inviate per posta. Questo metodo garantisce la completa affidabilità della trasmissione delle informazioni, poiché il destinatario riceve il messaggio originale, ma richiede una notevole quantità di tempo per la trasmissione. Dalla metà del 19 ° secolo, i metodi di trasmissione delle informazioni si sono diffusi, utilizzando un vettore di informazioni a propagazione naturale: oscillazioni elettromagnetiche (oscillazioni elettriche, onde radio, luce). L'implementazione di questi metodi richiede:

Trasferimento preliminare delle informazioni contenute nel messaggio al vettore - codifica;

Garantire la trasmissione del segnale così ottenuto al destinatario attraverso un apposito canale di comunicazione;

Conversione inversa del codice del segnale nel codice del messaggio - decodifica.

L'uso di mezzi elettromagnetici rende quasi istantanea la consegna di un messaggio al destinatario, tuttavia, richiede misure aggiuntive per garantire la qualità (affidabilità e precisione) delle informazioni trasmesse, poiché i canali di comunicazione reali sono soggetti a interferenze naturali e artificiali. Dispositivi che implementano il processo di trasmissione dei dati dai sistemi di comunicazione. A seconda del metodo di presentazione delle informazioni, i sistemi di comunicazione possono essere suddivisi in segni (telegrafo, telefax), audio (telefono), video e sistemi combinati (televisione). Il sistema di comunicazione più sviluppato del nostro tempo è Internet.

Elaborazione dati

Poiché l'informazione non è materiale, la sua elaborazione consiste in varie trasformazioni. I processi di elaborazione includono qualsiasi trasferimento di informazioni da un supporto a un altro supporto. Le informazioni da elaborare sono chiamate dati. Il principale tipo di elaborazione delle informazioni primarie ricevute dai vari dispositivi è la trasformazione in una forma che ne garantisca la percezione da parte dei sensi umani. Pertanto, le fotografie spaziali ottenute con i raggi X vengono convertite in normali fotografie a colori utilizzando speciali convertitori di spettro e materiali fotografici. I dispositivi per la visione notturna convertono un'immagine ottenuta nei raggi infrarossi (termici) in un'immagine nel campo del visibile. Per alcune attività di comunicazione e controllo, è necessario convertire le informazioni analogiche. Per questo vengono utilizzati convertitori di segnale analogico-digitale e digitale-analogico.


Il tipo più importante di elaborazione dell'informazione semantica è la determinazione del significato (contenuto) contenuto in un determinato messaggio. A differenza dell'informazione semantica primaria, non ha caratteristiche statistiche, cioè una misura quantitativa: o c'è un significato o non lo è. E quanto di esso, se del caso, è impossibile da stabilire. Il significato contenuto nel messaggio è descritto in un linguaggio artificiale che riflette le relazioni semantiche tra le parole del testo di partenza. Un dizionario di tale lingua, chiamato thesaurus, risiede nel ricevitore del messaggio. Il significato delle parole e delle frasi del messaggio è determinato riferendole a determinati gruppi di parole o frasi il cui significato è già stato stabilito. Thesaurus, quindi, consente di stabilire il significato del messaggio e, allo stesso tempo, viene reintegrato con nuovi concetti semantici. Il tipo descritto di elaborazione delle informazioni viene utilizzato nei sistemi di recupero delle informazioni e nei sistemi di traduzione automatica.


Uno dei tipi più diffusi di elaborazione delle informazioni è la soluzione di problemi e problemi computazionali controllo automatico con l'aiuto dei computer. Il trattamento delle informazioni avviene sempre con uno scopo. Per raggiungerlo, è necessario conoscere l'ordine delle azioni sull'informazione, che portano a un determinato obiettivo. Questa procedura è chiamata algoritmo. Oltre all'algoritmo stesso, è necessario anche un dispositivo che implementi questo algoritmo. Nelle teorie scientifiche, un tale dispositivo è chiamato automa e va notato come la caratteristica più importante dell'informazione che, a causa dell'asimmetria scambio di informazioni Quando le informazioni vengono elaborate, vengono generate nuove informazioni e le informazioni originali non vanno perse.

Informazioni analogiche e digitali

Il suono è la vibrazione delle onde in un mezzo, come l'aria. Quando una persona parla, le vibrazioni dei legamenti della gola vengono convertite in vibrazioni ondose dell'aria. Se consideriamo il suono non come un'onda, ma come oscillazioni in un punto, allora queste oscillazioni possono essere rappresentate come pressione dell'aria che cambia nel tempo. Un microfono può rilevare le variazioni di pressione e convertirle in tensione elettrica. C'è stata una trasformazione della pressione dell'aria in fluttuazioni di tensione elettrica.


Tale trasformazione può avvenire secondo varie leggi, molto spesso la trasformazione avviene secondo una legge lineare. Ad esempio, in questo modo:

U(t)=K(P(t)-P_0),

dove U(t) è la tensione elettrica, P(t) è la pressione dell'aria, P_0 è la pressione media dell'aria e K è il fattore di conversione.

Sia la tensione elettrica che la pressione dell'aria sono funzioni continue nel tempo. Le funzioni U(t) e P(t) sono informazioni sulle vibrazioni dei legamenti della gola. Queste funzioni sono continue e tali informazioni sono chiamate analogiche.La musica è un caso speciale del suono e può anche essere rappresentata come una funzione del tempo. Questo sarà rappresentazione analogica musica. Ma la musica viene registrata anche sotto forma di note. Ogni nota ha una durata che è un multiplo di una durata predeterminata e un'altezza (do, re, mi, fa, sol, ecc.). Se questi dati vengono convertiti in numeri, otteniamo una rappresentazione digitale della musica.


Anche la parola umana è un caso speciale del suono. Può anche essere rappresentato in forma analogica. Ma proprio come la musica può essere scomposta in note, il parlato può essere scomposto in lettere. Se a ciascuna lettera viene assegnato il proprio insieme di numeri, otterremo una rappresentazione digitale del parlato. La differenza tra informazioni analogiche e informazioni digitali è che le informazioni analogiche sono continue, mentre le informazioni digitali sono discrete. La trasformazione delle informazioni da un tipo a un altro, a seconda del tipo di trasformazione, è chiamato diversamente: semplicemente "conversione", come la conversione da digitale ad analogico, o la conversione da analogico a digitale; le trasformazioni complesse sono dette "codifica", ad es. codifica delta, codifica dell'entropia; la trasformazione tra caratteristiche come ampiezza, frequenza o fase è chiamata "modulazione", ad esempio modulazione ampiezza-frequenza, modulazione ampiezza impulso.

Di solito, le conversioni analogiche sono abbastanza semplici e possono essere facilmente gestite da vari dispositivi inventati dall'uomo. Un registratore converte la magnetizzazione su pellicola in suono, un registratore vocale converte il suono in magnetizzazione su pellicola, una videocamera converte la luce in magnetizzazione su pellicola, un oscilloscopio converte la tensione o la corrente elettrica in un'immagine e così via. La conversione di informazioni analogiche in digitali è molto più difficile. Alcune trasformazioni non possono essere eseguite dalla macchina o possono essere eseguite con grande difficoltà. Ad esempio, convertire il parlato in testo, o convertire la registrazione di un concerto in spartiti, e anche per sua natura una rappresentazione digitale: è molto difficile per una macchina convertire il testo su carta nello stesso testo nella memoria del computer.

Perché, allora, utilizzare la rappresentazione digitale delle informazioni, se è così difficile? Il principale vantaggio delle informazioni digitali rispetto all'analogico è l'immunità al rumore. Cioè, nel processo di copia delle informazioni informazioni digitali viene copiato così com'è, può essere copiato quasi un numero infinito di volte, mentre le informazioni analogiche diventano rumorose durante la copia, la sua qualità si deteriora. Di solito, le informazioni analogiche possono essere copiate non più di tre volte.Se hai un registratore audio a due cassette, puoi fare un esperimento del genere, prova a copiare la stessa canzone da cassetta a cassetta più volte, dopo alcune di queste ri-registrazioni noterai quanto la qualità della registrazione è peggiorata. Le informazioni sulla cassetta sono memorizzate in forma analogica. Puoi riscrivere la musica in formato mp3 tutte le volte che vuoi e la qualità della musica non si deteriora. Le informazioni in un file mp3 sono archiviate in forma digitale.

Quantità di informazioni

Una persona o un altro destinatario di informazioni, dopo aver ricevuto una parte di informazioni, risolve alcune incertezze. Prendiamo un albero come esempio. Quando abbiamo visto l'albero, abbiamo risolto una serie di incertezze. Abbiamo appreso l'altezza dell'albero, il tipo di albero, la densità del fogliame, il colore delle foglie e se è un albero da frutto, abbiamo visto i frutti su di esso, quanto erano maturi, ecc. Prima di guardare l'albero, non sapevamo tutto questo, dopo aver guardato l'albero, abbiamo risolto l'incertezza: abbiamo ottenuto informazioni.


Se usciamo nel prato e lo guardiamo, otterremo un diverso tipo di informazioni, quanto è grande il prato, quanto è alta l'erba e di che colore è l'erba. Se un biologo entra nello stesso prato, tra le altre cose, sarà in grado di scoprire: quali varietà di erba crescono nel prato, che tipo di prato è, vedrà quali fiori sono sbocciati, quali semplicemente fioriranno , se il prato è adatto al pascolo di mucche, ecc. Cioè, riceverà più informazioni di noi, poiché aveva più domande prima di guardare il prato, il biologo risolverà più incertezze.

Maggiore è stata l'incertezza risolta nel processo di ottenimento delle informazioni, più informazioni abbiamo ricevuto. Ma questa è una misura soggettiva della quantità di informazioni e vorremmo avere una misura oggettiva. C'è una formula per calcolare la quantità di informazioni. Abbiamo una certa incertezza e abbiamo un numero N-esimo di casi di risoluzione dell'incertezza, e ogni caso ha una certa probabilità di risoluzione, quindi la quantità di informazioni ricevute può essere calcolata utilizzando la seguente formula che Shannon ci ha suggerito:

I = -(p_1 \log_(2)p_1 + p_2 \log_(2)p_2 + ... +p_N \log_(2)p_N), dove

I è la quantità di informazioni;

N è il numero di risultati;

p_1, p_2, ..., p_N - probabilità di esito.

La quantità di informazioni viene misurata in bit, un'abbreviazione delle parole inglesi BInary digiT, che significa una cifra binaria.

Per eventi altrettanto probabili la formula può essere semplificata:

I = \log_(2)N, dove

I è la quantità di informazioni;

N è il numero di risultati.

Prendi, ad esempio, una moneta e gettala sul tavolo. Atterrerà testa o croce. Abbiamo 2 eventi ugualmente probabili. Dopo aver lanciato una moneta, abbiamo ottenuto \log_(2)2=1 bit di informazioni.

Proviamo a scoprire quante informazioni otteniamo dopo aver lanciato il dado. Il cubo ha sei lati - sei eventi ugualmente probabili. Otteniamo: \log_(2)6 \approssimativamente 2.6. Dopo aver tirato il dado sul tavolo, abbiamo ottenuto circa 2,6 bit di informazioni.


La possibilità di vedere un dinosauro marziano quando usciamo di casa è una su dieci su un miliardo. Quante informazioni avremo sul dinosauro marziano dopo che avremo lasciato la casa?

-\left(((1 \over (10^(10))) \log_2(1 \over (10^(10))) + \left(( 1 - (1 \over (10^(10))) ) \right) \log_2 \left(( 1 - (1 \over (10^(10))) )\right)) \right) \circa 3,4 \cdot 10^(-9) bit.

Supponiamo di aver lanciato 8 monete. Abbiamo 2^8 opzioni di lancio di monete. Quindi, dopo aver lanciato le monete, otteniamo \log_2(2^8)=8 bit di informazioni.

Quando facciamo una domanda ed è altrettanto probabile che otteniamo una risposta sì o no, dopo aver risposto alla domanda otteniamo un po' di informazioni.


Sorprendentemente, se applichiamo la formula di Shannon per le informazioni analogiche, otteniamo una quantità infinita di informazioni. Ad esempio, la tensione in un punto di un circuito elettrico può assumere un valore equiprobabile da zero a un volt. Il numero di risultati che abbiamo è infinito e sostituendo questo valore nella formula per eventi equiprobabili, otteniamo infinito, una quantità infinita di informazioni.

Ora ti mostrerò come codificare "Guerra e Pace" con una sola tacca su qualsiasi asta di metallo. Codifichiamo tutte le lettere e i segni trovati in "Guerra e pace" usando numeri a due cifre: dovrebbero essere sufficienti per noi. Ad esempio, daremo alla lettera "A" il codice "00", alla lettera "B" il codice "01", e così via, codificheremo segni di punteggiatura, lettere latine e numeri. Ricodifichiamo "Guerra e Pace" utilizzando questo codice e otteniamo un numero lungo, ad esempio questo è 70123856383901874..., aggiungiamo una virgola e zero prima di questo numero (0.70123856383901874...). Il risultato è un numero da zero a uno. Mettiamo un rischio su un'asta di metallo in modo che il rapporto tra il lato sinistro dell'asta e la lunghezza di questa asta sia esattamente uguale al nostro numero. Quindi, se all'improvviso vogliamo leggere Guerra e pace, misuriamo semplicemente il lato sinistro dell'asta rispetto ai rischi e la lunghezza dell'intera asta, dividiamo un numero per un altro, otteniamo il numero e lo ricodifichiamo nuovamente in lettere ("00 ” su “A”, "01" in "B", ecc.).

In realtà, non saremo in grado di farlo, poiché non saremo in grado di determinare le lunghezze con precisione infinita. Alcuni problemi di ingegneria ci impediscono di aumentare l'accuratezza della misurazione e la fisica quantistica ci mostra che dopo un certo limite, le leggi quantistiche interferiranno già con noi. Intuitivamente, comprendiamo che minore è l'accuratezza della misurazione, meno informazioni riceviamo e maggiore è l'accuratezza della misurazione, più informazioni riceviamo. La formula di Shannon non è adatta per misurare la quantità di informazioni analogiche, ma ci sono altri metodi per questo, che sono discussi in Teoria dell'informazione. Nella tecnologia informatica, un bit corrisponde allo stato fisico del supporto dell'informazione: magnetizzato - non magnetizzato, c'è un buco - non c'è un buco, carico - non carico, riflette la luce - non riflette la luce, alto potenziale elettrico - basso elettrico potenziale. In questo caso, uno stato è solitamente indicato dal numero 0 e l'altro dal numero 1. Qualsiasi informazione può essere codificata da una sequenza di bit: testo, immagine, suono, ecc.


Insieme a un bit, viene spesso utilizzato un valore chiamato byte, di solito è pari a 8 bit. E se il bit ti consente di scegliere un'opzione ugualmente probabile tra due possibili, il byte è 1 su 256 (2 ^ 8). Per misurare la quantità di informazioni, è anche consuetudine utilizzare unità più grandi:

1 KB (un kilobyte) 210 byte = 1024 byte

1 MB (un megabyte) 210 KB = 1024 KB

1 GB (un gigabyte) 210 MB = 1024 MB

In realtà, i prefissi SI kilo-, mega-, giga- dovrebbero essere usati rispettivamente per fattori di 10^3, 10^6 e 10^9, ma storicamente si è sviluppata la pratica di utilizzare fattori con potenze di due.


Un bit Shannon e un bit di computer sono gli stessi se le probabilità che uno zero o uno si verifichi in un bit di computer sono uguali. Se le probabilità non sono uguali, la quantità di informazioni secondo Shannon diminuisce, come abbiamo visto nell'esempio del dinosauro marziano. La quantità di informazioni del computer fornisce una stima superiore della quantità di informazioni. La memoria volatile dopo l'applicazione dell'alimentazione viene solitamente inizializzata con un valore, ad esempio tutti uno o tutti zeri. È chiaro che dopo che l'alimentazione è stata fornita alla memoria, non ci sono informazioni lì, poiché i valori nelle celle di memoria sono rigorosamente definiti, non c'è incertezza. La memoria può memorizzare una certa quantità di informazioni, ma dopo che è stata fornita alimentazione, non ci sono informazioni in essa.

La disinformazione è un'informazione deliberatamente falsa fornita a un avversario o un partner commerciale per una condotta più efficace delle ostilità, la cooperazione, il controllo della perdita di informazioni e la direzione della loro perdita, l'identificazione di potenziali clienti del mercato nero. Inoltre, la disinformazione (anche informata male) è il processo di manipolazione delle informazioni stessa, come ad esempio: indurre in errore qualcuno fornendo informazioni incomplete o complete, ma non più necessarie, distorcendo il contesto, distorcendo parte delle informazioni.


Lo scopo di un tale impatto è sempre lo stesso: l'avversario deve agire secondo le necessità del manipolatore. L'atto dell'oggetto contro il quale è diretta la disinformazione può consistere nel prendere la decisione necessaria al manipolatore o nel rifiutarsi di prendere una decisione sfavorevole per il manipolatore. Ma in ogni caso, l'obiettivo finale è l'azione che verrà intrapresa dall'avversario.

La disinformazione, quindi, è un prodotto dell'attività umana, un tentativo di creare una falsa impressione e, di conseguenza, spingere per le azioni desiderate e/o l'inazione.

Tipi di disinformazione:

Ingannare una persona specifica o un gruppo di persone (compresa un'intera nazione);

Manipolazione (mediante le azioni di una persona o di un gruppo di persone);

Creare l'opinione pubblica su qualche problema o oggetto.

La falsa dichiarazione non è altro che un vero e proprio inganno, la fornitura di informazioni false. La manipolazione è un metodo di influenza volto direttamente a cambiare la direzione dell'attività delle persone. Esistono i seguenti livelli di manipolazione:

Rafforzare i valori (idee, atteggiamenti) che esistono nella mente delle persone che sono utili al manipolatore;

Cambio parziale di opinioni su un particolare evento o circostanza;

Un cambiamento radicale negli atteggiamenti di vita.

La creazione dell'opinione pubblica è la formazione nella società di un certo atteggiamento verso il problema scelto.


Fonti e link

en.wikipedia.org - l'enciclopedia libera Wikipedia

youtube.com - Hosting video di YouTube

images.yandex.ua - Immagini Yandex

google.com.ua - google immagini

it.wikibooks.org - wikibook

inf1.info – Il pianeta dell'informatica

old.russ.ru – Giornale russo

shkolo.ru - Guida informativa

5byte.ru - Sito Web di informatica

ssti.ru – Tecnologie dell'informazione

klgtu.ru - Informatica

informatika.sch880.ru - sito web dell'insegnante di informatica O.V. Podvintseva

bibliofond.ru - biblioteca elettronica Bibliofond

life-prog.ru - programmazione

Le proprietà dell'informazione non sono altro che segni di informazione: le sue caratteristiche qualitative.

Queste proprietà sono strettamente correlate:

  • obiettività - soggettività,
  • credibilità, inaffidabilità
  • completezza - incompletezza,
  • rilevanza - irrilevanza,
  • valore - inutilità,
  • l'intelligibilità è incomprensibilità.

Obiettività. L'informazione è obiettiva se non dipende dall'opinione o dal giudizio di nessuno.

Esempio. Il messaggio "Fuori fa caldo" contiene informazioni soggettive e il messaggio "Ci sono 22 gradi Celsius fuori" - informazioni oggettive (se il termometro funziona). Le informazioni oggettive possono essere ottenute con l'aiuto di sensori riparabili, strumenti di misura. Ma, riflessa nella mente di una determinata persona, l'informazione cessa di essere oggettiva e diventa soggettiva, poiché si trasforma a seconda dell'opinione, del giudizio, dell'esperienza, della conoscenza di un particolare soggetto.

Affidabilità. Le informazioni sono affidabili se riflettono il vero stato delle cose.

Esempio. Durante una conversazione telefonica, il rumore interferisce con l'udito dell'interlocutore, il che rende impossibile percepire con precisione le informazioni, in questo caso le informazioni saranno inaffidabili. Le informazioni oggettive sono sempre affidabili; ma le informazioni affidabili possono essere sia oggettive che soggettive. Informazioni affidabili ci aiutano a prendere la decisione giusta. Informazioni imprecise possono essere dovute ai seguenti motivi:

  • distorsione deliberata (disinformazione);
  • distorsione a causa di interferenze ("telefono danneggiato");
  • distorsione non intenzionale (voci, storie, storie di pesca).

completezza. Le informazioni possono essere definite complete se sono sufficienti per comprendere la situazione e prendere una decisione. Per esempio, il sogno di uno storico è avere informazioni complete sulle epoche passate. Ma le informazioni storiche non sono mai complete e la completezza delle informazioni diminuisce man mano che l'epoca storica si allontana da noi. Anche gli eventi accaduti davanti ai nostri occhi sono pienamente documentati, molto è dimenticato e i ricordi sono distorti. Informazioni incomplete possono portare a conclusioni o decisioni errate.

Rilevanza(la tempestività) delle informazioni è importante, la materialità per il momento presente.

Esempio. Il messaggio "Ora fuori piove" è rilevante per una persona che sta per uscire e irrilevante per una persona che sta per restare a casa. Solo le informazioni tempestive ricevute possono apportare i benefici necessari, come avvisi di terremoti, uragani e altri disastri naturali. Le informazioni irrilevanti possono essere per due ragioni: possono essere obsolete (giornale dell'anno scorso) o insignificanti, non necessarie (ad esempio un messaggio che i prezzi in Italia sono stati ridotti del 5%).

Utilità o inutilità. Poiché non c'è confine tra questi concetti, dovremmo parlare del grado di utilità in relazione ai bisogni di persone specifiche. L'utilità delle informazioni è valutata dai compiti che possiamo risolvere con il suo aiuto.

Esempio. Il messaggio "Domani ci sarà una prova di matematica" è utile per lo studente: può prepararsi ed è inutile per lui se ha la febbre e non va a scuola.

L'informazione più preziosa per noi è abbastanza utile, completa, obiettiva, affidabile. Allo stesso tempo, teniamo conto che una piccola percentuale di informazioni inutili aiuta anche, permettendoti di rilassarti su sezioni non informative del testo. E le informazioni più complete e affidabili non possono essere nuove.

Chiarezza. Le informazioni sono comprensibili se sono espresse in un linguaggio comprensibile al destinatario.

Esempio. Una notazione musicale per uno studente di una scuola di musica contiene informazioni chiare. Ma per uno studente che non ha familiarità con la notazione musicale, queste informazioni saranno semplicemente incomprensibili.

DISPOSIZIONI GENERALI

Capitolo 1. Il diritto dell'informazione come branca del diritto

La creazione di moderne e complesse tecnologie informatiche di nuova generazione ha portato a possibilità quasi illimitate per la società e lo stato di ottenere e utilizzare le informazioni. Di conseguenza, l'informazione è diventata la risorsa più importante dello stato insieme alle altre sue risorse principali: naturali, economiche, lavorative, materiali.

Nella letteratura filosofica si è sviluppata una tradizione stabile per considerare le informazioni sulla base delle categorie filosofiche della riflessione e della differenza (diversità). Non esiste informazione senza riflessione, così come riflessione senza informazione. La proprietà della riflessione risiede nella capacità di qualsiasi oggetto di riprodurre alcune caratteristiche degli oggetti che agiscono su di esso. Tuttavia, per definire il concetto di informazione, non basta una categoria di riflessione. L'informazione ha luogo solo dove, tra qualche identità, c'è una certa differenza. L'unità di misura dell'informazione può essere considerata una differenza elementare, cioè differenza tra due oggetti in una proprietà fissa. Più elementi sono diversi tra loro nell'aggregato, più questo aggregato contiene informazioni. Pertanto, l'informazione in filosofia è definita come una varietà riflessa, vale a dire la varietà che l'oggetto riflettente contiene rispetto al riflesso.

spicca quattro tipi di riflessione: nella natura inanimata (riflessione elementare), nella natura viva (riflessione biologica), nella società (riflessione sociale) e nella natura artificiale.

Le principali forme di riflessione corrispondono a quattro tipi di informazioni:

- elementare (in natura inanimata);

– biologico (in oggetti di fauna selvatica);

- sociale (nella società);

– tecno-cibernetico (nei dispositivi automatizzati).

Come I.A. Yurchenko, una caratteristica dell'informazione è che non può essere immaginata senza alcuna base materiale, è un attributo (proprietà) della materia ed è inseparabile da essa. Anche quando l'informazione è riflessa dalla coscienza di una persona, esiste solo in unità con determinati processi neurofisiologici, ad es. dispone di un proprio supporto materiale. Va notato che nella visione idealistica, le informazioni possono esistere in modo indipendente, senza un supporto, ad esempio l'anima umana, il campo informativo della Terra, ecc.

L'informazione sociale è informazione ottenuto e utilizzato dalle persone. Esiste in due forme: materiale e ideale. L'informazione sociale materiale è un'informazione “potenziale” che esiste come una “cosa in sé”. È presente negli oggetti che hanno subito l'impatto umano (ad esempio, la tecnologia, altri oggetti creati dall'uomo, nuove varietà di piante e razze animali, ecc.). Le informazioni che una persona estrae dall'ambiente e mostra con la sua coscienza si trasformano in informazioni sociali ideali.



L'informazione sociale ideale è il contenuto percepito di un messaggio relativo a un fatto particolare, trasmesso da un individuo o da un gruppo di tali in forma verbale o di qualsiasi altro segno o figurativa a un altro individuo o gruppo di tali. È questo tipo di informazione sociale che è l'oggetto della regolamentazione legale. Cioè, la regolamentazione legale delle informazioni come oggetto è possibile solo se queste informazioni vengono visualizzate da una persona.

Alla fine degli anni '50. uno dei fondatori della cibernetica, N. Winner, ha definito l'informazione come “una designazione del contenuto ricevuto dal mondo esterno nel processo del nostro adattamento ad esso e dell'adattamento dei nostri sentimenti ad esso. Il processo per ottenere e utilizzare le informazioni è il processo del nostro adattamento alle contingenze dell'ambiente esterno e la nostra attività di vita in questo ambiente. In questa definizione, lo scienziato tocca per la prima volta il problema dell'incompletezza delle informazioni ricevute dall'individuo, da un lato, e, dall'altro, la necessità di proteggere le informazioni dagli “incidenti dell'ambiente esterno”.

Lo sviluppo della tecnologia dell'informazione rende necessario un miglioramento intensivo del quadro legislativo, introduce concetti precedentemente utilizzati nella cibernetica e nell'informatica nella sfera giuridica.

Inoltre, affinché le informazioni siano soggette a regolamentazione legale, devono possedere le cosiddette proprietà legali appropriate.

Le proprietà legali delle informazioni includono quanto segue.

1. Inalienabilità fisica - l'informazione non può essere separata dal supporto materiale. Ad esempio, se una persona ha composto una poesia o scritto una storia e vuole venderla, queste informazioni non gli spariranno dopo la transazione, come se avesse venduto un'auto o un guardaroba; quindi, l'alienazione delle informazioni è sostituita dal trasferimento dei diritti di utilizzo delle stesse.

2. Isolamento - le informazioni per l'inclusione nella circolazione civile sono utilizzate sotto forma di simboli, segni, quindi sono isolate dal produttore ed esistono separatamente.

3. La doppia unità di informazione e vettore - sta nel fatto che l'informazione è una cosa su un supporto materiale.

4. Distribuzione (replicabilità): la possibilità di distribuire un numero illimitato di copie senza modificare il contenuto delle informazioni.

5. Forma organizzativa delle informazioni - documento.

6. Istanza - l'esistenza di informazioni su un supporto materiale separato, da cui la contabilizzazione del numero di copie attraverso la contabilizzazione del numero di supporti.

Naturalmente, il concetto giuridico di informazione è alquanto più ristretto di quello filosofico. Sì, l'art. 2 della legge federale del 20 febbraio 1995 n. 24‑FZ "Sull'informazione, l'informatizzazione e la protezione delle informazioni" fornisce la seguente definizione: "Le informazioni sono informazioni su persone, oggetti, fatti, eventi, fenomeni e processi, indipendentemente dalla forma della loro presentazione” . Nuovo la legge federale n. 149‑ФЗ del 27 luglio 2006 "Sull'informazione, le tecnologie dell'informazione e la protezione delle informazioni" (di seguito denominata Legge dell'informazione) all'art. 2 ha ampliato il concetto di “informazione”: “L'informazione è informazione (messaggi, dati) indipendentemente dalla forma della loro presentazione). Nel contesto di cui sopra, il termine "informazione" diventa universale, indica qualsiasi informazione su qualcuno o qualcosa, ottenuta da qualsiasi fonte in qualsiasi forma: scritta, orale, visiva, ecc. In questa definizione, le informazioni sono intese come oggetti reali della vita sociale: persone, oggetti, fatti, eventi, fenomeni, processi. Queste informazioni possono servire sia come oggetto di conoscenza che come risorsa per il rifornimento. base informativa: da un lato, l'informazione può essere ottenuta come risultato di uno studio della realtà circostante e collegata a un sistema oggettivo di conoscenza del mondo già esistente, e dall'altro, può essere oggetto di una ricerca effettuata da un determinato consumatore per raggiungere i suoi obiettivi.

La maggior parte degli scienziati oggi rinuncia a cercare di dare una definizione rigida di informazione e crede che l'informazione debba essere considerata come un concetto primario e indefinibile, come un insieme in matematica. Alcuni autori di libri di testo offrono le seguenti definizioni di informazioni:

Informazioneè conoscenza o informazione su qualcuno o qualcosa.

Informazione- si tratta di informazioni che possono essere raccolte, archiviate, trasmesse, elaborate, utilizzate.

Informatica - la scienza dell'informazione

Questa è la scienza della struttura e delle proprietà delle informazioni, dei metodi di raccolta, elaborazione e trasmissione delle informazioni.

L'informatica studia la tecnologia di raccolta, archiviazione ed elaborazione delle informazioni e il computer è lo strumento principale di questa tecnologia.

Il termine informazione deriva dal vocabolo latino informatio, che significa informazione, chiarimento, presentazione. Al momento, la scienza sta cercando di trovare proprietà e modelli comuni inerenti al concetto multiforme di informazione, ma finora questo concetto rimane ampiamente intuitivo e riceve vari contenuti semantici in vari rami dell'attività umana:

1. Nella vita di tutti i giorni, informazione è qualsiasi dato, informazione, conoscenza che interessa a qualcuno. Ad esempio, un messaggio su qualsiasi evento, sulle attività di qualcuno, ecc.;

2. In tecnologia, l'informazione è intesa come messaggi trasmessi sotto forma di segni o segnali (in questo caso esiste una fonte di messaggi, un destinatario (ricevente) di messaggi, un canale di comunicazione);

Segnale- un modo per trasferire le informazioni. Questo è un processo fisico che ha valore informativo. Può essere continuo o discreto.
Un segnale si dice discreto se può assumere solo un numero finito di valori in un numero finito di volte.

segnale analogico- un segnale che varia continuamente in ampiezza e nel tempo.
Segnali che trasportano informazioni testuali, simboliche, discreto.
I segnali analogici sono utilizzati in collegamento telefonico, radiodiffusione, televisione.

È inutile parlare di informazioni in generale, e non in relazione a nessuna delle sue tipologie specifiche.

Puoi classificarlo:

Per mezzo della percezione (visiva, tattile, ecc.);

Dalla forma di presentazione (testo, numerica, grafica, ecc.);

Per significato sociale (di massa, speciale, personale).

Dati- presentazione di fatti e idee in una forma formalizzata idonea alla trasmissione e all'elaborazione in alcuni processi informativi.

Inizialmente - valori dati, cioè valori dati in anticipo, insieme alla condizione del problema. È il contrario variabili.

In informatica, i dati sono il risultato di fissare, visualizzare informazioni su qualche supporto materiale, cioè una rappresentazione di informazioni registrate sul vettore, indipendentemente dal fatto che queste informazioni siano pervenute a un qualsiasi destinatario e che siano di suo interesse.

Esistono due modi tradizionali per organizzare i dati:

- dati di testo (in file system: file di testo, in programmazione: tipo di dati stringa) è una sequenza di caratteri alfabetici rappresentata come una codifica.

I dati binari sono una sequenza di byte. L'organizzazione "binaria" non è un modo di organizzare i dati in sé, ma solo un termine che combina formati (forme di organizzazione) diversi dal testo.

Può includere una varietà di elementi come codice macchina (o altro eseguibile), dati numerici, codici condizionali, bitmap, posizione di altri dati, frammenti di testo (vedi sopra), dati compressi e casuali.

Informazioni e sue proprietà

Gli oggetti del mondo materiale sono in uno stato di continuo cambiamento, che è accompagnato da uno scambio di energia. Tutte le specie sono accompagnate dalla comparsa di segnali. Quando i segnali interagiscono con i corpi fisici, in quest'ultimo si verificano alcuni cambiamenti nelle proprietà: questo fenomeno è chiamato registrazione del segnale.

I dati sono segnali registrati.

Informazione- si tratta di informazioni su oggetti e fenomeni dell'ambiente, sui loro parametri, proprietà e stati, che riducono il grado di incertezza in essi, l'incompletezza della conoscenza. I dati possono essere considerati come osservazioni registrate che non vengono utilizzate, ma vengono comunque archiviate.

Proprietà dell'informazione che ne determinano le qualità

La qualità dell'informazione è intesa come il grado in cui soddisfa le esigenze dei consumatori. Le proprietà delle informazioni sono relative, in quanto dipendono dalle esigenze del consumatore di informazioni. Si distinguono le seguenti proprietà che caratterizzano la qualità delle informazioni:

  • Obiettività l'informazione caratterizza la sua indipendenza dall'opinione o dalla coscienza di chiunque, nonché dalle modalità di ottenimento. Più oggettive sono le informazioni in cui le modalità di ottenimento e di elaborazione introducono un elemento di soggettività minore.
  • completezza. Le informazioni possono essere considerate complete quando contengono un insieme minimo ma sufficiente di indicatori per prendere la decisione giusta. Sia le informazioni incomplete che quelle ridondanti riducono l'efficacia delle decisioni basate sulle informazioni.
  • Affidabilità- la proprietà dell'informazione di essere percepita correttamente. Le informazioni oggettive sono sempre affidabili, ma le informazioni affidabili possono essere sia oggettive che soggettive. I motivi di imprecisione possono essere:
    • distorsione deliberata (disinformazione);
    • distorsione involontaria della proprietà soggettiva;
    • distorsione dovuta a interferenze;
    • errori di fissazione delle informazioni;

In generale, l'affidabilità delle informazioni si ottiene:

    • indicazione dell'ora degli eventi, di cui vengono trasmesse informazioni;
    • confronto di dati ottenuti da varie fonti;
    • tempestiva divulgazione di informazioni errate;
    • esclusione di informazioni distorte, ecc.
  • Adeguatezza- il grado di conformità al reale stato oggettivo delle cose.
  • Disponibilità informazioni - una misura della capacità di ottenere questa o quella informazione.
  • Rilevanza l'informazione è il grado in cui l'informazione corrisponde al momento attuale.

È anche possibile classificare le proprietà dell'informazione che ne caratterizzano la qualità, come segue [ Akulov O.A., Medvedev N.V. Informatica: corso base. - M.: Omega-L, 2004. S. 42.]:

  • Contenuto o qualità intrinseca (la qualità inerente all'informazione stessa e preservata quando viene trasferita da un sistema all'altro)
    • Significato (la capacità di conservare nel tempo valore per il consumatore)
      • Completezza (una proprietà caratterizzata da una misura della sua sufficienza per risolvere determinati problemi)
      • Identità (proprietà consistente nella corrispondenza delle informazioni allo stato dell'oggetto)
    • Cumulatività (la proprietà delle informazioni contenute in una matrice di un piccolo volume per riflettere pienamente la realtà)
      • Selettività
      • Omomorfismo
  • Sicurezza o qualità estrinseca (la qualità intrinseca delle informazioni trovate o utilizzate solo in un particolare sistema)
    • Preservazione
    • Affidabilità
    • Riservatezza

Operazioni sui dati

Per migliorare la qualità, i dati vengono convertiti da un modulo all'altro utilizzando metodi di elaborazione. Il trattamento dei dati comprende le operazioni:

1) Immissione dei dati (raccolta) - accumulo di dati al fine di garantire una sufficiente completezza per il processo decisionale

2) Formalizzazione dei dati - portare nello stesso modulo dati provenienti da fonti diverse per aumentarne l'accessibilità.

3) Il filtraggio dei dati è il vaglio dei dati "superflui", che non sono necessari per aumentarne l'affidabilità e l'adeguatezza.

4) L'ordinamento dei dati è l'ordinamento dei dati in base a un determinato attributo ai fini della facilità d'uso.

5) L'archiviazione è l'organizzazione dell'archiviazione dei dati in una forma comoda e facilmente accessibile.

6) Protezione dei dati - comprende misure volte a prevenire la perdita, la riproduzione e la modifica dei dati.

7) Trasporto dei dati - ricezione e trasmissione dei dati tra i partecipanti al processo informativo.

8) La trasformazione dei dati è il trasferimento di dati da un modulo all'altro o da una struttura all'altra.

Codifica dei dati

Per automatizzare il lavoro con i dati relativi a tipi diversi, è necessario unificare la loro forma di rappresentazione - consistente nell'espressione di dati di un tipo, attraverso dati di un altro tipo. Il codice di sistema della tecnologia informatica è una codifica binaria basata sulla fornitura di dati sotto forma di due caratteri consecutivi: 1 e 0. Questi caratteri sono chiamati cifre binarie-cifra binaria o bit.

Un bit esprime due concetti: 0 o 1.

Due bit - quattro concetti: 00, 01, 10, 11.

Tre bit - otto concetti: 000,001,010,011,100,101,110,111

Un aumento del numero di cifre del sistema di codifica binaria di uno porta ad un aumento di 2 volte il numero di valori che possono essere espressi da esse. La forma generale è N=2 m , dove N è il numero di valori codificati indipendenti; m - profondità di bit della codifica binaria.

Codifica di numeri interi e reali

Algoritmo per convertire numeri decimali interi in binari: 1) Dividere il numero per 2. Fissare il quoziente resto (0 o 1).

2) Se il quoziente non è uguale a zero, allora dividilo per 2 e così via. fino a quando il quoziente diventa 0. Se il quoziente è 0, annota tutti i resti risultanti, partendo dal primo da destra a sinistra.

Per ottenere l'inverso, devi sommare le potenze di 2 corrispondenti a cifre diverse da zero del numero inserito.

Per la codifica di numeri interi: da 0 a 255 - 8 bit (ingresso binario ottale) da 0 a 655 - 16 bit da 0 a 16,5 milioni - 24 bit

Codifica dei dati di testo

Se ogni carattere dell'alfabeto è associato a un determinato numero intero o non intero (ad esempio un numero di serie), utilizzando un codice binario è possibile codificare e informazioni di testo e suono. Otto bit sono sufficienti per codificare 256 caratteri diversi. Affinché il mondo intero codifichi i dati di testo allo stesso modo, sono necessarie tabelle di codifica unificate, e ciò è ancora impossibile a causa delle contraddizioni tra i simboli degli alfabeti nazionali e delle contraddizioni aziendali.

Per la lingua inglese, che di fatto ha conquistato la nicchia di un mezzo di comunicazione internazionale, le contraddizioni sono già state rimosse. L'US Standards Institute (ANSI - American National Standard Institute) ha introdotto il sistema di codifica ASCII (American Standard Code for Information Interchange - il codice standard statunitense per lo scambio di informazioni) Nel sistema ASCII sono fissate due tabelle di codifica: base ed estesa. La tabella di base fissa i valori del codice da 0 a 127 e la tabella estesa si riferisce a caratteri con numeri da 128 a 255. In URSS, il sistema di codifica KOI-7 (codice di scambio di informazioni a sette cifre) operava in quest'area. Tuttavia, il supporto dei produttori di hardware e software ha portato il codice ASCII americano al livello di uno standard internazionale.

Oggetto e compiti dell'informatica

L'informatica è una scienza tecnica che sistematizza i metodi di creazione, archiviazione, riproduzione, elaborazione e trasmissione di dati mediante la tecnologia informatica, nonché i principi di funzionamento di questi strumenti e metodi per gestirli.

L'argomento dell'informatica è costituito dai seguenti concetti:

Computer hardware;

Software di strutture informatiche;

Mezzi di interazione tra hardware e software;

Mezzi di interazione umana con hardware e strumenti software.

In informatica, viene prestata particolare attenzione ai problemi di interazione. C'è anche un concetto speciale per questo - interfaccia. Vengono chiamati metodi e mezzi di interazione umana con hardware e software interfaccia utente. Di conseguenza, ci sono interfacce hardware, interfacce software e interfacce hardware-software.

Come parte del compito principale dell'informatica oggi, si possono distinguere le seguenti aree di applicazioni pratiche:

Architettura dei sistemi informatici (tecniche e metodi per la realizzazione di sistemi progettati per l'elaborazione automatica dei dati);

Interfacce di sistemi informatici (tecniche e metodi di gestione hardware e software);

Programmazione (tecniche, metodi e mezzi per sviluppare programmi per computer); „

Trasformazione dei dati (tecniche e metodi per trasformare le strutture dati);

Protezione delle informazioni (generalizzazione delle tecniche, sviluppo di metodi e mezzi di protezione dei dati);

Automazione (funzionamento di software e hardware senza intervento umano);

Standardizzazione (garantire la compatibilità tra hardware e software, nonché tra formati di presentazione dei dati relativi a diversi tipi di sistemi informatici).

Collegamenti

  • Corso base di informatica. A cura di S.V. Simanovich 2004

Fondazione Wikimedia. 2010.

Scopri cosa sono "Informazioni e sue proprietà" in altri dizionari:

    Informazione- (Informazioni) Le informazioni sono informazioni su qualcosa Il concetto e i tipi di informazioni, trasmissione ed elaborazione, ricerca e archiviazione di informazioni Contenuto >>>>>>>>>>>> ... Enciclopedia dell'investitore

    Informazione- - qualsiasi tipo di conoscenza su argomenti, fatti, concetti, ecc. dell'area problematica, che viene scambiata dagli utenti sistema informativo. … … Enciclopedia di termini, definizioni e spiegazioni dei materiali da costruzione

    informazione- (dal lat. informatio chiarimento, presentazione) 1) una manifestazione fondamentale delle proprietà dinamiche del mondo, della sua diversità strutturale, semantica e qualitativa e quantitativa; 2) in documentario, messaggi, informazioni trasmesse dalle persone tra loro in ... ... Grande Enciclopedia Psicologica

    Informazioni (dal latino informatio - spiegazione, presentazione), originariamente - informazioni trasmesse da alcune persone ad altre persone oralmente, per iscritto o in altro modo (ad esempio, con l'aiuto di segnali condizionali, utilizzando tecniche ... ... Grande enciclopedia sovietica

    Exist., numero di sinonimi: 1 negativo (8) Dizionario dei sinonimi ASIS. V.N. Trishin. 2013... Dizionario dei sinonimi

    - (dal lat. informatio chiarimento, consapevolezza) qualsiasi informazione e dato che rispecchi le proprietà degli oggetti in natura (biol., fisico., ecc.), sociale e tecnica. sistemi e trasmessi per via sonora, grafica (anche scritta) o in altro modo senza ... ... Enciclopedia fisica

    informazioni sul modello sono tutte le caratteristiche associate al comportamento di un oggetto. Spesso le informazioni sui modelli vengono assegnate dai sistemi di gestione dell'identità in base alla reputazione e alle iterazioni recenti, anziché essere determinate dall'entità stessa. Esempi di informazioni sui modelli... Manuale tecnico del traduttore

    - (lat. informatio chiarimento, presentazione, consapevolezza) è uno dei concetti più generali della scienza, che denota alcune informazioni, un insieme di dati, conoscenze, ecc. Entro i confini dell'approccio cibernetico sistemico, I. è considerato in ... ... L'ultimo dizionario filosofico

    Vorresti migliorare questo articolo?: Trova e fornisci note a piè di pagina per i riferimenti a fonti autorevoli che confermano quanto scritto. Aggiungi illustrazioni. Aggiungi informazioni per altri paesi e regioni ... Wikipedia

    Nella statistica matematica e nella teoria dell'informazione, l'informazione di Fisher è la varianza della funzione di contributo del campione. Questa funzione prende il nome da Ronald Fisher che la descrisse. Sommario 1 Definizione 2 Proprietà ... Wikipedia

Libri

  • Proprietà dei materiali strutturali dell'industria nucleare. Acciai e leghe per condotte NPP. Volume 3, Yu.V. Kashirsky La raccolta contiene informazioni su oltre 40 gradi nazionali e 60 esteri di acciai e leghe utilizzati nell'industria nucleare. Discute in dettaglio le caratteristiche e le proprietà ...