|
|
||
"Пионером в области информационной теории был Ральф Хартли. Он ввёл понятие "информации" (энтропии) как случайной переменной и был первым, кто попытался определить "меру информации". | ||
|
|---|
| Если а, то b;. | 1) |
|---|
| а→b; | 2) |
|---|
| Сигнал + логика + эквивалент = информация; | 3) |
|---|
|