Съдържание:
- Информация
- 1. Информация в разговорна реч
- 2. История на термина и понятието информация
- 3. Строителни блокове на съвременните теории на информацията
- 4. Развития във философията на информацията
- Други интернет ресурси

Видео: Информация

2023 Автор: Noah Black | [email protected]. Последно модифициран: 2023-08-25 04:38
Навигация за влизане
- Съдържание за участие
- библиография
- Академични инструменти
- Friends PDF Preview
- Информация за автора и цитирането
- Върнете се в началото
Информация
Публикувана за първи път пет октомври 26, 2012; съществена ревизия пет пр. 14, 2018
Философия на информацията се занимава с философския анализ на понятието информация както от историческа, така и от систематична гледна точка. С появата на емпиричната теория на познанието в ранната модерна философия, развитието на различни математически теории на информацията през ХХ век и възхода на информационните технологии, понятието „информация“заема централно място в науките и обществото, Този интерес доведе и до появата на отделен клон на философията, който анализира информацията във всичките й образи (Adriaans & van Benthem 2008a, b; Lenski 2010; Floridi 2002, 2011). Информацията се превърна в централна категория както в науките, така и в хуманитарните науки, а размисълът върху информацията влияе на широк спектър от философски дисциплини, различни от логиката (Dretske 1981;van Benthem & van Rooij 2003; van Benthem 2006;).
Няма консенсус относно точния характер на областта на философията на информацията. Няколко автори са предложили повече или по-малко съгласувана философия на информацията като опит за преосмисляне на философията от нова гледна точка: например, квантова физика (Mugur-Schächter 2002), логика (Brenner 2008), семантична информация (Floridi 2011; Adams & de Moraes 2016, вижте записа за семантични концепции за информация), комуникационни и съобщетелни системи (Capurro & Holgate 2011) и метафилософия (Wu 2010, 2016). Други (Adriaans & van Benthem 2008a; Lenski 2010) го разглеждат повече като техническа дисциплина с дълбоки корени в историята на философията и последствия за различни дисциплини като методология, гносеология и етика. Каквото и да е тълкуването на природата на философията на информацията,изглежда предполага амбициозна изследователска програма, състояща се от много подпроекти, вариращи от реинтерпретацията на историята на философията в контекста на съвременните теории на информацията, до задълбочен анализ на ролята на информацията в науката, хуманитарните науки и обществото като дупка.
Терминът „информация“в разговорната реч понастоящем се използва предимно като абстрактно съществително име, използвано за обозначаване на всяко количество данни, код или текст, които се съхраняват, изпращат, получават или манипулират във всеки носител. Подробната история както на термина „информация“, така и на различните концепции, които идват с нея, е сложна и в по-голямата си част все още предстои да бъде написана (Seiffert 1968; Schnelle 1976; Capurro 1978, 2009; Capurro & Hjørland 2003). Точното значение на понятието „информация“варира в различните философски традиции, а разговорната му употреба варира географски и в различен прагматичен контекст. Въпреки че анализът на понятието информация е тема в западната философия от ранното й създаване, изричният анализ на информацията като философско понятие е наскоро, т.е.и датира от втората половина на ХХ век. В този момент е ясно, че информацията е ключово понятие в науките и хуманитарните науки и в ежедневието ни. Всичко, което знаем за света, се основава на информация, която получихме или събрахме и всяка наука по принцип се занимава с информация. Съществува мрежа от свързани концепции на информация, с корени в различни дисциплини като физика, математика, логика, биология, икономика и гносеология. Всички тези понятия се групират около две централни свойства:с корени в различни дисциплини като физика, математика, логика, биология, икономика и гносеология. Всички тези понятия се групират около две централни свойства:с корени в различни дисциплини като физика, математика, логика, биология, икономика и гносеология. Всички тези понятия се групират около две централни свойства:
Информацията е обширна. Централно значение е концепцията за добавката: комбинацията от два независими набора от данни с един и същ обем информация съдържа два пъти повече информация от отделните набори от данни. Понятието за екстензивност се появява естествено в нашите взаимодействия със света около нас, когато броим и измерваме обекти и структури. Основни концепции за по-абстрактни математически образувания, като множества, мултисети и последователности, са разработени в началото на историята въз основа на структурни правила за манипулиране на символи (Schmandt-Besserat 1992). Математическата формализация на екстензивността по отношение на функцията на лога се осъществява в контекста на изследванията на термодинамиката през XIX (Boltzmann 1866) и началото на XX век (Gibbs 1906). Когато са кодирани по отношение на по-усъвършенствани многоизмерни системи от числа (сложни числа,кватерниони, октониони) концепцията за екстензивност се обобщава до по-фини представи за пристрастяване, които не отговарят на нашите ежедневни интуиции. И все пак те играят важна роля в последните разработки на теорията на информацията, базирана на квантовата физика (Von Neumann 1932; Redei & Stöltzner 2001, виж запис за квантово сплитане и информация).
Информацията намалява несигурността. Количеството информация, която получаваме, нараства линейно с количеството, с което намалява нашата несигурност до момента, в който сме получили цялата възможна информация и количеството на несигурността е нула. Връзката между несигурността и информацията вероятно първо е формулирана от емпириците (Лок 1689; Хюм 1748). Хюм изрично отбелязва, че изборът от по-голям избор от възможности дава повече информация. Това наблюдение достигна каноничната си математическа формулировка във функцията, предложена от Хартли (1928), която определя количеството информация, което получаваме, когато избираме елемент от ограничен набор. Единствената математическа функция, която обединява тези две интуиции за екстензивност и вероятност, е тази, която определя информацията по отношение на отрицателния лог на вероятността: (I (A) = - / log P (A)) (Shannon 1948;Shannon & Weaver 1949, Rényi 1961).
Елегантността на тази формула обаче не ни предпазва от концептуалните проблеми, които изпитва. През ХХ век са направени различни предложения за формализиране на концепции за информация:
-
Качествени теории на информацията
- Семантична информация: Бар-Хилел и Карнап разработиха теория за семантичната информация (1953 г.). Флориди (2002, 2003, 2011) определя семантичната информация като добре оформени, съдържателни и достоверни данни. Определенията, базирани на формална ентропия на информация (Фишър, Шанън, Квантум, Колмогоров), работят на по-общо ниво и не е задължително да измерват информацията в смислени истински набори от данни, въпреки че човек може да защити мнението, че за да бъдат измерими данните трябва да са добре формирана (за дискусия вижте раздел 6.6 относно логическата и семантичната информация). Семантичната информация е близка до ежедневната ни наивна представа за информация като нещо, което се предава чрез истински твърдения за света.
- Информацията като състояние на агент: формалното логическо третиране на понятия като знание и вяра е инициирано от Hintikka (1962, 1973). Dretske (1981) и van Benthem & van Rooij (2003) изучават тези понятия в контекста на теорията на информацията, вж. van Rooij (2003) на въпроси и отговори или Parikh & Ramanujam (2003) относно общите съобщения. Също така изглежда, че Дън има предвид това понятие, когато определя информацията като „онова, което е останало от знанието, когато човек отнеме вярване, оправдание и истина“(Dunn 2001: 423; 2008). Виго предложи Структурно-чувствителна теория на информацията, основана на сложността на придобиване на концепция от агенти (Vigo 2011, 2012).
-
Количествени теории на информацията
- Функцията на Nyquist : Nyquist (1924) вероятно е първият, който изрази количеството „интелигентност“, което може да бъде предадено, като се има предвид определена скорост на линията на телеграфните системи по отношение на лог функция: (W = k / log m), където W е скоростта на предаване, K е константа и m са различните нива на напрежение, от които човек може да избира.
- Информация за Фишер: количеството информация, което наблюдавана случайна променлива X носи неизвестен параметър (theta), от който зависи вероятността от X (Fisher 1925).
- Функцията на Хартли: (Hartley 1928, Rényi 1961, Vigo 2012). Количеството информация, което получаваме, когато избираме елемент от ограничен набор S при равномерно разпределение, е логаритъмът на кардиналността на този набор.
- Информация за Шенън: ентропията, H, на дискретна случайна променлива X е мярка за размера на несигурността, свързана със стойността на X (Shannon 1948; Shannon & Weaver 1949).
- Колмогорова сложност: информацията в двоичен низ x е дължината на най-късата програма p, която произвежда x на референтна универсална машина на Turing U (Turing 1937; Solomonoff 1960, 1964a, b, 1997; Kolmogorov 1965; Chaitin 1969, 1987).
- Мерки за ентропията във физиката: Въпреки че не във всички случаи са строго мерки на информация, различните понятия за ентропия, дефинирани във физиката, са тясно свързани със съответните понятия за информация. Споменаваме Boltzmann Entropy (Boltzmann, 1866), тясно свързана с функцията на Hartley (Hartley 1928), Entropy на Gibbs (Gibbs 1906), формално еквивалентна на ентропията на Shannon и различни обобщения като Tsallis Entropy (Tsallis 1988) и Rényi Entropy (Rényi 1961).
- Квантова информация: Кубитът е обобщение на класическия бит и се описва от квантово състояние в двустранна квантово-механична система, което формално е еквивалентно на двумерно векторно пространство над сложните числа (Von Neumann 1932; Redei & Stöltzner 2001).
Доскоро възможността за обединяване на тези теории като цяло се съмняваше (Adriaans & van Benthem 2008a), но след две десетилетия на изследване перспективите за обединение изглеждат по-добри.
Контурите на единна концепция за информация се очертават по следните линии:
- Философията на информацията е поддисциплина на философията, тясно свързана с философията на логиката и математиката. Философията на семантичната информация (Floridi 2011, D'Alfonso 2012, Adams & de Moraes, 2016) отново е поддисциплина на философията на информацията (вижте информационната карта във вписването за семантичните концепции на информацията). От тази гледна точка философията на информацията се интересува от изследването на темата на най-общо ниво: данни, добре оформени данни, данни за околната среда и др. Философията на семантичната информация добавя измеренията на смисъла и истинността. Възможно е да се интерпретират количествените теории на информацията в рамките на философия на семантичната информация (вж. Точка 6.5 за задълбочена дискусия).
- Различни количествени понятия за информация са свързани с различни разкази (броене, получаване на съобщения, събиране на информация, изчисления), вкоренени в една и съща основна математическа рамка. Много проблеми във философията на информационния център около свързани проблеми във философията на математиката. Преобразувани са преобразувания и намаления между различни формални модели (Cover & Thomas 2006; Grünwald & Vitányi 2008; Bais & Farmer 2008). Ситуацията, която изглежда се очертава, не е различна от концепцията за енергия: съществуват различни формални под-теории за енергията (кинетична, потенциална, електрическа, химическа, ядрена) с добре дефинирани трансформации помежду им. Освен това терминът „енергия“се използва свободно в разговорна реч.
- Агентските концепции за информация се появяват естествено, когато разширяваме интереса си от простото измерване и манипулиране на символи до по-сложната парадигма на агент със знания, убеждения, намерения и свобода на избор. Те са свързани с разгръщането на други концепции за информация.
Появата на съгласувана теория за количествено измерване на информацията през ХХ век е тясно свързана с развитието на теорията за изчисленията. Централни в този контекст са представите за универсалност, еквивалентност на Тюринг и инвариантност: тъй като концепцията за система на Тюринг дефинира понятието за универсален програмируем компютър, всички универсални модели на изчисление изглежда имат еднаква сила. Това означава, че всички възможни мерки за определяне на информация за универсални модели на изчисление (рекурсивни функции, машина на Turing, изчисляване на Lambda и т.н.) са асимптотично инвариантни. Това дава перспектива за единна теория на информацията, която може да доминира в изследователската програма за следващите години.
- 1. Информация в разговорна реч
-
2. История на термина и понятието информация
- 2.1 Класическа философия
- 2.2 Средновековна философия
- 2.3 Модерна философия
- 2.4 Историческо развитие на значението на термина „информация“
-
3. Строителни блокове на съвременните теории на информацията
- 3.1 Езици
- 3.2 Оптимални кодове
- 3.3 Числа
- 3.4 Физика
-
4. Развития във философията на информацията
- 4.1 Popper: Информация като степен на фалшифицируемост
- 4.2 Шанън: Информация, дефинирана в вероятност
- 4.3 Соломонов, Колмогоров, Чайтин: Информацията като продължителност на програмата
-
5. Систематични съображения
-
5.1 Философия на информацията като продължение на философията на математиката
- 5.1.1 Информацията като естествено явление
- 5.1.2 Манипулация и обширност на символите: множества, мултисети и струни
- 5.1.3 Набори и номера
- 5.1.4 Измерване на информация в числа
- 5.1.5 Измерване на информация и вероятности в набори от числа
- 5.1.6 Перспективи за обединение
- 5.1.7 Обработка на информация и поток на информация
- 5.1.8 Информация, праймери и фактори
- 5.1.9 Непълнота на аритметиката
-
5.2 Информационни и символни изчисления
- 5.2.1 Тюринг машини
- 5.2.2 Универсалност и инвариантност
- 5.3 Квантова информация и други
-
-
6. Аномалии, парадокси и проблеми
- 6.1 Парадоксът на систематичното търсене
- 6.2 Ефективно търсене в крайни набори
- 6.3 Проблемът P срещу NP, описателна сложност спрямо сложността във времето
- 6.4 Избор на модел и компресиране на данни
- 6.5 Детерминизъм и термодинамика
- 6.6 Логическа и семантична информация
- 6.7 Значение и изчисление
- 7. Заключение
- библиография
- Академични инструменти
- Други интернет ресурси
- Свързани записи
1. Информация в разговорна реч
Липсата на точност и универсалната полезност на термина „информация“вървят ръка за ръка. В нашето общество, в което изследваме реалността с помощта на инструменти и инсталации с все по-голяма сложност (телескопи, циклотрони) и общуваме чрез по-напреднали медии (вестници, радио, телевизия, SMS, интернет), е полезно да имате абстракт масово съществително за "неща", които са създадени от инструментите и които "протичат" през тези медии. В исторически план това общо значение се появи доста късно и изглежда се свързва с възхода на средствата за масова информация и разузнавателните агенции (Devlin & Rosenberg 2008; Adriaans & van Benthem 2008b).
В настоящата разговорна реч терминът информация се използва по различни слабо определени и често дори противоречащи си начини. Например повечето хора биха счели следното заключение prima facie за валидно:
Ако получа информацията, че p, тогава знам, че p.
Едни и същи хора вероятно не биха имали проблеми с твърдението, че „Тайните служби понякога разпространяват невярна информация“или с изречението „Информацията, предоставена от свидетелите на инцидента, е била неясна и противоречива“. Първото твърдение предполага, че информацията непременно е вярна, докато другите твърдения позволяват възможността информацията да е невярна, конфликтна и неясна. В ежедневната комуникация тези несъответствия изглежда не създават големи проблеми и като цяло от прагматичния контекст става ясно какъв тип информация е обозначен. Тези примери са достатъчни, за да се аргументира, че споменаването на интуицията ни като говорители на английски език не е малко полезно за развитието на строга философска теория на информацията. Изглежда няма прагматичен натиск в ежедневната комуникация, за да се сближи до по-точно определение на понятието информация.
2. История на термина и понятието информация
До втората половина на ХХ век почти никой съвременен философ не смята „информацията“за важна философска концепция. Терминът няма лема в добре познатата енциклопедия на Едуардс (1967 г.) и не се споменава във Windelband (1903 г.). В този контекст интересът към „Философия на информацията“е скорошно развитие. И все пак, със заден поглед от гледна точка на историята на идеите, размисълът върху понятието „информация” е доминираща тема в историята на философията. Реконструкцията на тази история е от значение за изучаването на информация.
Проблем с всеки подход „история на идеите“е валидирането на основното предположение, че концепцията, която изучава, наистина има приемственост в историята на философията. В случай на исторически анализ на информация може да се запита дали обсъжданото от Августин понятие „informatio“има някаква връзка с информацията на Шенън, освен прилика на термините. В същото време може да се запита дали „историческият, ясен метод” на Лок е важен принос за появата на съвременната концепция за информация, въпреки че в своите трудове Лок почти не използва термина „информация” в технически смисъл. Както е показано по-долу, има конгломерат от идеи, включващ представа за информация, която се е развила от древността до последно време, но е необходимо по-нататъшно проучване на историята на концепцията за информация.
Важна повтаряща се тема в ранния философски анализ на знанието е парадигмата за манипулиране на парче восък: или чрез простото му деформиране, чрез поставяне на пръстен с печат в него, или чрез писане на знаци върху него. Фактът, че восъкът може да приема различни форми и вторични качества (температура, мирис, допир), докато обемът (удължаването) остава същият, го превръща в богат източник на аналогии, естествени за гръцката, римската и средновековната култура, където восъкът е използван и за скулптура, писане (восъчни таблетки) и енкаустична живопис. Човек намира тази тема в съчинения на толкова разнообразни автори като Демокрит, Платон, Аристотел, Теофраст, Цицерон, Августин, Авицена, Дънс Скот, Аквински, Декарт и Лок.
2.1 Класическа философия
В класическата философия „информацията“е техническо понятие, свързано с теория на познанието и онтологията, възникнало в теорията на формите на Платон (427–347 г. пр.н.е.), разработена в редица негови диалози (Федо, Федър, Симпозиум, Тимей, Република), Различните несъвършени индивидуални коне във физическия свят могат да бъдат идентифицирани като коне, защото те участват в статичната временна и астративна идея за „кон“в света на идеите или формите. Когато по-късни автори като Цицерон (106–43 г. пр. Н. Е.) И Августин (354–430 г. пр. Н. Е.) Обсъждат платонските понятия на латински език, те използват термините informare и informatio като превод на технически гръцки термини като eidos (същност), идея (идея), печатни грешки (вид), морфе (форма) и пролепсис (представителство). Коренът „форма“все още е разпознаваем по думата in-form-ation (Capurro & Hjørland 2003). Теорията на формите на Платон е опит за формулиране на решение за различни философски проблеми: теорията на формите посредничи между статична (Парменид, около 450 г. пр.н.е.) и динамична (Ираклейтос, ок. 535–475 г. пр.н.е.) онтологична концепция за реалността и тя предлага модел за изучаване на теорията на човешкото познание. Според Теофраст (371–287 г. пр.н.е.) аналогията на восъчната таблетка се връща към Демокрито (около 460–380 / 370 г. пр.н.е.) (De Sensibus 50). В Theaetetus (191c, d) Платон сравнява функцията на нашата памет с восъчна таблетка, в която нашите възприятия и мисли са отпечатани като пръстен с печат, отпечатва впечатления във восък. Обърнете внимание, че метафората за отпечатване на символи във восък по същество е пространствена (обширна) и не може лесно да се примири с аспаративното тълкуване на идеите, поддържани от Платон.
Човек получава картина на ролята, която понятието „форма” играе в класическата методология, ако се вземе предвид учението на Аристотел (384–322 г. пр.н.е.) за четирите причини. В аристотеловата методология разбирането на обект предполага разбиране на четири различни аспекта от него:
Материална причина:: в резултат на чието присъствие се появява нещо - напр. Бронзът на статуя и среброто на чаша и класовете, които съдържат тези
Формална причина:: формата или модел; т. е. основната формула и класовете, които я съдържат, например съотношението 2: 1 и числото като цяло е причината за октавата и частите от формулата.
Ефективна причина:: източникът на първото начало на промяна или почивка; например, мъжът, който планира, е причина, а бащата е причината за детето и като цяло това, което произвежда, е причината за това, което се произвежда, и това, което се променя от това, което се променя.
Крайна причина: същото като „край“; т.е. крайната причина; например, тъй като „краят“на ходенето е здравето. Защо човек ходи? „Да бъдем здрави“, казваме, и казвайки това, считаме, че сме предоставили каузата. (Аристотел, Метафизика 1013а)
Обърнете внимание, че Аристотел, който отхвърля теорията на Платон за формите като временни странични същества, все още използва „формата“като техническа концепция. Този пасаж гласи, че познаването на формата или структурата на даден обект, т.е. информацията, е необходимо условие за разбирането му. В този смисъл информацията е решаващ аспект на класическата епистемология.
Фактът, че съотношението 2: 1 е посочено като пример, също илюстрира дълбоката връзка между понятието за форми и идеята, че светът е управляван от математически принципи. Платон вярвал под влияние на по-стара питагорейска (Питагор 572 - около 500 г. пр. Н. Е.) Традиция, че „всичко, което възниква и се случва в света“, може да бъде измерено чрез числа (Politicus 285a). По различни поводи Аристотел споменава факта, че Платон свързва идеи с числа (Vogel 1968: 139). Въпреки че формалните математически теории за информацията се появяват едва през ХХ век и човек трябва да внимава да не интерпретира гръцкото понятие за число в какъвто и да е съвременен смисъл, идеята, че информацията е била по същество математическо понятие, датира от класическата философия:формата на образувание е била замислена като структура или модел, които могат да бъдат описани като числа. Такава форма имаше както онтологичен, така и епистемологичен аспект: тя обяснява същността, както и разбираемостта на обекта. Така понятието информация от самото начало на философската рефлексия вече се свързва с гносеологията, онтологията и математиката.
Два основни проблема, които не се обясняват с класическата теория на идеите или формите, са 1) действителният акт на познаване на даден обект (т.е. ако виждам кон по какъв начин е идеята за кон, активиран в съзнанието ми) и 2) процесът на мислене като манипулация на идеи. Аристотел третира тези проблеми в „Де Аниме“, като се позовава на аналогията на печат-пръстен-в-восък:
Под „смисъл“се разбира това, което има силата да приема в себе си разумните форми на нещата без материята. Това трябва да се мисли, че се осъществява по начина, по който парче восък поема отпечатъка на печат-пръстен без желязото или златото; казваме, че това, което създава впечатлението, е печат от бронз или злато, но неговата особена метална конституция няма никаква разлика: по подобен начин смисълът се влияе от оцветеното или ароматизирано или звучещо, но е безразлично какво във всеки случай вещество е; важно е само какво качество има, т.е. в какво съотношение се съчетават съставките му. (De Anime, книга II, гл. 12)
Не сме ли се освободили вече от затрудненията във взаимодействието, включващо общ елемент, когато казахме, че умът е в известен смисъл каквото и да е осезаемо, макар всъщност да е нищо, докато не се е замислил? Това, което смята, трябва да бъде в него, както може да се каже, че героите са на таблет за писане, върху който все още нищо не стои написано: точно това се случва с ума. (De Anime, книга III, гл. 4)
Тези пасажи са богати на влиятелни идеи и могат със заден план да бъдат разчетени като програмни за философия на информацията: процесът на информацията може да се схване като отпечатък на знаци върху восъчна таблетка (табула раса), мисленето може да се анализира по отношение на манипулация от символи.
2.2 Средновековна философия
През Средновековието размисълът върху концепцията на информацията се предприема от последователни мислители. Илюстративен за аристотеловото влияние е пасажът на Августин в книгата XI De Trinitate. Тук той анализира зрението като аналогия за разбирането на Троицата. Има три аспекта: телесната форма във външния свят, информацията чрез усещането за зрение и получената форма в ума. За този процес на информация Августин използва изображението на пръстена за печат, което прави впечатление във восък (De Trinitate, XI Cap 2 пар. 3). Capurro (2009) отбелязва, че този анализ може да бъде интерпретиран като ранна версия на техническата концепция за „изпращане на съобщение“в съвременната информационна теория, но идеята е по-стара и е често срещана тема в гръцката мисъл (Платон Театет 191c, d; Аристотел Де Аниме, книга II, глава 12, книга III, гл. 4;Теофраст Де Сенсибус 50).
По-късно понятието табула раса е доразвито в теорията на познанието на Авицена (ок. 980–1037 г. пр.н.е.):
Човешкият интелект по рождение е по-скоро като табула раса, чиста потенциалност, която се реализира чрез образование и се опознава. Знанието се постига чрез емпирично запознаване с обекти в този свят, от които човек абстрахира универсалните понятия. (Sajjad 2006 [Други интернет ресурси [по-долу OIR])
Идеята за развитието на табула раса на човешкия ум е била тема на роман Хей ибн Якдхан от арабския андалуски философ Ибн Туфаил (1105–1185 г. пр. Н. Е., Известен като „Abubacer” или „Ebn Tophail” на запад). Този роман описва развитието на изолирано дете на безлюден остров. По-късен превод на латински под заглавието Philosophus Autodidactus (1761) повлия на емпирика Джон Лок при формулирането на неговата доктрина tabula rasa.
Освен постоянното творческо напрежение между теология и философия, средновековната мисъл, след преоткриването на метафизиката на Аристотел през дванадесети век, вдъхновена от арабските учени, може да се характеризира като сложна и фина интерпретация и развитие на, главно аристотелевска, класическа теория. Размисълът върху понятието информация е под въздействието на Авицена от мислители като Аквински (1225–1274 г. пр. Н. Е.) И Дънс Скот (1265 / 66–1308 г. пр.н.е.). Когато Аквински обсъжда въпроса дали ангелите могат да взаимодействат с материята, той се позовава на аристотеловото учение за хиломорфизма (т.е. теорията, че веществото се състои от материя (хило (дърво), материя) и форма (морфа)). Тук Аквински превежда това като образуване на материя (informatio materiae) (Summa Theologiae, 1a 110 2; Capurro 2009). Duns Scotus се позовава на informatio в технически смисъл, когато обсъжда теорията за зрението на Августин в De Trinitate, XI Cap 2, ал.3 (Duns Scotus, 1639, „De zamis“, Ordinatio, I, d.3, p.3).
Напрежението, което вече съществува в класическата философия между платонов идеализъм (universalia ante res) и аристотелевски реализъм (universalia in rebus), се възприема като проблем на универсалността: съществуват ли универсални качества като „човечеството“или идеята за коня, освен отделния човек субекти, които ги създават? Именно в контекста на неговото отхвърляне на универсалите Окхам (ок. 1287–1347 г. пр. Н. Е.) Въвежда своя добре познат бръснач: не бива да се умножават сущности извън необходимостта. В своите писания Аквински и Шотланд използват латинските термини informatio и informare в технически смисъл, въпреки че тази терминология не се използва от Окъм.
2.3 Модерна философия
Историята на концепцията за информация в съвременната философия е сложна. Вероятно започвайки през четиринадесети век терминът „информация“се появява в различни развиващи се европейски езици в общото значение на „образование“и „проучване“. Френският исторически речник на Годефрой (1881) дава действие като предишно, инструкция, енкуек, наука, талант като ранни значения на „информация“. Терминът се използва изрично и за правни разследвания (Dictionnaire du Moyen Français (1330–1500) 2015). Поради това разговорно използване терминът „информация“постепенно губи своята връзка с понятието „форма“и се появява все по-малко във формален смисъл във философските текстове.
В края на Средновековието обществото и науката се променят коренно (Hazard 1935; Ong 1958; Dijksterhuis 1986). При дълъг сложен процес аристотеловата методология на четирите причини е трансформирана така, че да обслужва нуждите на експерименталната наука:
- Материалната причина се развива в съвременната представа за материята.
- Формалната причина беше преосмислена като геометрична форма в пространството.
- Ефективната причина беше предефинирана като пряко механично взаимодействие между материалните тела.
- Крайната причина беше отхвърлена като ненаучна. Поради това съвременниците на Нютон изпитваха затруднения с концепцията за силата на гравитацията в неговата теория. Гравитацията като действие от разстояние изглежда беше повторно въвеждане на крайни причини.
В този променящ се контекст аналогията на восъчното впечатление се преосмисля. Протоверсията на съвременната концепция за информация като структура на набор или последователност от прости идеи е разработена от емпириците, но тъй като техническото значение на термина „информация“е загубено, тази теория на познанието никога не се определя като нова „теория на информацията“.
Последицата от това изместване в методологията е, че само явления, които могат да бъдат обяснени по отношение на механично взаимодействие между материалните тела, могат да бъдат изучавани научно. Това предполага в съвременен смисъл: редукцията на интензивните свойства до измерими екстензивни свойства. За Галилей това прозрение е програмно:
За да възбудите в нас вкусове, миризми и звуци, вярвам, че във външните тела не се изисква нищо, освен форми, числа и бавни или бързи движения. (Галилео 1623 [1960: 276)
Тези прозрения по-късно доведоха до доктрината за разликата между първичните качества (пространство, форма, скорост) и вторични качества (топлина, вкус, цвят и т.н.). В контекста на информационната философия наблюденията на Галилей за вторичното качество на „топлината“са от особено значение, тъй като те поставят основите на изучаването на термодинамиката през XIX век:
След като показах, че много усещания, които би трябвало да са качества, пребиваващи във външни обекти, няма реално съществуване освен в нас, а извън себе си са просто имена, сега казвам, че съм склонен да вярвам, че топлината е от този характер. Тези материали, които произвеждат топлина в нас и ни карат да усещаме топлина, които са известни с общото наименование „огън“, тогава биха били множество минутни частици, които имат определени форми и се движат с определени скорости. (Галилео 1623 [1960: 277)
Основен мислител в тази трансформация е Рене Декарт (1596-1650 г. пр. Н. Е.). В неговите Meditationes, след като „докаже“, че материята (res extensa) и умът (res cogitans) са различни вещества (т.е. форми на съществуване независимо), въпросът за взаимодействието между тези вещества става въпрос. Ковкостта на восъка е за Декарт изричен аргумент срещу влиянието на res extensa върху res cogitans (Meditationes II, 15). Фактът, че парче восък лесно губи формата и другите си качества при нагряване, предполага, че сетивата не са адекватни за идентифициране на обекти в света. Истинското знание по този начин може да бъде достигнато само чрез "инспекция на ума". Тук метафората с восък, която повече от 1500 години се използва за обяснение на сетивно впечатление, се използва за спор срещу възможността за достигане на знания чрез сетивата. Тъй като същността на res extensa е разширението, мисленето по принцип не може да бъде разбрано като пространствен процес. Декарт все още използва термините „форма“и „идея“в оригиналния схоластичен негеометричен (атемпорален, пространствен) смисъл. Пример е краткото официално доказателство за съществуването на Бог във втория отговор на Мерсен в Meditationes de Prima PhilosophiaПример е краткото официално доказателство за съществуването на Бог във втория отговор на Мерсен в Meditationes de Prima PhilosophiaПример е краткото официално доказателство за съществуването на Бог във втория отговор на Мерсен в Meditationes de Prima Philosophia
Използвам термина идея, за да се позова на формата на всяка дадена мисъл, непосредственото възприемане на която ме осъзнава.
(Idea nomine intelligo cujuslibet cogitationis formam illam, per cujus neposredtam perceptionem ipsius ejusdem cogitationis съзнателна сума)
Аз ги наричам „идеи“, казва Декарт
само доколкото те променят самия ум, когато информират тази част от мозъка.
(sed tantum quatenus mentem ipsam in illam cerebri partem разговор информатор). (Descartes, 1641, Ad Secundas възражения, съотношения, Dei existentiam & anime distinctionem probantes, още Geometrico dispositae.)
Тъй като res extensa и res cogitans са различни вещества, актът на мислене никога не може да бъде емулиран в пространството: машините не могат да имат универсалната способност за разум. Декарт дава две отделни мотивации:
Първият от тях е, че те никога не биха могли да използват думи или други знаци, подредени по такъв начин, какъвто е компетентен за нас, за да заявим мислите си на другите: (…) Вторият тест е, че въпреки че такива машини могат да изпълняват много неща с еднакво или може би по-голямо съвършенство от всеки от нас, те без съмнение биха се провалили в някои други, от които може да се установи, че не действат от знанието, а единствено от разположението на техните органи: защото докато разумът е универсален инструмент това е на разположение при всеки повод, тези органи, напротив, се нуждаят от определено споразумение за всяко конкретно действие; следователно трябва да е морално невъзможно да съществува във всяка машина разнообразие от органи, достатъчно, за да може тя да действа при всички събития на живота, по начина, по който разумът ни позволява да действаме.(Discourse de la méthode, 1647)
Този пасаж е релевантен, тъй като директно спори с възможността за изкуствен интелект и дори може да се тълкува като аргумент срещу възможността за универсална машина на Тюринг: разумът като универсален инструмент никога не може да се подражава на космоса. Тази концепция противоречи на съвременната концепция за информация, която като измеримо количество по същество е пространствена, т.е. обширна (но в известен смисъл различна от тази на Декарт).
Декарт не представя нова интерпретация на понятията за форма и идея, но той поставя основата за дебат за същността на идеите, който се развива около две противоположни позиции:
Рационализъм: декартовата представа, че идеите са вродени и по този начин априори. Тази форма на рационализъм предполага интерпретация на понятието идеи и форми като временни, пространствени, но сложни структури, т.е. идеята за „кон“(т.е. с глава, тяло и крака). Той също така съвпада добре с тълкуването на знаещия предмет като създадено същество (ens Creatu). Бог създаде човека по свой образ и по този начин предостави на човешкия ум адекватен набор от идеи, за да разбере неговото творение. В тази теория растежът на знанието е априори ограничен. Създаването на нови идеи ex nihilo е невъзможно. Това мнение е трудно да се примири с концепцията на експерименталната наука.
Емпиризъм: Концепциите се изграждат в ума астериори въз основа на идеи, свързани със сетивните впечатления. Тази доктрина предполага ново тълкуване на понятието идея като:
какъвто и да е обект на разбиране, когато човек мисли … каквото се разбира под фантазъм, понятие, вид или каквото и да е, за което умът може да се използва, когато мисли. (Лок 1689, bk I, ch 1, параграф 8)
Тук идеите са замислени като елементарни градивни елементи на човешкото познание и размисъл. Това добре се вписва в изискванията на експерименталната наука. Недостатъкът е, че умът никога не може да формулира аподейктични истини за причината и последиците и същността на наблюдаваните същества, включително за собствената си идентичност. Човешкото познание става по същество вероятностно (Лок 1689: bk I, гл. 4, ал. 25).
Преосмислянето на Лок на понятието идея като „структурен заместител“за всяко образувание, присъстващо в ума, е съществена стъпка в появата на съвременната концепция за информация. Тъй като тези идеи не участват в оправданието на аподектичното знание, необходимостта от подчертаване на темпоралния и аспиративния характер на идеите изчезва. Изграждането на концепции въз основа на колекция от елементарни идеи, базирани в сензорния опит, отваря вратата към реконструкция на знанието като обширно свойство на агент: повече идеи предполагат по-вероятни знания.
През втората половина на XVII век формалната теория на вероятността е разработена от изследователи като Паскал (1623–1662), Фермат (1601 или 1606–1665) и Кристиан Хюйгенс (1629–1695). Трудът De ratiociniis in ludo aleae на Huygens е преведен на английски от Джон Арбутнот (1692). За тези автори светът е по същество механичен и по този начин детерминиран, вероятността е качество на човешкото познание, причинено от неговото несъвършенство:
Невъзможно е Die, с такава определяща сила и посока, да не падне от такава страна на определяне, само че не знам силата и посоката, които я карат да пада от такава страна, и затова аз наречете го Шанс, който не е нищо друго освен желанието на изкуството;… (Джон Арбутнот от законите на шанса (1692), предговор)
Този текст вероятно е повлиял на Хюм, който е първият, който се жени за формална теория на вероятностите с теория на познанието:
Макар че в света няма такова нещо като Шанс; нашето незнание за истинската причина за всяко събитие има същото влияние върху разбирането и ражда подобен вид убеждения или мнение. (…) Ако багрилото беше маркирано с една фигура или брой петна от четири страни и с друга фигура или брой петна от двете останали страни, би било по-вероятно първата да се появи нагоре от втората; въпреки че, ако имаше хиляди страни, маркирани по същия начин, и само едната страна различна, вероятността щеше да бъде много по-голяма, а нашето убеждение или очакване за събитието по-стабилно и сигурно. Този процес на мисълта или разсъждението може да изглежда тривиален и очевиден; но за онези, които го смятат за по-тясно, това може би ще си позволи материя за любопитни спекулации. (Hume 1748: Раздел VI, „По вероятност“1)
Тук знанията за бъдещето като степен на вяра се измерват по отношение на вероятността, което от своя страна се обяснява по отношение на броя конфигурации, които детерминираната система в света може да има. Основните градивни елементи на съвременната теория на информацията са налице. С тази нова концепция на знанието емпириците поставят основата за по-късното развитие на термодинамиката като намаляване на вторичното качество на топлината до първичните качества на телата.
В същото време терминът „информация“изглежда е загубил голяма част от техническото си значение в съчиненията на емпириците, така че това ново развитие не е обозначено като нова интерпретация на понятието „информация“. Лок понякога използва израза, че сетивата ни „ни информират“за света и понякога използва думата „информация“.
За каква информация, какви знания носи това предложение, т.е. „Оловото е метал“на човек, който познава сложната идея, за която се обозначава оловото? (Лок 1689: bk IV, ch 8, параграф 4)
Изглежда, че Хюм използва информацията по същия случаен начин, когато наблюдава:
Два обекта, макар и перфектно да приличат един на друг и дори да се появяват на едно и също място по различно време, могат да бъдат числено различни: И тъй като силата, с която един обект произвежда друг, никога не може да бъде открита само от тяхната идея, това е очевидна причина и ефект са отношенията, за които получаваме информация от опит, а не от някакви абстрактни разсъждения или размисли. (Hume 1739: Част III, раздел 1)
Методологията на емпириците не е без проблеми. Най-големият проблем е, че всички знания стават вероятни и последващи. Имануел Кант (1724–1804) е един от първите, който посочи, че човешкият ум има разбиране на мета-концепциите за пространство, време и причинно-следствена връзка, които сами по себе си никога не могат да бъдат разбрани като резултат от обикновена комбинация от „идеи“, Нещо повече, тези интуиции ни позволяват да формулираме научно прозрение със сигурност: т.е. фактът, че сборът на ъглите на триъгълник в евклидово пространство е 180 градуса. Този въпрос не може да бъде обяснен в емпиричната рамка. Ако знанието е създадено чрез комбинация от идеи, тогава трябва да съществува априорен синтез на идеи в човешкия ум. Според Кант това означава, че човешкият ум може да оцени собствената си способност да формулира научни преценки. В своя Kritik der reinen Vernunft (1781) Кант разработва трансцендентална философия като изследване на необходимите условия на човешкото познание. Въпреки че трансценденталната програма на Кант не допринася пряко за развитието на концепцията за информация, той влияе върху изследването на основите на математиката и знанията, приложими за тази тема през XIX и XX век: например, работата на Фреге, Хусерл, Ръсел, Brouwer, L. Wittgenstein, Gödel, Carnap, Popper and Quine.той оказва влияние върху изследванията върху основите на математиката и знанията, приложими за тази тема през XIX и XX век: напр. работата на Фреге, Хусерл, Ръсел, Брауер, Л. Витгенщайн, Гьодел, Карнап, Попър и Куин.той оказва влияние върху изследванията върху основите на математиката и знанията, приложими за тази тема през XIX и XX век: напр. работата на Фреге, Хусерл, Ръсел, Брауер, Л. Витгенщайн, Гьодел, Карнап, Попър и Куин.
2.4 Историческо развитие на значението на термина „информация“
Историята на термина „информация“е тясно свързана с изучаването на централните проблеми в епистемологията и онтологията в западната философия. След старт като технически термин в класическите и средновековни текстове, терминът „информация“почти изчезна от философския дискурс в съвременната философия, но придоби популярност в разговорната реч. Постепенно терминът придобива статут на абстрактно съществително име, което е ортогонално на класическото, ориентирано към процеса значение. Под тази форма той е бил подбран от няколко изследователи (Fisher 1925; Shannon 1948) през ХХ век, които въвеждат формални методи за измерване на „информация“. Това от своя страна води до възраждане на философския интерес към понятието информация. Тази сложна история изглежда е една от основните причини за трудностите при формулирането на дефиниция на единна концепция за информация, която удовлетворява всички наши интуиции. Поне три различни значения на думата „информация“са исторически значими:
„Информация“като процес на информиране
Това е най-старото значение, което се намира в съчиненията на автори като Цицерон (106–43 г. пр.н.е.) и Августин (354–430 г. пр.н.е.) и той се губи в съвременния дискурс, въпреки че връзката на информацията с процесите (т.е. изчисляването, протичането) или изпращане на съобщение) все още съществува. В класическата философия би могло да се каже, че когато разпозная кон като такъв, тогава в съзнанието ми е засадена „формата“на кон. Този процес е моята „информация“за естеството на коня. Също така актът на преподаване може да бъде посочен като „информация“на ученик. В същия смисъл може да се каже, че скулптор създава скулптура, като „информира“парче мрамор. Задачата на скулптора е „информацията“на статуята (Capurro & Hjørland 2003). Този ориентиран към процеса смисъл оцеля доста дълго в западноевропейския дискурс:дори през осемнадесети век Робинзон Крузо би могъл да определи образованието на своя слуга в петък като своя „информация” (Дефо 1719: 261). Използва се в този смисъл и от Бъркли: „Обичам информация по всички теми, които ми се случват, и особено по тези, които са най-важни“(Алцифрон Диалог 1, Раздел 5, Параграф 6/10, вж. Беркли 1732).
„Информация“като състояние на агент
т.е. като резултат от процеса на информиране. Ако човек учи ученик на теоремата за Питагор, след като този процес приключи, може да се каже, че ученикът „има информация за теоремата на Питагор“. В този смисъл терминът „информация“е резултат от същата подозрителна форма на обосноваване на глагол (informare (gt) informatio), както и много други технически термини във философията (вещество, съзнание, субект, обект). Този вид формиране на термини е известен с концептуалните трудности, които поражда. Може ли да се изведе фактът, че „имам” съзнание от факта, че съм в съзнание? Може ли да се извлече фактът, че имам „информация“от факта, че съм бил информиран? Преобразуването в този съвременен обоснован смисъл изглежда е постепенно и изглежда е било общо в Западна Европа поне от средата на XV век. Във Възраждането ученият може да бъде посочен като „човек на информацията“, почти по същия начин, както сега можем да кажем, че някой е получил образование (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). В „Ема“от Джейн Остин може да се чете: „Mr. Предполагам, че Мартин не е човек на информацията извън границите на собствения си бизнес. Той не чете”(Austen 1815: 21).почти по същия начин, както сега бихме могли да кажем, че някой е получил образование (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). В „Ема“от Джейн Остин може да се чете: „Mr. Предполагам, че Мартин не е човек на информацията извън границите на собствения си бизнес. Той не чете”(Austen 1815: 21).почти по същия начин, както сега бихме могли да кажем, че някой е получил образование (Adriaans & van Benthem 2008b; Capurro & Hjørland 2003). В „Ема“от Джейн Остин може да се чете: „Mr. Предполагам, че Мартин не е човек на информацията извън границите на собствения си бизнес. Той не чете”(Austen 1815: 21).
„Информация“като желание да се информира
т.е. като способност на обект да информира агент. Когато актът да ме научи на теоремата на Питагор ме оставя с информация за тази теорема, е естествено да се приеме, че текст, в който е обяснена теоремата, всъщност „съдържа“тази информация. Текстът има капацитета да ме информира, когато го прочета. В същия смисъл, когато получих информация от учител, съм в състояние да предам тази информация на друг ученик. Така информацията се превръща в нещо, което може да се съхранява и измерва. Тази последна концепция за информация като абстрактно масово съществително име получи широко приемане в съвременното общество и намери своята окончателна форма през XIX век, което позволява на Шерлок Хоумс да направи следното наблюдение:„… Приятел Лестрейд държеше в ръцете си информация, стойността на която той самият не знаеше“(„Приключението на благородния ерген“, Конан Дойл 1892). Асоциацията с техническите философски понятия като „форма“и „информиране“е изчезнала от общото съзнание, въпреки че връзката между информация и процеси като съхранение, събиране, изчисляване и преподаване все още съществува.
3. Строителни блокове на съвременните теории на информацията
Отзад много понятия, свързани с оптималните кодови системи, идеалните езици и връзката между изчислителния и обработващия език са повтарящи се теми във философското размисъл от XVII век.
3.1 Езици
Едно от най-сложните предложения за универсален „философски“език е направено от епископ Джон Уилкинс: „Есе към истински характер и философски език“(1668). Проектът на Уилкинс се състоеше от сложна система от символи, които уж в действителност бяха свързани с недвусмислени понятия. Предложения като тези направиха философите чувствителни към дълбоките връзки между езика и мисълта. Емпиричната методика даде възможност да се разбере развитието на езика като система от конвенционални знаци по отношение на асоциациите между идеите в човешкия ум. Проблемът, който понастоящем е известен като проблем със заземяването на символи (как произволните знаци придобиват своето вътрешно субективно значение), беше един от най-обсъжданите въпроси през XVIII в. В контекста на проблема за произхода на езиците. Разнообразни мислители като Вико, Кондилак, Русо, Дидро, Хердер и Хаман дадоха своя принос. Централният въпрос беше дали езикът е даден априори (от Бог) или дали той е конструиран и следователно изобретение на самия човек. Типичен беше конкурсът, издаден от Кралската пруска академия на науките през 1769 г.:
Предполагате ли, че оставяте домашни любимци и любители на факултетите по естествен начин, по-нататък, за да знаете ли, какво е това? Et par quels moyens parviendront-ils d'eux-mêmes à cette изобретение?
Ако приемем, че мъжете изоставени в естествените си способности, способни ли са да измислят език и с какви средства ще стигнат до това изобретение? [1]
Спорът се разрази в продължение на повече от век без никакво заключение и през 1866 г. Лингвистичното общество в Париж (Société de Linguistique de Paris) изгони изданието от арената си. [2]
Философски по-уместно е работата на Лайбниц (1646–1716) върху така наречената характеристика универсалис: понятието за универсално логическо смятане, което би било идеалното средство за научни разсъждения. Централно предположение във философията на Лайбниц е, че такъв съвършен език на науката по принцип е възможен поради съвършената природа на света като създаването на Бог (съотношение essendi = ration cognoscendi; произходът на битието е произходът на познанието). Този принцип е отхвърлен от Уолф (1679–1754), който предлага по-евристично ориентирана характеристика комбинаториа (Van Peursen 1987). Тези идеи трябваше да изчакат мислители като Бул (1854, Изследване на законите на мисълта), Фреге (1879, Begriffsschrift),Пърс (който през 1886 г. вече предполага, че електрическите вериги могат да бъдат използвани за обработка на логически операции) и Уайтхед и Ръсел (1910-1913 г., Principia Mathematica), за да намерят по-ползотворно лечение.
3.2 Оптимални кодове
Фактът, че честотите на буквите варират в даден език, е бил известен още от изобретението на книгопечатането. На принтерите бяха необходими много повече „e” s и „t” s, отколкото „x” s или „q” s, за да въведат английски текст. Тези знания се използват широко за декодиране на шифри от XVII век (Kahn 1967; Singh 1999). През 1844 г. асистентът на Самюъл Морс, Алфред Вейл, определя честотата на писмата, използвани в местния вестник в Мористоун, Ню Джърси, и ги използва за оптимизиране на кода на Морз. По този начин ядрото на теорията на оптималните кодове е вече установено много преди Шанън да разработи своята математическа основа (Shannon 1948; Shannon & Weaver 1949). Исторически важни, но философски по-малко уместни са усилията на Чарлз Беббъд да конструира изчислителни машини (Difference Engine през 1821 г.,и Аналитичният двигател 1834–1871) и опитът на Ада Ловелас (1815–1852) да проектира това, което се счита за първият език за програмиране на Аналитичния двигател.
3.3 Числа
Най-простият начин за представяне на числата е чрез единна система. Тук дължината на представяне на число е равна на размера на самото число, т.е. числото "десет" е представено като "". Класическата римска цифрова система е подобрение, тъй като съдържа различни символи за различни порядки (един = I, десет = X, сто = С, хиляди = М). Тази система има огромни недостатъци, тъй като по принцип човек се нуждае от безкрайно количество символи, за да кодира естествените числа и поради това едни и същи математически операции (добавяне, умножение и т.н.) приемат различни форми в различни порядки. Около 500 CE е нулевото число е измислено в Индия. Използвайки нула като заместител, можем да кодираме безкрайност от числа с ограничен набор от символи (един = I, десет = 10, сто = 100, хиляди = 1000 и т.н.). От съвременна гледна точка е възможно безкраен брой системи за позициониране, стига да имаме 0 като заместител и ограничен брой други символи. Нашата нормална десетична бройна система има десет цифри „0, 1, 2, 3, 4, 5, 6, 7, 8, 9“и представлява числото двеста и петдесет и пет като „255“. В двоична система от числа имаме само символите „0” и „1”. Тук двеста и петдесет и пет е представено като „11111111”. В шестнадесетична система с 16 символа (0, 1, 2, 3, 4, 5, 6, 7, 8, 9, a, b, c, d, e, f) същото число може да бъде написано като "ff", Обърнете внимание, че дължината на тези представления се различава значително. Използвайки това представяне, математическите операции могат да бъдат стандартизирани, независимо от реда на величината на числата, с които имаме работа, т.е. възможността за равномерно алгоритмично третиране на математическите функции (добавяне,изваждане, умножение и деление и т.н.) се свързва с такава система за позиции.
Концепцията за система от позиционни числа е донесена в Европа от персийския математик ал-Хваризми (ок. 780 - около 850 г. н.е.). Основната му работа върху числата (ок. 820 г. пр. Н. Е.) Е преведена на латински като Liber Algebrae et Almucabola през XII век, което ни дава наред с другото и термина „алгебра“. Думата ни „алгоритъм“произлиза от Алгоритми, латинската форма на неговото име. Системите с позиционни номера опростяват търговските и научните изчисления.
През 1544 г. Майкъл Стифел въвежда концепцията за показателя на число в интеграцията на Arithmetica (1544). Така 8 може да се запише като (2 ^ 3), а 25 като (5 ^ 2). Представата за експонент веднага подсказва понятието логаритъм като негова обратна функция: (log_b b ^ a) = a). Stifel сравнява аритметичната последователност:
[-3, -2, -1, 0, 1, 2, 3)
в който терминът 1 има разлика 1 с геометричната последователност:
) frac {1} {8}, / frac {1} {4}, / frac {1} {2}, 1, 2, 4, 8)
в който термините имат съотношение 2. Нотацията на експонента му позволи да пренапише стойностите на втората таблица като:
[2 ^ {- 3}, 2 ^ {- 2}, 2 ^ {- 1}, 2 ^ 0, 2 ^ 1, 2 ^ 2, 2 ^ 3)
която комбинира двете таблици. Това може би беше първата логаритмична таблица. По-окончателната и практическа теория за логаритмите е разработена от Джон Напиер (1550–1617) в основната му работа (Napier 1614). Той въведе термина логаритъм (лого + аритметика: съотношение на числата). Както става ясно от съвпадението между аритметичните и геометричните прогресии, логаритмите намаляват продуктите до суми:
) log_b (xy) = / log_b (x) + / log_b (y))
Те също така намаляват разделенията до разлики:
) log_b (x / y) = / log_b (x) - / log_b (y))
и правомощия за продукти:
) log_b (x ^ p) = p / log_b (x))
След публикуването на логаритмичните таблици от Briggs (1624) тази нова техника за улесняване на сложни изчисления бързо набира популярност.
3.4 Физика
Галилео (1623 г.) вече предполагаше, че анализът на явления като топлина и налягане може да бъде сведен до изучаване на движенията на елементарни частици. В рамките на емпиричната методология това би могло да се схване като въпрос как сетивният опит на вторичното качество на топлината на даден предмет или газ може да се сведе до движения на частици. Бернули (Hydrodynamica публикувана през 1738 г.) е първият, който разработва кинетична теория за газовете, в която макроскопски наблюдавани явления се описват по отношение на микростати на системи от частици, които се подчиняват на законите на Нютоновата механика, но беше доста интелектуално усилие да се измисли с адекватно математическо лечение. Клаус (1850 г.) направи убедителна стъпка, когато въведе представата за средния свободен път на частица между два сблъсъка. Това отвори пътя за статистическо третиране от Максуел, който формулира разпределението му през 1857 г., което е първият статистически закон във физиката. Окончателната формула, която свързва всички представи заедно (и това е гравирано върху надгробния му камък, макар че действителната формула се дължи на Планк), е разработена от Болтцман:
[S = k / log W)
Той описва ентропията S на система по отношение на логаритъма на броя на възможните микростати W, съответстващ на наблюдаваните макроскопични състояния на системата, където k е добре известната константа на Болцман. Във цялата си простота стойността на тази формула за съвременната наука трудно може да бъде надценена. Изразът „(log W)“от гледна точка на теорията на информацията може да бъде интерпретиран по различни начини:
- Като сумата на ентропията в системата.
- Тъй като дължината на броя, необходим за преброяване на всички възможни микростати, съответства на макроскопските наблюдения.
- Като дължина на оптимален индекс, ние трябва да идентифицираме специфичния непознат ток на микростатата на системата, т.е. това е мярка за нашата „липса на информация“.
- Като мярка за вероятността за всяко типично специфично микростатиране на системата, съответстващо на макроскопските наблюдения.
По този начин той свързва адитивния характер на логаритъм с обширните качества на ентропията, вероятността, типичността и информацията и е основна стъпка в използването на математиката за анализ на природата. По-късно Гибс (1906) усъвършенства формулата:
[S = - / sum_i p_i / ln p_i,)
където (p_i) е вероятността системата да се намира в микродържава (i ^ { textrm {th}}). Тази формула е приета от Шанън (1948; Shannon & Weaver 1949), за да характеризира комуникационната ентропия на система от съобщения. Въпреки че има тясна връзка между математическото третиране на ентропията и информацията, точното тълкуване на този факт е източник на спорове оттогава (Harremoës & Topsøe 2008; Bais & Farmer 2008).
4. Развития във философията на информацията
Съвременните теории на информацията се появяват в средата на ХХ век в специфичен интелектуален климат, в който разстоянието между науките и части от академичната философия е доста голямо. Някои философи проявяват специфично антинаучно отношение: Хайдегер, „Die Wissenschaft denkt nicht.”От друга страна, философите от Винер Крейс откровено дискредитираха традиционната философия като справяне с илюзорни проблеми (Карнап 1928). Изследователската програма на логическия позитивизъм беше строга реконструкция на философията, основана на комбинация от емпиризъм и скорошния напредък в логиката. Може би поради този интелектуален климат ранните важни развития в теорията на информацията се развиват изолирано от основните философски размисли. Забележителност е работата на Дрецке в началото на осемдесетте (Dretske 1981). След края на века интересът към Философията на информацията нараства значително, до голяма степен под влияние на работата на Лучано Флориди върху семантичната информация. Също така бързото теоретично развитие на квантовите изчисления и свързаното с него понятие за квантова информация оказват отражение върху философската рефлексия.
4.1 Popper: Информация като степен на фалшифицируемост
Изследователската програма за логически позитивизъм на винерския край в първата половина на ХХ век съживи по-стария проект на емпиризма. Нейната амбиция беше да реконструира научните знания въз основа на преки наблюдения и логическа връзка между твърденията за тези наблюдения. Старата критика на Кант относно емпиризма е съживена от Куин (1951). В рамките на логическия позитивизъм индукцията е невалидна и причината никога не може да бъде установена обективно. В своя Logik der Forschung (1934) Попър формулира добре познатия си критерий за разграничаване и той изрично позиционира това като решение на проблема за индукция на Юм (Popper 1934 [1977: 42]). Научните теории, формулирани като общи закони, никога не могат да бъдат потвърдени окончателно, но те могат да бъдат фалшифицирани само с едно наблюдение. Това означава, че една теория е „по-“научна, ако е по-богата и предоставя повече възможности за фалшифициране:
По този начин може да се каже, че количеството на емпирична информация, предавана от една теория, или нейното емпирично съдържание, нараства със степента на фалшифицируемост. (Popper 1934 [1977: 113], акцент в оригинал)
Този цитат, в контекста на изследователската програма на Попър, показва, че амбицията да се измери количеството на емпиричната информация в научната теория, замислена като набор от логически твърдения, вече беше призната като философски проблем повече от десетилетие преди Шанън да формулира теорията си за информация, Попър е наясно с факта, че емпиричното съдържание на една теория е свързано с нейната фалшифицируемост и че това от своя страна има връзка с вероятността на твърденията в теорията. Теориите с по-емпирична информация са по-малко вероятни. Попър разграничава логическата вероятност от числовата вероятност („която е използвана в теорията на игрите и случайността и в статистиката“; Popper 1934 [1977: 119]). В пасаж, който е програмен за по-късното развитие на концепцията за информация, той дефинира понятието логическа вероятност:
Логическата вероятност на изявление се допълва с неговата фалшифицируемост: тя нараства с намаляваща степен на фалшифицируемост. Логическата вероятност 1 съответства на степен 0 на фалшифицируемост и обратно. (Popper 1934 [1977: 119], акцент в оригинал)
Възможно е да се интерпретира числовата вероятност като приложение към последствие (извлечено от отношението на логическата вероятност), за което може да се определи система за измерване въз основа на честотни оценки. (Popper 1934 [1977: 119], акцент в оригинал)
Попър никога не е успял да формулира добра формална теория за измерване на това количество информация, въпреки че в по-късни писания той предполага, че теорията на информацията на Шанън може да бъде полезна (Popper 1934 [1977], 404 [Приложение IX, от 1954 г.]). По-късно тези въпроси са разработени във философията на науката. Теорията на теорията на индукцията на конформацията и начинът, по който доказателствата „подкрепят“определена теория (Huber 2007 [OIR]). Въпреки че работата на Карнап мотивира важни развития както във философията на науката, така и във философията на информацията, връзката между двете дисциплини изглежда е загубена. В Kuipers (2007a) не се споменава теорията на информацията или някоя от по-основополагащите работи във философията на информацията, но двете дисциплини със сигурност имат припокриващи се области. (Вижте, например,дискусията за т. нар. парадокс на Black Ravens от Kuipers (2007b) и Rathmanner & Hutter (2011).
4.2 Шанън: Информация, дефинирана в вероятност
В две забележителни документи Shannon (1948; Shannon & Weaver 1949) характеризира комуникационната ентропия на система от съобщения A:
[H (P) = - / sum_ {i / в A} p_i / log_2 p_i)
Тук (p_i) е вероятността от съобщение i в A. Това е точно формулата за ентропията на Гиб във физиката. Използването на логаритми на base-2 гарантира, че дължината на кода се измерва в битове (двоични цифри). Лесно се вижда, че ентропията на комуникацията на системата е максимална, когато всички съобщения имат еднаква вероятност и по този начин са типични.
Количеството информация I в отделно съобщение x се дава от:
[I (x) = - / log p_x)
Тази формула, която може да се интерпретира като обратната на ентропията на Болтман, обхваща редица наши основни интуиции за информация:
- Съобщение x има известна вероятност (p_x) между 0 и 1 на възникване.
- Ако (p_x = 1), тогава (I (x) = 0). Ако сме сигурни, че ще получим съобщение, то буквално не съдържа „новини“на адрес al. Колкото по-малка е вероятността на съобщението, толкова повече информация съдържа. Съобщение от рода на „Слънцето ще изгрее утре“изглежда съдържа по-малко информация, отколкото съобщението „Исус беше Цезар“, точно защото второто твърдение е много по-малко вероятно да бъде защитен от някой (въпреки че може да бъде намерен в мрежата).
- Ако две съобщения x и y не са свързани, тогава (I (x / textrm {и} y) = I (x) + I (y)). Информацията е обширна. Количеството информация в две комбинирани съобщения е равно на сумата от количеството информация в отделните съобщения.
Информацията като отрицателен лог на вероятността е единствената математическа функция, която точно отговаря на тези ограничения (Cover & Thomas 2006). Шанън предлага теоретична рамка, в която бинарните низове могат да бъдат интерпретирани като думи на (програмиращ) език, съдържащ определено количество информация (вж. 3.1 Езици). Изразът (- / log p_x) точно дава дължината на оптимален код за съобщение x и като такъв формализира старата интуиция, че кодовете са по-ефективни, когато честите букви получават по-кратки представи (вж. 3.2 Оптимални кодове). Логаритмите като редукция на умножението до добавяне (виж 3.3 числа) са естествено представяне на обширни свойства на системите и вече като такива са били използвани от физиците през XIX век (вж. 3.4 Физика).
Един аспект от информация, който дефиницията на Шанън изрично не обхваща, е действителното съдържание на съобщенията, интерпретирани като предложения. Така че изявленията „Исус беше Цезар“и „Луната е направена от зелено сирене“могат да носят еднакво количество информация, докато значението им е напълно различно. Голяма част от усилията във философията на информацията са насочени към формулирането на по-семантични теории на информацията (Bar-Hillel & Carnap 1953; Floridi 2002, 2003, 2011). Въпреки че първоначално предложенията на Шанън бяха почти напълно игнорирани от философи, през изминалата десетилетие стана очевидно, че тяхното влияние върху философските въпроси е голямо. Дрецке (1981) беше един от първите, които анализираха философските последици от теорията на Шанън,но точната връзка между различните системи на логика и теория на информацията все още не е ясна (вж. 6.6 Логическа и семантична информация).
4.3 Соломонов, Колмогоров, Чайтин: Информацията като продължителност на програмата
Този проблем за свързване на набор от изявления с набор от наблюдения и определяне на съответната вероятност е взет от Carnap (1945, 1950). Той разграничи две форми на вероятност: Вероятност (_ 1) или „степен на потвърждение“(P_1 (h; e)) е логично съотношение между две изречения, хипотеза h и изречение e, отчитащи серия от наблюдения. Изявленията от този тип са или аналитични, или противоречиви. Втората форма, вероятност (_ 2) или „относителна честота“, е статистическото понятие. По думите на неговия ученик Соломонов (1997):
Моделът на вероятността на Карнап започна с дълга последователност от символи, която беше описание на цялата вселена. Чрез собствения си официален лингвистичен анализ той успя да зададе априорни вероятности на всеки възможен низ от символи, които биха могли да представляват вселената.
Методът за присвояване на вероятности, използван от Carnap, не е универсален и зависеше силно от използваните кодови системи. Общата теория за индукция, използваща правилото на Байес, може да бъде разработена само когато можем да зададем универсална вероятност на „всеки възможен низ“от символи. В статия от 1960 г. Solomonoff (1960, 1964a, b) е първият, който очертава очертания на решение на този проблем. Той формулира понятието за това, което сега се нарича универсално разпределение на вероятността: счита множеството от всички възможни крайни низове за програми за универсална машина на Тюринг U и определя вероятността на низ x от символи по отношение на дължината на най-късата програма p, който извежда x на U.
Тази представа за теорията на алгоритмичната информация е изобретена независимо по-късно отделно от Колмогоров (1965) и Чайтин (1969). Левин (1974) разработва математически израз на универсалната априорна вероятност като универсална (тоест максимална) по-ниска полуизчислима семимера M и показва, че отрицателният логаритъм на (M (x)) съвпада с комплексността на Колмогоров от x до адитивен логаритмичен термин. Действителното определение на мярката за сложност е:
Сложност на Колмогоров Алгоритмичната сложност на низ x е дължината (cal {l} (p)) на най-малката програма p, която произвежда x, когато работи на универсална машина на Turing U, отбелязана като (U (p) = х):
[K (x): = / min_p {l (p), U (p) = x })
Алгоритмичната информационна теория (известна още като теория на сложността на Колмогоров) се е превърнала в богато поле за изследвания с широк спектър от области на приложение, много от които са философски значими (Li & Vitányi 1997):
- Той ни предоставя обща теория за индукция. Използването на правилото на Байес позволява модерно преформулиране на бръснача на Окъм по отношение на минималната дължина на описанието (Rissanen 1978, 1989; Barron, Rissanen, & Yu 1998; Grünwald 2007) и минималната дължина на съобщението (Wallace 2005). Обърнете внимание, че Домингос (1998) спори срещу общата валидност на тези принципи.
- Тя ни позволява да формулираме вероятности и информационно съдържание за отделни обекти. Дори индивидуални естествени числа.
- Той поставя основата за теория на обучението като компресия на данни (Adriaans 2007).
- Той дава дефиниция на случайността на низ по отношение на некомпресивност. Това само по себе си доведе до съвсем нова област на изследване (Niess 2009; Downey & Hirschfeld 2010).
- Тя ни позволява да формулираме една априорна цел на предсказуемата стойност на дадена теория по отношение на нейния дефицит на случайност: т.е. най-добрата теория е най-кратката теория, която кара данните да изглеждат случайни при условие на теорията. (Vereshchagin & Vitányi 2004).
Има и странични страни:
- Алгоритмичната сложност е несъизмерима, въпреки че в много практически случаи може да бъде апроксимирана и комерсиалните програми за компресиране в някои случаи се доближават до теоретичния оптимум (Cilibrasi & Vitányi 2005).
- Алгоритмичната сложност е асимптотична мярка (т.е. дава стойност, която е правилна до константа). В някои случаи стойността на тази константа е непосилна за използване в практически цели.
-
Въпреки че най-кратката теория винаги е най-добрата по отношение на дефицит на случайност, постепенно компресиране на alt = "sep man icon" /> Как да цитирам този запис.
сеп човек икона Вижте PDF версията на този запис в Дружеството на приятелите на SEP.
inpho икона Разгледайте тази тема за вписване в интернет философския онтологичен проект (InPhO).
Фил хартия икона Подобрена библиография за този запис в PhilPapers, с връзки към неговата база данни.
Други интернет ресурси
- Aaronson, Scott, 2006, Причини да вярвам, публикация в блога, оптимизирана от Shtetl, 4 септември 2006 г.
- Adriaans, Pieter W., 2016, „Обща теория на информацията и изчисленията“, непубликуван ръкопис, ноември 2016, arXiv: 1611.07829.
- Bekenstein, Jacob D., 1994, „Разбираме ли ентропията на черната дупка?“, Пленарна беседа на седма среща на Марсел Гросман в университета в Станфорд., ArXiv: gr-qc / 9409015.
- Чърчил, Алекс, 2012, Magic: The Gathering is Turing Complete.
- Кук, Стивън, 2000, Проблемът P срещу NP, Глиматичен математически институт; Проблемът с наградата на хилядолетието.
- Хубер, Франц, 2007, Потвърждение и индукция, вписване в Интернет енциклопедия на философията.
- Sajjad, H. Rizvi, 2006, “Авицена / Ибн Сина”, запис в Интернет енциклопедия на философията.
- Goodman, L. и Weisstein, EW, 2019, „Хипотезата на Риман“, от MathWorld - уеб ресурс на Wolfram.
- Изчислимост - какво би означавало да опровергае тезата на Църква-Тюринг ?, дискусия на тема Теоретична компютърна наука StackExchange.
- Теорема на премиерните числа, Енциклопедия Британика, 20 декември 2010 г.
- Генератор на хардуерни произволни числа, запис в Wikipedia, ноември 2018 г.
Препоръчано:
Логика и информация

Навигация за влизане Съдържание за участие библиография Академични инструменти Friends PDF Preview Информация за автора и цитирането Върнете се в началото Логика и информация Публикувана за първи път на 3 февруари 2014 г.
Квантово заплитане и информация

Навигация за влизане Съдържание за участие библиография Академични инструменти Friends PDF Preview Информация за автора и цитирането Върнете се в началото Квантово заплитане и информация Публикувана за първи път на 13 август 2001 г.
Биологична информация

Това е файл в архивите на Философията на Станфордската енциклопедия. Биологична информация За първи път публикуван на 4 октомври 2007 г. През последните шестдесет години концепцията за информация придоби поразително важна роля в много части на биологията.