В. И., Чистяков А. А. Нейросемантическая форма представления информации icon

В. И., Чистяков А. А. Нейросемантическая форма представления информации



НазваниеВ. И., Чистяков А. А. Нейросемантическая форма представления информации
Дата конвертации10.08.2012
Размер209.99 Kb.
ТипАнализ


Бодякин В.И., Чистяков А.А.


НЕЙРОСЕМАНТИЧЕСКАЯ ФОРМА

ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ

(На правах рукописи)


Институт проблем управления им. В.А.Трапезникова РАН

E-mail body@ipu.ru , http://www.informograd.narod.ru , служ.тел.:334-92-39


Обсуждаются метод и свойства взаимно однозначного структурного преобразования текстового потока данных в нейросемантическую форму представления информации, предназначенную для проектируемых систем искусственного разума и искусственного интеллекта.

Анализируется свойства структурного сжатия нейросемантической формы и их соотнесение с известными методами сжатия. Приводятся экспериментальные данные.


Москва 2004г.

Введение. Проблема представления информации и знаний одна из актуальнейших в направлении разработки систем искусственного интеллекта (ИИ). Форма представления информации этот тот фундамент, на котором строится все здание системы, и которым определяются основные теоретические и конструктивные особенности разрабатываемой системы. Соответственно, удачно выбранная форма представления информации делают систему не только простой и эффективной, но и легко развиваемой, и наоборот, неудачно выбранная форма представления информации – это, в конечном счете, всегда неработающая информационная система. Т.е. выбор формы представления информации для информационной системы это первый определяющий шаг на пути проектирования системы ИИ.


^ Текстовая форма. Наиболее распространенной и эффективной формой представления информации для коммуникации информационных систем является текстовая форма (ТФ) представления информации. ТФ универсальна. В нее можно без потерь и с любой, наперед заданной степенью точности (соответствия), преобразовывать произвольные физические процессы, представляемые в различных информационных формах: графической, акустической, текстовой и т.д., [3]


Рис. 1

Где: а) – исходный физический процесс, б) – дискретизация этого процесса по амплитуде сигнала и времени, в) – символьный вид и г) – текстовая форма.


В дальнейшем, под потоком данных из предметной области (ПО) будем понимать ТФ, как текстовую последовательность символов произвольного алфавита (А), в которой размер алфавита много меньше длины текста (L), т.е., L >> |A|. Естественно, что в реальных потоках данных неизбежно повторение не только отдельных символов, но и их устойчивых сочетаний, характерных для конкретного источника потока данных, особенно это свойственно для естественно языковых текстовых потоков.



^ Алгоритм нейросемантического преобразования информации. Кратко рассмотрим один из алгоритмов формирования нейросемантической структуры (НСС) на произвольном текстовом потоке [ ].

^ Первый шаг. Выбираем максимально возможную длину "слова" в k знаков (например, 2  k  8).

Второй шаг. Если словарь не пуст, то выбираем первое "слово" из словаря ^ S и закрашиваем им ТФ. И так делаем со всеми "словами" из словаря, пытаясь закрасить ТФ.

Если словарь S пуст, то переходим третьему шагу.

Третий шаг. Слева-направо выбираем первые, еще "не закрашенные", не более k знаков (l  k) из ТФ и формируем из них "слово" и заносим его в словарь S.

Далее этим "словом" проходим по всем "незакрашенным" участкам исходного текста и "закрашиваем" в нем все участки, тождественные этому "слову". При этом, в характеристиках слова отмечаем: его длину – l и число закрашиваний им ТФ – w.

И так делаем до тех пор, пока не будет "закрашена" вся ТФ.

^ Четвертый шаг. Вместо "закрашенных" последовательностей ставим индексы соответствующих им "слов" из словаря. В результате, исходная ТФ преобразуется в последовательность индексов словаря и сам словарь.

^ Пятый шаг. Вычисляем (обычным способом) суммарный "битовый вес" Рn, полученной последовательности индексов и словаря ("слов" с w  1).

Сравниваем вычисленное значение Рn с его предыдущим Рn-1. Если Рn Рn-1 , то переходим на восьмой шаг (условие 1а и 1б).

Шестой шаг. Вводим параметр (функционал) упорядочивания "слов" в словаре F, допустим как: F = l k * w + (l+w) и сортируем "слова" словаря в порядке убывания величин их F.

Седьмой шаг. Делим словарь на две группы "слов" (в соотношении, примерно, 1:3). Освобождаем словарь от группы слов с меньшим ^ F и переходим на второй шаг алгоритма.

Восьмой шаг. Рассматриваем индексную последовательность как новую ТФ для формирования следующего иерархического словаря S . При этом, длина индексной последовательности сокращается, примерно, в k раз, т.е. L n+1  Ln / k.

Если длина этой последовательности L n+1 > 1, то переходим на первый шаг алгоритма.

^ Девятый шаг. Stop. НСС построена.

В результате исходная текстовая форма преобразуется в иерархическую структуру словарей (см. рис. 3), т.е:


ТФ  S1, S2, … Sn.


Условие формирования НСС. Существует несколько алгоритмов построения НСС [ ], но основная особенность НСС заключается в том, что минимизируя физическую ресурсоемкость (RНСС) НСС,


RНСС = Р1 +Р2 + Р3 + + Рn-1 + Рn (бит)

1/P(компрессия) = --------------------------------------------------------- 0, (1а)

при t   RТФ = объем ТФ в битах


или RНСС / TФ 0 (1б)

при t  


мы автоматически в НСС получаем причинно-следственную структуру процессов предметной области (ПО), а т.к., каждый процесс в ПО имеет имя, то соответственно, в НСС получаем иерархическую семантическую структуру ПО.

Структура словарей S1, S2, …Sn, в которой выполняется (1а и 1б), будем называть нейросемантической структурой (НСС). "Нейро", т.к. каждое "слово" словарей НСС физически отображается нейроподобным N элементом. Т.е. взаимнооднозначное соответствие:


N элемент НСС  иерархическое "слово-процесс" ПО.


Автоструктуризация. НСС – это пример 1-го формального преобразования количественной (естественной) текстовой формы представления информации в качественную форму, в которой из континуальной (практически непрерывной, неструктурированной) текстовой формы, образуется иерархическое множество образов данной ПО в виде ориентированного многодольного графа, отображающего причинно-следственные связи образов (объектов-процессов) ПО. Для инженерной практики НСС – это готовая причинно-следственная структура объектов-процессов ПО при разработке вычислительной системы для конкретных задач. Назовем процесс формирования НСС – автоструктуризацией.

Качество функционирования НСС отображается отношением числа корректных пар (N элемент  "слово-процесс" ПО) на общее число N элементов ИС. Естественно, что в процессе автоматической подстройки ИС под конкретную, априорно неизвестную ПО, на начальном этапе ввода текстового потока, "НСС-качество" не велико (<< 1), а далее, "НСС-качество" полностью зависит от алгоритмов информационной системы. На рис. 2, приведен характерный вид графика: "НСС-качество" – log (tn).




Рис. 2.


^ Свойства НСС. НСС – это фактически готовая структура данных (процессов и объектов) для произвольной ПО для возможной автоматизации их обработки. Понятно, что ее автоматическое формирование открывает широкие горизонты для инженерии ИС.

Рассмотрим пример упрощенного (исключая из описаного алгоритма вычисление функционала и сортировку с минимизацией словарей) формирования НСС на конкретной последовательности:


L = {01100101011011011010001101101001}.


Выберем например k1=2, и разделим исходную последовательность длиной L на подпоследовательности (цепочки) по k1 символов.

Каждую уникальную цепочку по k1 символов занесем в словарь (L1 - 1-й слой НСС), а вместо нее поставим ссылку на эту цепочку символов в словаре.


1-й шаг k1=2


l0 01100101011011011010001101101001 Номера цепочек

в словаре

Последовательность индексов (ссылок) 1 2 3 4

l1 1 2 1 1 1 2 3 1 2 2 4 3 1 2 2 1 + "01"10"11"00" L1


В результате исходная последовательность символов превратится в последовательность ссылок (l1) и словарь (L1), причем число элементов в последовательности ссылок l1 в k1 раз меньше, чем число символов в исходном тексте l0.

Повторим эту процедуру. Разделим последовательность ссылок l1 по k2 (k2=2) ссылок и сформируем новый иерархический словарь, представляющий совокупность словарей L1 и L2.


2-й шаг k2=2


l1 1211123122431221 Номера цепочек в словарях

1 2 3 4 5 6

12 11 31 22 43 21 L2

l2 1 2 1 3 4 5 1 6 + "01"10"11"00" L1


В результате получим последовательность ссылок l2 на словарь L2 и два словаря L1 и L2, причем, число элементов в этой последовательности (l2) в k2 раз меньше, чем число элементов в последовательности l1.

Многократно (а точнее [logk l0], где k - параметр системы) раз применяя эту процедуру, получим рекурсивно-ссылочную НСС вместо исходного текста l0.


3-й шаг k3=2


l2 12134516 Номера цепочек в словарях

1 2 3 4 5 6

12 13 45 16 L3

12 11 31 22 43 21 L2

l3 1 2 3 4 + "01"10"11"00" L1 ...................................................................................................

4-й шаг k4=2

Номера цепочек в словарях

l3 1234 1 2 3 4 5 6

12 34 L4

12 13 45 16 L3

12 11 31 22 43 21 L2

l4 1 2 + "01"10"11"00" L1


5-й шаг k5=2

Имена

l4 12 словарей

12 L5

12 34 L4

12 13 45 16 L3

12 11 31 22 43 21 L2

l5 1 + "01"10"11"00" L1

.....................................................................................................

т.е. исходная последовательность символов полностью переходит в НСС.


Номера Ссылки

словарей 6 1 на предыдущие

(слоев) 5 12 словари

4 12 34 и "алфавит"

3 12 13 45 16

2 12 11 31 22 43 21

1 "01"10"11"00"



1 2 3 4 5 6

Номера элементов в словаре


Полученную НСС можно преобразовать до более привычного вида, добавив новый словарь с "привычными" терминальными элементами "0" и "1" (алфавит - А) и заменив терминальные элементы словаря L1, ссылками на новые терминальные элементы. В результате НСС приобретет следующий вид:

Номера 6 6 Ссылки

словарей 5 5 12 на предыдущие

(слоев) 4 4 12 34 словари

3 3 12 13 45 16 и "алфавит"

2 2 12 11 31 22 43 21

1 1 12 21 22 11

0 А "0" "1"



1 2 3 4 5 6

Номера элементов в словаре


НСС, с терминальным алфавитом А={"0","1"}, построенная на исходном тексте l0 .

Все словари (слои) этой НСС строятся по одному принципу, кроме А (или 1-го) словаря. Этот словарь является "терминальным" и служит для интерфейса между НСС и исходным текстом l0.

НСС и исходный текст l0 являются взаимопереводимыми и эквивалентными с точки зрения содержащейся в них информации, но НСС обладает рядом полезных свойств, которые заслуживают особого рассмотрения.




Рис. 3.


Формально НСС можно представить как ориентированный многодольный иерархически-сетевой граф (см. рис. 3), вершины (узлы) и дуги которого нагружены информационным содержанием элементов, состоящих из текстовых подпоследовательностей. Содержание каждой вершины-элемента структуры состоит из упорядоченной иерархии содержаний элементов, связанных с ним снизу. Каждый элемент такой структуры уникален по содержанию.


^ Алгоритм обратного преобразования НСС в ТФ осуществляется уже за меньшее число операций и идет "сверху-вниз".

На первом шаге Sn преобразуется в "слово" индексов и заносится в стек n. Первый индекс In стека, раскрывает "слово" в словаре Sn-1 , которое заносится в стек n-1. Из него выбирается первый индекс In-1 и т.д. до первого терминального словаря S1, индексы которого являются исходными символами ТФ в алфавите А.

В результате, первого прохождения по НСС "сверху-вниз" в ТФ формируется последовательность соответствующая "слову" словаря ^ S1. После выдачи терминальных символов в ТФ, стек I2 увеличивается на единицу и в ТФ выдается второе "слово" и так до тех пор, пока не освободиться весь стек I2.

После этого стек I3 увеличивается на единицу, формируется новый стек в ^ I2. Первый индекс которого есть следующее "слово" в ТФ. И т.д., пока не освободится In стек.


Критерий достаточности. При достаточности текстового материала всегда достигаются величины "НСС-качество" близкие к 1. При этом, критерием достаточности текстового материла является возможность человека правильно структурировать данный текстовой материал в непривычной, но взаимнооднозначной для него нотации, например, при константном сдвиге символов в алфавите.

Скорость автоструктуризации можно существенно улуч­шить, выделив и введя уже известные экспертам "семантические затравки". Такой процесс автоструктуризации принято на­зывать обучением "с учителем" (см. рис. 2). Полезность обучения "с учителем" хорошо известна и широко используется для обучения биологических информационных систем (ИС).

В работе [2] исследовано и показано, что высокое качество автоструктуризации является необходимым условием для запуска всевозможных самоорганизующихся процессов в ИС.

Следует также отметить, что все технические характеристики памяти на базе НСС (время доступа, коэффициент компрессии-сжатия, надежность-пла­стичность хранения информации и др.) имеют тенденцию к улучшению, как в среднем, так и в абсолютных значениях по мере роста объема вводимой информации из ПО (см. рис. 4).




Рис. 4.


Сравнивая различные формы представления информации для систем искусственного интеллекта, в частности ТФ и НСС, можно отметить как их преимущества, так и их недостатки.

Из преимуществ ТФ можно отметить: универсальность и из ее недостатков: избыточность, громоздкость, "медлительность" … .


К преимуществам НСС можно отнести:

- ассоциативное сведение однотипных событий-процессов, произошедших в разные времена и в различных контекстных ситуациях в единое "ментальное целое", т.е. преодоление в "ментальном мире" НСС всех пространственных и временных расстояний;

- автоматическое выделение семантических единиц ПО;

- улучшение всех существенных технических характеристик памяти: время доступа, коэффициент компрессии-сжатия, надежность-пла­стичность хранения информации и др., по мере роста объема вводимой информации (см. рис. 4);

- большую функцио­нальную близость к естественному прототипу - централь­ной нервной системе, чем современные модели нейронных се­тей [1], за которыми исторически закрепилось направление нейрокомпьютинга.

НСС по своим информационно-функциональным свойствам близка к ансамблям биологических нейронов.

-


Особенности вышеперечисленных характеристик НСС являются основанием для построения на её базе крупномасштабной ассоциативной па­мяти (ИС), работающей со слабоструктурированными текстовыми пото­ками.

Анализ НСС может помочь в выявлении перспективных форм представления информации в будущем.


^ Сжатие (компрессия). Хотя выполнение условий 1а и 1б необходимо для проявления свойства автоструктуризации НСС, они также отображают и возможность использования НСС как архиватора для ТФ.

Не рассматривая детально в данном материале направление современной архивации, которое достаточно хорошо представлено в [6,8 и также в Интернете, например на сайтах http://data-compression.com, http://www.arctest.narod.ru ], мы сравним естественный процесс компрессии в НСС с лучшими архиваторами.

Так как естественно языковая ТФ имеет иерархическую структуру (слоги естественного языка состоят из символов, слова - из слогов, фразы - из слов, предложения - из фраз и т.д.), то для моделирования больших объемов текстов естественного языка (объемом в Гига- и Терабайты) на обычных РС были предложены специальные т.н. псевдофрактальные (псевдоестественные) текстовые файлы.

Псевдофрактальные файлы строились следующим образом. Произвольный фрагмент текста естественного языка (полужирная линия, см. рис. 5) разделялся на k частей и этими частями в произвольном порядке приращивался к исходному тексту (тонкая линия). Затем эта же процедура повторялась с новым текстом (пунктирные линии) и так до получения требуемой его длины L, см. рис. 5.







… …


L

Рис. 5.

Особенностью такого текста является самоподобие его частей. В качестве начального текста для эксперимента был взят фрагмент последовательности аналогичный генетическому коду, алфавит которого состоит из четырех символов. Очевидно, что структурно-статистические характеристики текста в полученном ряде файлов стабильны и практически не зависят от размеров файла.

Результаты экспериментов сведены в таблицу 1. Как показала практика, наиболее удобными для эксперимента из доступных архиваторов оказались такие популярные архиваторы, как RAR и ZIP, как дающее достаточно высокое сжатие.

Таблица 1



Размер входного файла (байт)

Показатель степени двойки

Алгоритмы сжатия

(величина компрессии)

ZIP

RAR

НСС

1

1024

10

5,28

6,52

6,92

2

2048

11

9,99

12,34

11,38

3

4096

12

18,04

23,01

16,25

4

8192

13

31,15

39,77

38,64

5

16384

14

50,88

65,54

59,36

6

32768

15

75,50

94,98

113,78

7

65536

16

101,14

127,01

190,51

8

131072

17

121,93

153,12

297,89

9

262144

18

136,39

172,24

434,01

10

524288

19

145,11

183,96

500,27

11

1048576

20

149,75

190,65

682,67


Для наглядности результаты эксперимента приведены также и на диаграмме 1, где по оси X отображены значения объемов файлов в логарифмическом масштабе по основанию 2.

Диаграмма 1




Цель данного эксперимента заключалась в демонстрация потенциальных возможностей эффективного сжатия на основе НСС, для сверхбольших объемов данных. Поэтому, ряд существенных для практики показателей архиваторов, таких как: быстродействие сжатия и восстановления, ограничения на память, удобство применения и пр., в данном случае специально не учитывались. Однако по временам работы процессора Pentium IV с частотой 1,7 гигагерц разница практически не отличалась, особенно при распаковке. Следует заметить, что использованный макет алгоритма НСС является только начальной разработкой и, очевидно, имеет конструктивный резерв для дальнейшего улучшения по сравнению с "классикой" RAR и ZIP.


Выводы. НСС как форма представления имеет достаточно преимуществ (автоструктуризация, компрессия, надежность, малое время доступа и пр.) перед другими формами представления информации, такими как: текстовой, табличной, древовидной, иерархической, сетевой, реляционной и др., чтобы проводить и расширять дальнейшие ее исследования, как формы представления информации для интеллектуальных систем.


Список литературы

  1. Бодякин В.И., Куда идешь, человек? (Основы эволюциологии. Информационный подход). - М. СИНТЕГ, 1998, 332с.

  2. Бодякин В.И. Нейролингвистическая форма представления информации на нейроноподобных элементах, - тезисы семинара-совещания «Алгоритмы обработки информации в нейроноподобных системах», г. Н-Новгород, 14-16 сентября 1993г.

  3. Бодякин В.И. Информационные иерархически-сетевые структуры для представления знаний в информационных системах. //Проблемно-ориентированные программы. Модели, интерфейс, обучение: Сб. трудов. – М.: Институт проблем управления, 1990.

  4. Бодякин В.И., Чистяков А.А., Развитие систем хранения данных и архитектура памяти на основе нейросемантических структур, - в сб. Проблемы информатики - материалы III научной конференции "От истории природы к истории общества: "Прошлое в настоящем и будущем", М., 2001.

  5. Бодякин В.И., Чистяков А.А. Ассоциативные информационные структуры и модели памяти, - Материалы V Международной конференции “ От истории природы к истории общества и будущему человечества” 13.05 – 17.05 2002 года, секция “ Математические модели “. - Москва, 2004. – 49 с.

  6. Shannon C. A mathematical theory of communication, Bell System Tech. J., 27 (1948), № 3, 379-423; 28 (1948), № 4, 623-656.

  7. Кузнецов Н.А. Информационное взаимодействие в технических и живых системах. Информационные процессы. 2001, том 1, №1, с. 1-9.

  8. Фомин А.А. Основы сжатия информации. Санкт-Петербургский гос. технический университет, 1998.

  9. Bell T., Witten I., Cleary J. Modeling For Text Compression. - ACM Computing Surveys. Vol.21, No.4( Dec.1989), pp.557-591.

  10. Moffat A., Bell T., Witten I. Lossless Compression for Text and Images.- Algorithms and Theory of Computation Handbook /Eds. M. J. Atallah, CRC Press Inc., Boca Raton, FL, 1998, pp.12.1-12.23.

  11. Балашов К.Ю. Сжатие информации: анализ методов и подходов. - Препринт / Ин-т техн. Кибернетики НАН Беларуси; № 6, Минск, 2000.

  12. Баранов Г. Обзор методов сжатия данных. - журнал PC Club, ноября 1998 г.

  13. Huffman D. A Method for the Construction of Minimum-Redundancy Codes.- Proceedings of IRE, vol.40, N9, pp.1098-1101, September 1952.

  14. Gallager R. Variations on a Theme by Huffman.- IEEE Transactions on Information Theory, Vol. IT-24, No. 6, Nov. 1978. pp. 668-674.



Замечания.


определение функционала


Alf=(S_psi[n_sloi-1].slov_text + S_psi[n_sloi-1].slov_work)/3; // squrt(Alf)

if(Alf==0)Alf=1;


kb=LpNeuron->cKb; // для экономии времени записать в таблицу L_IP*=Alf и брать оттуда

for (i=0,L_IP=1; i<(kb); i++) // размер информационного пространства для данного A и kb

L_IP*=Alf; ///??

K_IP=(float)a2_k/(float)L_IP; // число пространств (раз) за поток //K_IP/=S_psi[n_sloi].kb; // уменьшение

if(K_IP < (float)0.001)K_IP=(float)0.001; // обход случаев на грани ошибок


w_TE=(float)(LpNeuron->iW -1)/(float)K_IP;// нормировать на величину текстовой энтропии

w_TE /=((float)a2_Max/(float)(a2_k +1)); // повышение точности +1 избавиться от /0


if(w_TE < 0)w_TE=0;


LpNeuron->buff = ((int)(w_TE * 1.0) + kb*kb*kb*kb*kb*n_sloi*n_sloi*n_sloi*n_sloi + LpNeuron->Length*LpNeuron->Length*LpNeuron->Length*n_sloi)*LpNeuron->iW;


if(LpNeuron->iW ==1) LpNeuron->buff = kb + LpNeuron->Length;

if(kb ==1) LpNeuron->buff =LpNeuron->iW + LpNeuron->Length;


if(LpNeuron->iW ==0) LpNeuron->buff = 0; // для последующей сортировки


Весь словарь НСС слоя, в процессе своего формирования, делится на три множества (хотя бы одно из них всегда не пустое): семантических единиц (S), кентавров (K) и неполных семантических единиц (S-).


Определение семантической единицы (S): символьная последовательность которая отображает элементарную семантическую единицу предметной области, а также целое их число, связанное в (конкатенационную) причинно-следственную цепочку, которая может отображаться иерархической структурой семантических единиц. Эксперты определяют семантическую единицу как символьную последовательность отображающей некоторый законченный смысловой образ. Каждый же смысловой образ уже имеет свое собственное имя, или достоин его иметь.


Определение кентавра (K): символьная последовательность которая отображает на своих концах (начале и конце цепочки) неполные (символьнонезаконченные) семантические единицы.


Определение неполной семантической единицы (S-): символьная последовательность которая отображает только на одном из своих концов часть элементарной семантической единицы предметной области.


Естественный язык является структурным отображением семантических единиц (S), кентавров (K) и

неполных семантических единиц (S-). Естественный язык развивающаяся структура в нем идет непрерывный процесс по формированию из информационного потока предметной области новых семантических единиц и ревизии уже в нем ранее сформированных, предположительно принятых как семантические единицы. Конечная структура естественного языка будет минимальна по своим ресурсным характеристикам (измеряемых в битах) при полном отображении (обратимом без потерь) в себе постоянного по мощности (в бит/сек) информационного потока предметной области. При этом все структурные элементы будут являться действительными семантическими единицами данной предметной области.


В качестве примеров семантических единиц естественного языка в письменной форме можно привести: морфемы (слоги) слова, фразы, главы книг, книги, библиотеки. Примерами кентавров, в данном случае, являются символьные отрезки текста состоящие только, например из обрывков двух слогов, двух и более неполных слов и т.д. К неполным семантическим единицам можно отнести: часть слога, слово у которого в начале или в конце пропало несколько символов (букв), незаконченная или с опущенным началом фраза и т.д.


Между элементами этих множеств существует определенная ранговая (количественная) упорядоченность.

Если под рангом понимать число, которое определяется как некоторый функционал построенный на величине частоты, встречаемости последовательности символов, отображающих один из элементов этих множеств, а также на ее длине, то при определенном соотношении вклада этих численных величин, мы получаем следующий ряд:

семантические единицы (S) >= неполных семантических единиц (S-) >= кентавров (K)


Введение такой количественной меры позволяет уже чисто формальными методами находить семантические единицы в непрерывном информационном потоке, идущем из априорно неизвестной предметной области, и автоматически строить словари (слогов, слов, фраз, ...) данной предметной области, т.е. структуру ее языка, со всеми вытекающими из этого последствиями.

заменяя блок-схемы автоматами, мы создаем виртуальную машину, которая достатотчно эффективеа с точки зрения быстродействия.

Модель конечного автомата несложно интепрперетировать с мощью виртуальной машины , что дает естественны способ работы , чем процедурная реализация.

Для параллельного програмирования большре значение имеет реентерабельность модулей и програм,так как они должны одгновременно использоваться разными программами-процессами.

в ООП реентирабельные программы легко строить с помощью динамического создания объенктов и локальных переменных.

Любой алгоритм может быть представленн с помощью конечного асинхронного автомата и нейросемантической структуры. В.Н.Самойлов Теоретико информационный анализ сложных систем. Дубна: ОИЯИ 2002- 330с.:ил.


Определение 3. Под формальной технологией T понимается упорядоченная пара <^ A, F, состоящая из двух конечных множеств: множества A некоторых исходных типов элементов (объектов) материальной или нематериальной природы, называемых обычно элементами базы (или базовыми элементами): A={a1, a2, a3,..., an} (N-элемент ),

и множества операций

F над элементами базы и (или) элементами, полученными в каких-либо операциях T: F={F1 ,F2 ,...,Fm}, причем ни одна из операций в F не может быть выражена через другие.

>

<

==

???


Однократное применение операций из F к элементам из A или конструкциям, полученным ранее из элементов ^ A и (или) других конструкций, принято называть шагом технологии T.

Примерами множеств A могут служить некие аналоги атомов ("квазиатомы"), наборы различных химических веществ, отрезки аналоговых сигналов, компоненты различных систем, какие-либо абстрактные объекты, - в том числе объекты информационного характера - числа, коды и/или символы, и т.д., и т.п. [27, 28].

Обычно в F выделяются собственно "технологические" операции ^ F (синтеза, декомпозиции, дезинтеграции, сложения, вычитания, умножения объектов, и т.д.), и так называемые аналитические операции P, являющиеся "технологическими" аналогами предикатов в математических структурах и конструкциях, например - операции сравнения двух объектов, определения цвета, веса, длины, формы, pH объекта и т.д. и т.п. Первую группу операций F можно отождествить с операциями  F, вторую - с операциями  P в классическом определении алгебраических систем U=<A, F, P. Таким образом, в общем виде определение формальной технологии явно тяготеет к определению алгебраических систем, что делает вполне естественным и весьма эффективным использование при анализе различных ФТ-моделей не только аппарата самих алгебраических систем, но и смежных направлений математики, в первую очередь, - теории алгоритмов, теории вычислений и рекурсивных функций [27, 28]. Одновременно следует подчеркнуть, что один из наиболее популярных подходов к ОТС, основанный на теории групп [3, 19], в ФТ-контексте выглядит менее привлекательным, поскольку соответствует лишь усеченному варианту ФТ-моделей, а именно - технологиям без аналитических операций, эквивалентных в математических структурах алгебрам U=<A, F.

Важной особенностью полных ФТ-моделей типа T=<A, F=<A, {F, P}, в отличие от математических алгебраических систем, является наличие нескольких эквивалентных наборов аналитических операций P (то есть нескольких эквивалентных предикативных систем типа P). В [27], в частности, показано, что такими эквивалентными наборами могут быть P0={Pe(x,y)}, P1={Pu(x,u)}, P2={PR1(x,R1), PR2(x,R2),..., PRn(x,Rn)}, P3={Pa(x)}, а также ряд других наборов, причем здесь Pe(x,y) - операция (предикат) определения равенства двух объектов: Pe(x,y)=1, если x=y, и : Pe(x,y)=0, если x y; Pu(x,u) - операция сравнения с так называемой "представительной" конструкцией (содержащей в себе все типы элементов базы, кроме, быть может, одного): Pu(x,u)=1, если x=u, и Pu(x,u)=0, если x u; PRi(x,Ri) - операция сравнения с i-ой из n представительных конструкций, содержащих в совокупности все элементы базы (кроме, быть может, одного); Pa(x) - операция так называемого "случайного стационарного отображения" , отображающая некоторое (возможно даже неизвестное) свойство анализируемого объекта на числовую ось с помощью опять же некоторого неизвестного механизма [27, с.55], что делает эту операцию похожей на операцию, выполняемую оракулами в расширенной концепции вычислений А.Тьюринга [30]. Последняя в последнее время широко дискутируется в связи с возможностью т.н. "гипервычислений" [31].

Для унифицированного представления различных (в том числе разнородных - т.е. гетерогенных) объектов с различными наборами свойств и различными типами собственных функциональностей вводятся следующие определения:

Определение 4. Свойство объекта (или конструкции - т.е. системы объектов) - это некоторая числовая, геометрическая, физическая или любая другая, в том числе воображаемая, его характеристика, стабильная при определенных стабильных условиях, по которой (по которым) объекты и (или) конструкции могут отличаться друг от друга или от своего предшествующего во времени и/или пространстве состояния.

Определение 5. Состоянием объекта (конструкции) называется совокупное конкретное значение всех его свойств.

Определение 6. Свойство (объекта или конструкции) называется функциональным, если оно позволяет изменять состояние объекта при физическом сближении или соединении соответствующих объектов - носителей свойств.

Определение 7. Эмерджентным называется такое свойство объекта x (с непустым значением), которое отсутствовало на предыдущих шагах технологии в объектах, из которых был получен объект x.

Таким образом, любой






Похожие:

В. И., Чистяков А. А. Нейросемантическая форма представления информации iconБодякин в. И., Чистяков а. А
Вводится понятие нейросемантической формы представления информации и обсуждаются её основные характеристики и свойства. Приводятся...
В. И., Чистяков А. А. Нейросемантическая форма представления информации iconТренировочные задания государственной (итоговой) аттестации обучающихся, освоивших образовательные программы основного общего образования, по информатике и икт
Дискретная форма представления информации. Единицы измерения количества информации
В. И., Чистяков А. А. Нейросемантическая форма представления информации icon2. Используя ms word, выполните обработку текстового документа
Понятие информации. Виды информации. Роль информации и живой природе и в жизни людей. Язык как способ представления информации: естественные...
В. И., Чистяков А. А. Нейросемантическая форма представления информации iconБилет 1 Понятие информации. Виды информации. Роль информации и живой природе и в жизни людей. Язык как способ представления информации: естественные и формальные языки.
Понятие информации. Виды информации. Роль информации и живой природе и в жизни людей. Язык как способ представления информации: естественные...
В. И., Чистяков А. А. Нейросемантическая форма представления информации icon1. Понятие информации. Виды информации. Роль информации в живой природе и в жизни людей. Язык как способ представления информации: естественные и формальные языки
Понятие информации. Виды информации. Роль информации в живой природе и в жизни людей. Язык как способ представления информации: естественные...
В. И., Чистяков А. А. Нейросемантическая форма представления информации icon1. Понятие информации. Виды информации. Роль информации в живой природе и в жизни людей. Язык как способ представления информации: естественные и формальные языки
Понятие информации. Виды информации. Роль информации в живой природе и в жизни людей. Язык как способ представления информации: естественные...
В. И., Чистяков А. А. Нейросемантическая форма представления информации iconФормы представления информации Чаще всего применяют следующие способы кодирования информации
Оси координат разбивают плоскость на четыре части, которые называются координатными плоскостями
В. И., Чистяков А. А. Нейросемантическая форма представления информации iconЧистяков вячеслав Маркович
Чистяков вячеслав Маркович, капитан на судах Мурмансельди. В 1960-е годы возглавлял экипажи срт- 228 «Колыма», других траулеров....
В. И., Чистяков А. А. Нейросемантическая форма представления информации iconФедеральное государственное статистическое наблюдение
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации влечет ответственность,...
В. И., Чистяков А. А. Нейросемантическая форма представления информации iconФ едеральное государственное статистическое наблюдение
Нарушение порядка представления статистической информации, а равно представление недостоверной статистической информации влечет ответственность,...
Разместите кнопку на своём сайте:
Документы


База данных защищена авторским правом ©podelise.ru 2000-2014
При копировании материала обязательно указание активной ссылки открытой для индексации.
обратиться к администрации
Документы

Разработка сайта — Веб студия Адаманов