Конспект лекций по дисциплине «Системы искусственного интеллекта»




НазваниеКонспект лекций по дисциплине «Системы искусственного интеллекта»
страница7/11
Дата05.09.2012
Размер1.15 Mb.
ТипКонспект
1   2   3   4   5   6   7   8   9   10   11

Определение 7.6. Пусть - некоторое свойство, - некоторый фрагмент o , то есть . Будем говорить, что удовлетворяет - условию для относительно , если , так что



содержит больше одного элемента, то есть .

Обозначение: -: обладает - условием для относительно .


Построим матрицу - матрицу гипотез – следующим образом:



По существу, это правило вывода, которое и называется правилом вывода 1-го рода.

Это правило позволяет дать оценку степени правдоподобия гипотезы о том, что с – причина свойства р.

Правила 2-го рода служат для порождения гипотез о наличии свойств у объектов или, иначе говоря, для доопределения матрицы F.

Пусть - некоторый объект, - некоторое свойство.

Будем говорить, что объектудовлетворяет -условию для относительно , если и . Обозначим её через .

Будем говорить, что объектудовлетворяет -условию для относительно , если и . Обозначим её через: .

Будем говорить, что объектудовлетворяет -условию для относительно , если и . Обозначим её через: .

Матрица ` определяется следующим образом: Fij`= Fij если и только если

Fij # τ; в противном случае:



Эта последняя матрица, собственно, и дает ответ на поставленный в начале вопрос. Затем процедура повторяется для следующего свойства и так до вычисления всех неопределённых в F значений. Однако, для вычисления некоторых неопределенных значений в исходной матрице, т. е. в базе фактов может оказаться недостаточно информации. Тогда матрицу F следует пополнить новыми фактами. Может оказаться, что при таком пополнении матрицы F значения Fij, подсчитанные на предыдущих итерациях, могут измениться. Тогда процесс пополнения и пересчета значений Fij следует продолжить до стабилизации матрицы F/ (если таковая произойдет).


Лекция 8. Правдоподобные рассуждения. Автоматизация аргументационных рассуждений и расуждений на основе прецедентов.

8.1. Аргументация

Под аргументацией будем понимать такую процедуру принятия или опровержения некоторого высказывания А, при которой рассматривается некоторое множество аргументов «за» или «против», используемых для приписывания А некоторой оценки (истинности) или для выводимости А из этого множества аргументов. Это означает, что аргументация в рассматриваемом здесь смысле имеет два аспекта: семантический и синтаксический.

Существует широкий спектр аргументационных систем, различающихся уровнями абстракции и определениями основных понятий [21, 24].

В основе любой аргументационной системы обычно лежат следующие компоненты:

а) логический язык;

б) определение аргумента;

в) определение конфликта между аргументами;

г) определение отвержения аргумента;

д) определение оценки аргумента.

В различных аргументационных теориях понятие аргумента определяется различным образом: либо аргумент – некоторое примитивное понятие, внутренняя структура которого не рассматривается, либо он является формулой некоторого логического языка. В любом случае для формирования аргументационной структуры необходимы компоненты в), г) и д).

Можно выделить два типа конфликтов:

  1. Опровержение – симметричная форма конфликта;

  2. Ослабление – несимметричная форма конфликта.

Для описания различных степеней конфликта вводятся бинарные отношения: «конфликтует и не слабее» или «конфликтует и сильнее» [21]. В первом случае будем говорить, что «аргумент А оспаривает аргумент В», во втором-«аргумент А отвергает аргумент Б».

Пусть на множестве аргументов определено отношение оспаривания, тогда можно говорить, что аргументы либо подтверждаются, либо не подтверждаются.

Аргумент подтверждается, если все аргументы, оспаривающие его, не подтверждаются.

Аргумент не подтверждается, если он оспаривается подтвержденным аргументом.

Аргумент А приемлем по отношению к множеству аргументов S тогда и только тогда, когда каждый аргумент из U, оспаривающий А, оспаривается аргументом из S.

Пусть Arg – множество аргументов, на котором задано бинарное отношение оспаривания. Определим оператор F:

F : 2Arg  2Arg .

Через F(S) обозначим такое множество аргументов Аi Arg, что каждый из них приемлем по отношению к S. Тогда Аi приемлем по отношению к любому надмножеству S, иначе говоря, оператор F является монотонным. Отсюда немедленно следует, что F имеет наименьшую неподвижную точку.

Именно с существованием наименьшей неподвижной точки оператора F связано свойство «подтверждаемости» аргумента. А именно, легко видеть, что аргумент подтверждается тогда и только тогда, когда принадлежит наименьшей неподвижной точке F.


8.2. Алгоритм MIRAGE

Опишем далее один из методов моделирования аргументационных рассуждений ARG1, лежащий в основе известной системы MIRAGE [25] . Метод включает следующие фазы:

  • выдвижение гипотез;

  • подтверждение или отвержение гипотез;

  • редукция множества гипотез.

Для более детального описания следует зафиксировать какой – либо из способов представления знаний, например, неоднородные семантические сети, описанные в первой главе. Тогда в вершинах сети будут находиться объекты, названные нами событиями, а рёбра сети будут представлять элементы отношений, описанных в той же главе.

Множество событий включает два, вообще говоря, пересекающихся подмножества: аргументов и гипотез. Как к первым, так и вторым будут относиться факты и признаки; кроме того, подмножеством множества гипотез являются решения. В качестве исходного множества аргументов будем рассматривать «наблюдаемые» факты и признаки, т.е. некоторые достоверные данные, которые можно увидеть, измерить или получить в интерактивном режиме. На множестве всех событий определены отношения из Лекции 3.

Для простоты будем рассматривать только отношения R1, R4 и R7 :


R1: «Событие е1 всегда сопровождается событием е2»;

R4: «Событие е1 иногда может увеличивать возможность появления е2»;

R7 «Событие е1 исключает событие е2».

Если е1 таково, что (е1, е2 )  R1 или (е1, е2 )  R4 и не существует e такого, что (e, е1 )  R7, будем говорить, что е1 подтверждает е2.

Если е1 таково, что (е1, е2 )  R7, и не существует e ≠ е2 такого, что (e, е1 )  R7, будем говорить, что е1 отвергает е2.

Итак, пусть задано множество событий E. Введем одноместные предикатные символы:

  • O(e) – событие e имеет место (наблюдается или подтверждается).

  • O(e) – событие e не имеет места.

  • М(е) – событие е возможно имеет место.

  • H(e) – событие e является гипотезой.

  • H(e) – событие e не является гипотезой.

  • S(e) – событие e является решением (подтвержденной гипотезой).

  • S(e) – событие e не является решением (подтвержденной гипотезой).

Введем следующие правила вывода:

П1. (O(e1), (е1, е2 )  R1 )  S(e2)

П2. (O(e1), (е1, е2 )  R4 )  Н(e2)

П3. (Н(e2), O(e1), (е1, е2 )  R7)  Н(e2)

П4. (Н(e1), (е1, е2 )  R4 )  М(e2)

П5. (Н(e1), O(e2), (е1, е2 )  R1 )  Н(e1)


Аксиомы:

Нелогическая аксиома

Т1. S(e)  O(e)

Логические аксиомы (А,В,С – пропозициональные переменные)

Т2.

Т3.

Т4.

Будем также использовать логические правила вывода, описанные в п. 1.1.2.

В дальнейшем из соображений удобства мы будем прибегать, помимо логической, и к теоретико-множественной нотации.

Так, например, будем использовать то обстоятельство, что О ={e ‌|O(e)}. Точно так же H = {e ‌|H(e)}, M = {e | M(e)} и S = {e | S(e)}.

Далее, предположим , что имеется некоторая процедура Q, позволяющая из М(е) заключать О(е) или О(е). Такой процедурой, может быть , например, процедура чтения информации из базы данных, с датчиков или некоторая интерактивная процедура.

Перейдем непосредственно к описанию ARG1.

Шаг 1.Порождение множества гипотез.

Если е таково, что имеет место О(е), то применяем к е одно из правил вывода П1 либо П2 (в зависимости от того принадлежит ли пара (е, е2 ) отношению R1 либо R4.

Повторять для всех е  О.

Н := НS

Шаг 2. Расширение множества аргументов.

Ко всем е, таким что е  Н, применяем правило П4 и строим множество всех е, таких что М(е).

Шаг 3. Тестирование аргументов.
Для каждого е такого, что М(е), применяем процедуру Q; если Q (е) = О(е), то О := О  {e}. Переход к п.1.

Шаги 1 -3 выполняются до стабилизации множеств О и Н, иначе говоря до нахождения решения уравнения неподвижной точки ARG1 (Х) = Х, где Х = НО.

Шаг 4. Редукция множества гипотез по отвергающим аргументам.

Для всех е, таких что имеет место Н(е), O(e1) и (е1, е )  R7

Н := Н \ {e}.

Шаг 5.Редукция множества гипотез по обусловленным (отсутствующим подтверждающим) аргументам.

Для всех e, таких что Н(e), (е, е1 )  R1 и выполняется O(e1) в, соответствии с правилом П5 заключаем, что Н(e). Полагаем Н := Н \ {e}.

Шаг 6. Если мощность множества гипотез │Н│ в результате оказалась меньше или равной единице, полагаем S = H и алгоритм завершает работу.

Шаг 7. Дифференциация множества гипотез.

Если │Н│> 1 и в Н найдутся две гипотезы, множества аргументов которых строго вложены одно в другое, гипотеза с меньшим числом аргументов е, таких что имеет место О(е) удаляется из множества гипотез. Эта процедура применяется попарно ко всем таким гипотезам. Результирующее множество гипотез Н называется объясняющим множеством.

Шаг 8. Минимизация объясняющего множества.

Обозначим множество аргументов е гипотезы h, таких что О(е) через Arg (h).

Если │Н│> 2 и в Н найдутся гипотезы h1, h2 , h3 , …,hn, то всякая гипотеза h1, для которой Arg (h1)  Arg (h2)  Arg (h3)  … hn удаляется из Н. Повторяется до исчерпания множества таких гипотез.

Шаг 9. S=H. Завершение работы.


8.3. Рассуждения на основе прецедентов.

Как уже было отмечено, основными задачами автоматизации рассуждений на основе прецедентов являются: а) идентификация текущей проблемы и поиск подходящего прецедента и б) использование найденного прецедента для решения текущей проблемы. Эта последняя задача называется иногда задачей адаптации старого решения к текущей ситуации. Рассмотрим обе задачи более подробно.


Метрики на множестве прецедентов.

Задача, которую мы будем решать в ближайших параграфах - поиск подходящего прецедента. Для этого вначале рассмотрим понятие близости прецедентов. Для уточнения понятия близости обычно используются некоторые метрики. Рассмотрим некоторые из них [26 – 28]. Будем предполагать, что прецедент представлен в виде вектора признаков, характеризующих некоторое состояние или процесс. Тогда степень близости устанавливается на основании парного сравнения текущего вектора с множеством векторов, например, множества прецедентов.


Будем полагать, что рассматриваемый прецедент есть образ в некотором пространстве признаков. В случае, если рассматривается n признаков, имеем для каждого образа точку n-мерного пространства. Пусть в некотором n-мерном пространстве заданы 3 точки - А, B, C.

К метрикам можно предъявить следующие требования:

d(A,B) ≥ 0 (неотрицательность)

d(A,B) = 0 <=> A ≡ B (тождественность)

d(A,B) = d(B,A) (симметричность)

d(A,B) + d(B,C) ≥ d(A,C) (правило треугольника)

Заметим, что этим требованиям удовлетворяет расстояние в евклидовом пространстве:

, где

Xk=(x1k,x2k,…,xnk) и Xj=(x1j,x2j,…,xnj) - образы (точки евклидова пространства).


Если признаки принимают значения либо 1 либо 0 (т.е. являются бинарными величинами), то в качестве метрики используется мера Хемминга.

или


Близость образов можно вычислять с помощью мер близости, определенных несколько иным образом. Условия, которым они должны удовлетворять, таковы:

. (нормирован).





, если

В качестве меры близости, например, может быть использован классический коэффициент корреляции.



В качестве меры близости может быть использована также мера Танимото-Джаккара:

К = n / n’,

где: n – число совпавших признаков, n’ – общее число признаков.

Рассмотрим основные типы метрик, которые могут быть использованы в задачах извлечения информации о медицинских технологических процессах:

  • евклидова метрика

Другая форма представления для сравнения двух векторов.

;

  • мера сходства Хемминга

, где - число совпадающих признаков у образцов и ;

  • вероятностная мера сходства

, где j-номер эталона, - элемент неизвестного входного образца, – значение весового коэффициента, соответствующее математическому ожиданию -го элемента (признака) -го эталона. Величина среднеквадратичного отклонения - находится в результате экспериментов для каждого эталона;

  • мера сходства Роджерса-Танимото;

,

где:

- число совпадающих единичных признаков у образцов и ;

, - общее число единичных признаков у образцов и соответственно;

  • метрика Махалонобиса;

Метрика Евклида используемая для определения расстояния между точками пространства признаков x1 x2



(1)

удовлетворяет всем аксиомам расстояния, она удобна для определения расстояния между двумя точками, например, между точкой наблюдаемых параметров и центром (выборочным средним) класса. Она не учитывает распределение точек в классе.

Метрика Махаланобиса описывается, как

,

(2)

где – выборочное среднее класса Х. Она представляет собой квадратичную форму, где С-1 – матрица, обратная корреляционной для рассматриваемого класса.

Элементы матрицы вычисляются по формуле:

,

где – все возможные пары индексов измеряемых признаков, . Выражения в скобках есть отклонения значений переменных от соответствующего среднего . N –количество объектов в классе. При вычисляются среднеквадратичные отклонения, которые соответствуют дисперсиям параметров, а при оценивается ковариация между двумя параметрами Метрика Махаланобиса неприменима, если выборочная дисперсия хотя бы одного из параметров равна нулю;

  • метрика Журавлева

, где ;

  • манхэттенская метрика



Показано, что евклидова и манхеттенская метрики приводят к близким результата;

  • расстояние Чебышева



где N - количество переменных (признаков) i и j номера объектов

Частично используется в нечетких нейронных сетях в виде минимаксных критериев. Недостаток - кластеры, полученные с помощью расстояния Чебышева, «склеиваются» друг с другом;

  • метрика Брея-Кертиса



В этом случае значения заключены между 0 и 1. Обычно перед использованием этой метрики данные стандартизуют. Данные после стандартизации должны быть неотрицательными;

  • метрика Чекановского



Коэффициенты a, b, c, и d берутся из таблицы (матрицы) ассоциативности, построенной для двух объектов i и k, в которой 1 указывает на наличие признака у объекта, 0 – на его отсутствие. Проще всего рассмотреть эти коэффициенты, обратившись к таблице (матрице) ассоциативности размера 2 х 2:

1 0

1 a b

0 c d

  • метрика Жаккара



Как и в случае метрики Чекановского, коэффициенты a, b, c, и d берутся из таблицы ассоциативности.

  • обобщенное расстояние Евклида-Махаланобиса



Рассмотрим эту метрику.

Для определения расстояния от точки, координаты которой представляют собой параметры наблюдаемого объекта, до класса n сходных объектов обычно пользуются метриками Евклида и Махаланобиса. Каждая из этих метрик имеет свои преимущества и недостатки.

Метрика Евклида, используемая для определения расстояния между точками, x1, x2






удовлетворяет всем аксиомам расстояния, она удобна для определения расстояния между двумя точками, например, между точкой наблюдаемых параметров и центром (выборочным средним) класса. Она не учитывает распределение точек в классе.

Метрика Махаланобиса неприменима, если выборочная дисперсия хотя бы одного из параметров равна нулю:

.




Метрика Махаланобиса совпадает с Евклидовой в случае, если класс представляет собой вектор реализаций нормированных (дисперсии Di=1, i=1,…, n) независимых (ковариации Kij=0, i,j=1,…, n, ij) случайных величин. Если дисперсии больше 1, то расстояние Махаланобиса меньше Евклидова, если меньше, то . Проверка аксиом расстояния затруднена тем, что метрика используется для определения расстояния между разнородными объектами. Расстояние между двумя точками согласно (3) почти всегда бесконечно велико. Исключением является случай, рассмотренный ниже, который можно считать доказательством, что

Рассмотрим класс, состоящий из трех точек: X={(0, 0), (0, -), (-, 0)}.

C помощью метрики Махаланобиса определим расстояние от точки х=(0, 0) до класса Х. При , стремящемся к нулю, предел этого расстояния должен быть равен . Составим матрицу С-1



Расстояние Махаланобиса составляет:



и не зависит от величины .

Таким образом, , что противоречит первой аксиоме расстояния.

Метрику Евклида можно, как и метрику Махаланобиса, представить в виде квадратичной формы, матрицей которой является единичная матрица:






Метрика Махаланобиса может также использоваться и для измерения расстояния между двумя классами Х1 и Х2. Для этого используют среднее взвешенное расстояний Махаланобиса от выборочных средних:






Такая метрика неудобна, т.к. если класс Х1 состоит из единственной точки х1, то Рассмотрим обобщенную метрику Евклида – Махаланобиса [8], определяющую расстояние между двумя классами Х1 и Х2, в виде квадратичной формы






где и – средние выборочные классов, матрица А-1 является обратной матрицей произведения

A=(C1+E)(C2+E),

(7)

C1 и C2 – корреляционные матрицы для первого и второго классов соответственно. Для любых двух классов Х1 и Х2 у которых =, расстояние Если класс Х1 представляет собой точку, то соответствующая ему корреляционная матрица состоит из нулей и мы получаем расстояние, аналогичное расстоянию Махаланобиса, с той разницей, что в случае если дисперсия Di=0, (i=1,…, n). Если оба класса представляют собой точки, то . Такая метрика удобна для решения задач распознавания образов, в которых некоторые параметры, описывающие наблюдаемые объекты, не изменяются. Рассмотрим, в качестве примера, задачу классификации объектов (табл.2).

Таблица 2.

Объекты

Параметр x1

Параметр x2

Параметр x3

1 (класс-1)

16,7

13,46

5,15

2 (класс-1)

19,75

14,015

5,139

3 (класс-1)

17,1

14

6

4 (класс-1)

17,32

11,36

4,73

5 (класс-1)

22,69

13,46

5,15

6 (класс-2)

21,935

14,7

5,932

7 (класс-2)

21,94

14,7

6,36

8 (класс-2)

22

14,7

5,93

9 (класс-2)

21,19

14,7

5,93

10 (класс-2)

22,18

14,7

6,35

11 (класс-2)

22,183

14,698

6,433

12 (класс-2)

21,9

14,7

5,9

Видно, что данные по x2 практически одинаковы, что затрудняет использование метрики Махаланобиса. Рис.3. поясняет относительное расположение объектов. Каждый объект представлен точкой в пространстве только двух параметров.



Рис.3. Относительное расположение объектов

Линии наилучшего приближения к множеству точек каждого класса построены по методу наименьших квадратов. Зеленые точки соответствуют Классу 1, красные – Классу 2. Рассмотрим в качестве примера произвольную точку A c координатами (20.828, 14, 6.1) трехмерного пространства (в соответствии с размерностью табл.1). Измерим для сравнения расстояния от заданной точки до классов с помощью различных метрик. Результаты измерений отражены в таблице 3.

Таблица 3.

Расстояния до классов от заданной точки

Расстояние:

Класс 1

Класс 2

Евклида

5.7768

1.4877

Обобщенное

1.3580

1.3590

Махаланобиса

5.3884

1218130.7445


Видно, что расстояние Махаланобиса достаточно велико. Предложенная обобщенная метрика Евклида-Махаланобиса, учитывает корреляционные свойства классов, таким образом, что расстояние между точкой и классом стремится к расстоянию Евклида, когда дисперсии параметров класса стремятся к нулю. Это обстоятельство делает обобщенную метрику более предпочтительной, особенно, в условиях неопределенности, когда корреляционные характеристики классов заранее не известны и сами классы формируются и уточняются в процессе измерений в реальном времени.


Согласование прецедентов.

Особенность задач, которые предстоит рассмотреть в ближайших главах состоит в том, что для построения описаний прецедентов во многих случаях требуется не только метрическая характеристика их близости, но и некоторая другая характеристика, которая позволяет сделать вывод о степени соответствия их структур. Для этой цели в настоящем параграфе вводится понятие согласования [28]. Coгласование можно рассматривать как количественную характеристику близости структур прецедентов.

Нахождение количественной оценки степени согласования должно основываться на соответствии элементов различных прецедентов.

Это соответствие задается локальной функцией согласования.

Определение 8.1. Локальная функция согласования 


: E  E R такова, что

( е, е1 ) = r  R


Согласование можно рассматривать как меру сравнимости элементов е1 и е. Если элементы е1 и е несравнимы, то локальная функция согласования на них не определена. Множество всех элементов е, с которыми сравним элемент е1 обозначим через  ={e если  ( е, е1 ) определена)}.

Содержательно, сравнимость элементов означает, что они принадлежат одному и тому же типу или домену и тогда ( е, е1 )0 может рассматриваться как «напоминание» о е1 при обнаружении e; ( е, е1 )=0 означает, что напоминание о е1 отсутствует, а ( е, е1 )0 указывает, что е не может рассматриваться в качестве напоминания о е1.


Определение 8.2.. Согласование между парой прецедентов описывается глобальной функцией согласования :

: П(Е) x П(Е)  R,

(где R- множество рациональных чисел)

такой, что большее значение (i,  j) соответствует большей степени согласования прецедентов.

Функция согласования может принимать как положительные так и отрицательные и нулевое значения. Отрицательные значения будут интерпретироваться как рассогласование, а нулевое - как нейтральное.

Если ввести функцию ф - композиции локальных функций согласования, то можно записать

((q1 ,…,qn), (1,…, n)) = ф(1(q1, 1),…n (qn, n))

где. qi, I – прецеденты.


Например, ф может быть линейной формой локальных функций согласования, коэффициенты которой gi являются весами соответствующих значений локальных функций, т.е.

((q1 ,…,qn), (1,…, n)) =  gii(qi, i) (i=1,…,n).


Рассмотрим теперь несколько более сложный случай, а именно случай, когда в прецеденте присутствует несколько элементов е, сравнимых с некоторым элементом е1 прецедента.


Определение 8.3. Пусть {e1 ,e2 ,…,en} – множество элементов, таких, что с каждым из них сравним некоторый элемент е (т.е. ={ei  что  ( е, е i) определена}).

Функцию

е: R…R  R , такую что


е = е (a1 ,…,an), где ai = f(aq i), (ei,e)), aq (е) = 1 (если еq) или aq (е) = 0 – в противном случае, будем называть функцией композиции.

Что касается функции f, то в простейшем случае можно считать, что она есть произведение a и , т.е. ai = aq i) (ei,e).


Предпочтения и глобальная релевантность.

Введем теперь некоторую величину, которая будет характеризовать релевантность прецедента некоторому элементу или частичную функцию релевантности


: E  П(Е)  R, так что r =  (e,).


Предпочтения служат для обнаружения таких прецедентов, которые могут оказаться наиболее подходящими для некоторого заданного прецедента.

Можно полагать, что такую «предпочтительность» можно задать с помощью отношения предпочтения на множестве прецедентов, а запись 1 q2 означает что 1 предпочтительнее 2 в смысле некоторого прецедента q.

Однако, надо располагать некоторым априорным критерием, позволяющим использовать отношение предпочтения. Сформулировать такой критерий позволяет следующая гипотеза, которую можно назвать гипотезой компактности[29] :

сходные ситуации описываются сходными прецедентами.
1   2   3   4   5   6   7   8   9   10   11

Похожие:

Конспект лекций по дисциплине «Системы искусственного интеллекта» iconКонспект лекций по дисциплине "Программное обеспечение интеллектуальных систем". Для магистров специальности 5А521902
Целью данного курса является приобретение знаний по разработки и реализации основных элементов систем искусственного интеллекта
Конспект лекций по дисциплине «Системы искусственного интеллекта» iconЛабораторная работа №1 по дисциплине “Системы искусственного интелекта
Исчисление предикатов первого порядка является теоретической основной множества формализмов методов искусственного интеллекта. Задачи...
Конспект лекций по дисциплине «Системы искусственного интеллекта» icon«шаг за шагом» создание искусственного интеллекта гашева Светлана
Интеллект рассматривают как прикладную область исследований, связанных с имитацией отдельных функций интеллекта человека [6]. Распознавание...
Конспект лекций по дисциплине «Системы искусственного интеллекта» iconУчебно-методический комплекс по дисциплине “основы искусственного интеллекта”
...
Конспект лекций по дисциплине «Системы искусственного интеллекта» icon«Основы искусственного интеллекта»
Рабочая учебная программа по дисциплине «Основы искусственного интеллекта» для ооп «050100 Физика и информатика по циклу б в. 13...
Конспект лекций по дисциплине «Системы искусственного интеллекта» iconРабочая программа дисциплины «Системы искусственного интеллекта»
Рабочая программа основана на требованиях Федерального государственного стандарта высшего профессионального образования по направлению...
Конспект лекций по дисциплине «Системы искусственного интеллекта» iconУчебно-методический комплекс по дисциплине “основы искусственного интеллекта” для специальности
...
Конспект лекций по дисциплине «Системы искусственного интеллекта» iconУчебно-методический комплекс по дисциплине “основы искусственного интеллекта” для специальности
...
Конспект лекций по дисциплине «Системы искусственного интеллекта» iconВ. К. Финн к структурной когнитологии: феноменология сознания с точки зрения искусственного интеллекта
Ки и искусственного интеллекта – полигона экспериментальной проверки научных средств имитации рациональности и продуктивного мышления....
Конспект лекций по дисциплине «Системы искусственного интеллекта» icon1. интеллектуальные системы
Системы искусственного интеллекта, решающие задачи по обработке знаний и при этом проявляющие черты, сходные с чертами естественного...
Разместите кнопку на своём сайте:
Библиотека


База данных защищена авторским правом ©lib.znate.ru 2014
обратиться к администрации
Библиотека
Главная страница