"Дмитрий Поспелов. Десять "горячих точек" в исследованиях по искусственному интеллекту" - читать интересную книгу автора

любопытной особенностью. При объединении баз знаний, сформированных
различными экспертами, каждая из которых в отдельности довольно успешно
решала тестовые задачи, возникала противоречивая база знаний. Если это были
базы, в которых знания фиксировались в виде продукционных правил, то
возникали правила с одинаковыми левыми частями и противоречащими друг другу
правыми частями, а если в качестве модели представления знаний
использовались фреймы, то отмечалось несовпадение фреймов-прототипов или
возникали конкурирующие значения в слотах.
Как скоро стало очевидным, явление это объяснилось тем, что эксперты
погружали свои профессиональные знания в некоторые концептуальные модели
предметных областей, которые могли не совпадать у разных экспертов. Если,
например, речь шла об извлечении знаний из области онкологических
заболеваний, то в качестве таких различных моделей могли выступать вирусная
или генетическая модель порождения злокачественных опухолей. Если же речь
шла о добыче нефти и поиске наиболее перспективных мест для ее разведки, то
альтернативными концептуальными моделями оказывались модели органического и
неорганического происхождения нефти. Приверженцы той или иной концептуальной
модели сознательно (а иногда подсознательно) отбирали только те знания,
которые согласовывались с принятой концептуальной моделью, отвергая те
знания, которые ей противоречили (или, преуменьшая их вес правдоподобия).
Другими словами, использовался своеобразный механизм "психологической
защиты" от знаний, разрушающих принятую концептуальную модель, которая
оправдывалась принятой системой знаний.
Ясно, что механизмы оправдания, связанные с искажением весов
правдоподобия, накопленных в данной предметной области знаний (включая и
отторжение некоторых знаний), нужно изучать и учитывать при заполнении баз
знаний и их объединении. Но как это делать? Вопрос остается открытым и
сейчас. В ближайшее десятилетие на него надо найти конструктивный ответ,
иначе интеллектуальные системы в своем развитии не сделают следующего
важного шага.

3. Порождение объяснений.

Различие в механизмах поиска решений у человека, специалиста по решению
определенного класса задач и у интеллектуальной системы приводит к появлению
эффекта непонимания. Видя окончательный результат деятельности
интеллектуальной системы, специалист не может оценить степень его
достоверности (даже если система одновременно с решением выдает вычисленную
ею такую оценку). Процесс "верить - не верить" не может привести к
какому-либо разумному результату, если нет какой-то дополнительной
информации. Эта информация, начиная с первого поколения экспертных систем,
выдается специалисту по его требованию в виде объяснения.
Объяснение (более точно было бы говорить об обосновании, но термин
"объяснение" прочно прижился в искусственном интеллекте) может быть
различным. Наиболее распространены как-объяснения и почему-объяснения. При
как-объяснении система выдает пользователю информацию о процедуре получения
решения, например, выдает ему всю трассу движения по дереву вывода. При
почему-объяснении система включает в текст объяснения те основания, которые
были использованы ею в процессе поиска решения. Другие типы объяснений
(что-объяснения, зачем-объяснения и т.п.) пока в интеллектуальных системах