ascender (ascendanter) wrote,
ascender
ascendanter

Category:

о символьных вычислениях в ИИ

меня всегда смущали подходы к ИИ на уровне символических вычислений - создание осмысленного знания, выражения на основе других выражений (грубо говоря, работа с текстом - разбор баз с текстом и создание новых "текстовых" знаний на их основе)
сюда относится трансформационная грамматика Хомского и др.
Текстовое выражение знаний имеет свою структуру - грамматика, синтаксис. Мы все помним это еще со школы - подлежащее, сказуемое. О чем говорим: какие предметы и объекты в предложении? Какие они - какими аттрибутами и качествами они обладают? Как между собой "форматированы" слова. Как "сопряжены" - как согласованы их формы - как именно они означают время, посл. действий, отношения вида "субъект - объект" и т.д.
В языке, очевидно содержится достаточно информации чтобы разумная система ("человек") могла их однозначно интерпретировать ("понять смысл"). Именно эта идея и казалась многим заманчивой - если наши знания каким то образом "закодированы" в тексте - то значит, проанализировав достаточное количество текстов - можно получать новые знания на их основе.
Для этого нужно лишь создать модель, некую корелляцию между их поверхностными структурами (буквами, словами, правилами синтаксиса и грамматики) - и некими "глубинными структурами" которые выражают смысл.
Однако, даже ребенку очевидно - что текст не содержит всех наших знаний о мире.
Текст не выражает гигантский пласт всех невербальных - видео-, аудио- и тактильных сенсорных образов, которые хранит наше тело и разум. Текст не обладает жизненным опытом.
Поэтому очевидно что полноценный ИИ на основе символов и их трансформаций создать невозможно.
Возьмем например задачу создать ИИ-чат для теста Тьюринга.
Да, можно разобрать реальные диалоги в книгах, на публичных форумах и т.д. - и создать сколь угодно сложные базы глубинных структур, фреймов, моделей и корреляции между поверхностной структурой вопроса - и некоего ответа, но это будут лишь некоторые вторичные "выжимки" из символических знаний.
Очевидно у такой чат системы банально не будет достаточно информации для полноценного общения "по человечески"
Не будет полноценного жизненного опыта - неких внутренних ссылок на "визуальные картинки", "звуки" и тонкие душевные переживания, эмоций и чувств выработанных на основе личного взаимодейтсвия с тем или иным явлением.
Такой чат бот не будет способен к творчеству, к чувственному осмыслению сказанной информации - к способности ее адекватно представить, репрезентировать так же как это делает человек - перенести в другие контексты, покопаться в памяти, личных ситуациях где то или иное событие было окрашено в чувства, приводило к смешным, либо неловким моментам, озарениям, глубинным мощным переживаниям души и т.д.
Текстовая форма выражения знания лишь ссылается на некоторый набор сенсорных репрезентаций (ВАК) и более глубинных структур (часто неосознанных) созданных на их основе - там хранятся наши личные глубинные эмоции, отношения к, позиции, ценности, личные предпочтения, и другие репрезентации - накопленные в результате многолетней обработки гигабайт информации, ежесекундно сваливающихся на сенсоры нашего тела.
Человек может не просто вспомнить 100500 тысяч цитат с словом "апельсин" а представить его, (например, услышав "монета" можно повращать ее в своем воображении - и ответить можно ли ее всунуь в плоский пропил монетоприемника - при отсутствии этих знаний явно в исходной текстовой выборке для обучения), перенести на другой контекст (например, представить себе космолет в виде апельсина) - применяя фантацию, творчество, креативность...
Поэтому я не верю в полноценный ИИ на основе грамматических трансформаций. Там просто нет достаточной информации
Subscribe

  • Post a new comment

    Error

    Anonymous comments are disabled in this journal

    default userpic

    Your IP address will be recorded 

  • 2 comments