Оценить:
 Рейтинг: 0

Культурно-историческая психология волевого действия: От прогноза – к поступку

Год написания книги
2021
Теги
<< 1 2 3 4 5 6 7 8 >>
На страницу:
4 из 8
Настройки чтения
Размер шрифта
Высота строк
Поля
. Если теперь такое совместное действие стимулов S

и S

повторяется достаточное число (n) раз, то уже одного стимула S

оказывается достаточно, чтобы вызвать реакцию R

. Коротко это будет выглядеть так:

S

вызывает R

S

не вызывает R

SBSA вызывает RA

………….

…………. n раз

………….

S

вызывает R

.

Для характеристики условного рефлекса второго типа опишем один из экспериментов Конорского. Собаку оставляли в пустом помещении. Время от времени собака без видимой причины лаяла. Каждые несколько минут раздавался стук метронома, и если собака в этот момент лаяла, то из пищевого контейнера падал кусочек мяса. Вскоре собака стала лаять в экспериментальной обстановке постоянно. Но лай «подкреплялся» мясом только тогда, когда стучал метроном. В результате собака начинала лаять именно тогда, когда стучал метроном. Именно так осуществляется дрессировка животных, когда животное учат в ответ на определенный сигнал выполнять определенное действие.

Если мы теперь сравним условные рефлексы первого и второго типа, то увидим, что за сходством терминологии здесь скрывается существенное различие явлений. В первом случае «подкрепляющим» называют такой стимул, который «безусловно» вызывает у животного вырабатываемую реакцию (S

?R

). Так, в опытах с пищевыми условными рефлексами мясо (подкрепляющий стимул) «безусловно» вызывает пищевую реакцию – слюноотделение. Во втором же случае вообще нет такого стимула, который «безусловно» вызывает лай. «Подкрепление» же (мясо) играет другую роль – роль вознаграждения. В условных рефлексах второго типа нет аналога ситуации S

?R

В нашей модели наличие ящиков первого порядка достаточно для моделирования классических условных рефлексов, но не может обеспечить реализации условных рефлексов второго типа. Иначе обстоит дело, если использовать ящики высших порядков. Наличие карточки F в ящике Е

моделирует след в памяти того, что событие F произошло после С, которому предшествовало Е. Из вышесказанного ясно, как ящик Е

может быть использован для того, чтобы осуществить вероятностное прогнозирование предстоящих событий, в частности предсказать вероятность наступления события F.

Но ящики второго (и более высокого) порядка могут быть использованы еще и другим образом. Под каждой буквой (в нашем примере F, Е, С) можно понимать любое событие, воспринимаемое животным. Таким событием может быть и внешнее явление, и собственное действие животного: сгибание лапы, лай и т. п.

Пусть F будет означать появление мяса, Е – стук метронома, С – лай. Послышался стук метронома Е. Собаке же хочется мяса F. Что надо сделать, чтобы с наибольшей вероятностью получить мясо? В памяти-картотеке просматриваются ящики Е

, Е

, Е

,, где А, В, С… – различные действия собаки. В каждом из этих ящиков подсчитывается вероятность наступления желаемого события (появление мяса). Таким образом, используя ящики второго порядка, можно не только осуществлять вероятностное прогнозирование внешних событий, но и строить планы собственных действий С, приводящих с наибольшей вероятностью в заданных условиях (произошло Е) к желаемому результату («хочу мяса» – Е). Еще лучше эта задача решается с ящиками более высоких порядков. Ящики n-го порядка позволяют строить планы действий, состоящие из n минус 1 шагов, приводящих с наибольшей вероятностью к желаемому результату в заданных условиях. С помощью ящиков n-го порядка можно строить и более короткие планы действий – из n минус к шагов, но зато к первых элементов будут использованы для более точного прогноза.

Чем более высокого порядка ящиками располагает модель, тем точнее она осуществляет вероятностное прогнозирование, тем более длинные планы действий можно строить. Но это дается ценой значительно большей громоздкости памяти и «перебора» при выборе из памяти. Число ящиков в модели сильно увеличивается при возрастании их высшего порядка (n).

При том же числе т возможных событий (т. е. таких событий, которые наступили хоть раз в жизни модели) модель может содержать: ящиков первого порядка – т, ящиков второго порядка – m

, ящиков третьего порядка – m

,, ящиков n порядка – m

.

Так что в простой среде пользоваться ящиками высоких порядков нецелесообразно: процедура прогнозирования становится громоздкой и длительной, а выигрыш в точности может быть малым или даже совсем отсутствовать (если, например, среда представляет собой бернуллиеву последовательность, т. е. случайную последовательность, в которой вероятность возникновения того или иного события не зависит от предшествовавшего события).

Здесь мы сталкиваемся с тем, что стремление улучшить вероятностное прогнозирование приводит к чрезвычайно громоздкой модели памяти. А нельзя ли каким-либо образом несколько разгрузить память, не ухудшая результатов вероятностного прогнозирования? Нельзя ли запоминать не все в равной степени и даже кое-что совсем не запоминать? Вслед за этим сразу же возникает другой вопрос: что именно надо запоминать более основательно, чтобы сохранить способность к вероятностному прогнозированию?

Пусть наша модель запоминает не все, что поступит на ее вход, с одинаковой глубиной. До сих пор блок памяти системы имел на входе сигналы («внешние события»), а на выходе, в качестве конечного продукта, – вероятностный прогноз, который мог быть использован следующими блоками, осуществляющими преднастройку. Теперь же и сам блок памяти должен будет использовать свой «продукт» – прогноз.

Если произошло событие А, то с помощью ящика «А» подсчитывается Р(А) – вероятность того, что снова произойдет А, Р(В) – вероятность того, что наступит событие В…, Р(К) – вероятность того, что наступит событие К. Это и есть вероятностный прогноз.

Предположим, что после этого наступило событие Y – событие, вероятность наступления которого, согласно прогнозу, равнялась P(Y). Теперь, как мы уже писали выше, следует поставить карточку Y в ящик А. Но карточка ставится с разным «весом» в зависимости от степени неожиданности события Y, она ставится с коэффициентом 1— P(Y).

Назовем эту величину коэффициентом неожиданности. Если в прошлом опыте после А всегда следовало Y, то Р(Y) = 1 (субъективная «модель среды» точно соответствует среде). Тогда 1—Р(Y) = 0, т. е. повторно наступившее событие Y не запоминается, не загружает память. В жестко детерминированной среде модель перестает запоминать, как только «научается» безошибочно прогнозировать ход событий. Но, если среда изменится и наступит не то событие, которое прогнозировалось, это событие врежется в память с максимальным коэффициентом неожиданности 1–0 = 1. Каждое событие запоминается тем сильнее (т. е. оказывается труднее забываемым), чем более неожиданным (удивительным) было возникновение его в данный момент.

Вероятности ожидания сигналов или ситуаций могут меняться от Р = 1 до очень маленьких величин. Всегда ли субъект учитывает все значения вероятностей или он может работать более экономно?

Можно предположить, что преднастройка осуществляется лишь по отношению к действиям, адекватным такой ситуации, возникновение которой прогнозируется с вероятностью, превышающей некоторую минимальную величину Р

. Величина Р

играет роль абсолютного порога вероятностного прогноза. К ситуациям, появление которых прогнозируется с вероятностью меньшей, чем Р

преднастройка не осуществляется. Если Р

= 1/10 (а из экспериментальных данных вытекает, что это примерно так), то при наличии равновероятных сигналов вероятностный прогноз достигает пороговой величины Р

лишь при числе сигналов до 10; при большем числе сигналов вероятностный прогноз появления каждого из них меньше порогового. Если же сигналы возникают с неодинаковыми вероятностями, то среди них могут оказаться сигналы с Р>0,1, но число таких сигналов будет всегда меньше 10 – независимо от общего числа сигналов. А это значит, что, как бы велико ни было число возможных сигналов, при наличии порога Р

организм упрощает ситуацию так, как будто число возможных сигналов не больше, чем 1/Р

(т. е. не более 10 в приводимом примере). Наличие порога Р

позволяет при большом общем числе альтернатив принимать во внимание при прогнозировании лишь небольшую часть (не более 1/Р

<< 1 2 3 4 5 6 7 8 >>
На страницу:
4 из 8

Другие электронные книги автора Вячеслав Андреевич Иванников