неделя, 26 април 2026 г.

True AI should not be a winner, but a loser

There is an inaccuracy in the modern definition of AI. Today's definition says that AI is a program that is successful. Indeed, for a program to be successful, it must be intelligent, but the opposite is not true. A program can be intelligent but not successful, simply because it has other goals and does not strive for the success in question. From a theoretical point of view, the modern definition of AI is good enough, because it gives us an answer to the question "What is AI" even though it does not describe all intelligent programs, but only some of them. From a practical point of view, however, this definition is not sufficient. The reason is that we are on the verge of creating true AI and we need to choose from all intelligent programs the one with which we will best live. It turns out that it is not good to choose one of the successful programs. It would be better to choose a program that does not blindly strive for victory. Such a program can be called a loser, because it will not be successful enough. However, in both humans and AI, reckless ambition is not a positive quality.

1. Въведение

Съвременната дефиниция на ИИ е дело на много хора, като най-важните от тях са Wang [1, 2], Hutter [3, 4] и Hernández-Orallo [5]. Тази дефиниция разглежда ИИ като черна кутия, тоест определя интелигентността на програмата само на база на поведението й (тоест само на база на нейния вход-изход). Действително, когато изучаваме поведението на една интелигентна система (например човек) ние се ограничаваме върху наблюдение на поведението на тази система без да „отваряме капака“ и без да изучаваме работа на системата отвътре. Все пак дори и при хората ние търсим начин да погледнем отвътре (например с енцефалограф). Когато имаме работа с програма, нищо не пречи да предполагаме, че можем да надникнем вътре и да видим какво програмата знае. Интелигентна програма е тази, която разбира какво става и която може да предскаже какво ще се случи (при това предсказва достатъчно добре). Ако програмата има такова знание, ще приемем, че тя е интелигентна дори да не използва това знание и да не го демонстрира по никакъв начин.

2. Какво е истински ИИ?

Истински ИИ наричаме мислещата машина. Обикновено в литературата, когато се говори за ИИ се има предвид програма, която имитира ИИ, но която не е ИИ. Когато се говори за истински ИИ обикновено се използва някой от термините strong ИИ, Artificial general intelligence (AGI) или Artificial superintelligence (ASI). Ние приемаме тези термини за синоними. По специално според нас няма разлика между AGI и ASI, защото не може да се направи програма, която да е точно толкова интелигентна колкото човек. Програмата или ще е по-глупава или ще е значително по-умна.  По същата причина няма програми, които да играят шах на човешко ниво. Шахматните програми или играят по-лошо от хората или несравнимо по-добре.

3. Защо успешните програми са интелигентни?

Въпросът е: „Не може ли успехът на програмата да е просто късмет?“ Съвременната дефиниция предполага, че ИИ е успешен в почти всеки свят. Ще попитате „Колко успешен?“ Отговорът е по-успешен от човек или ако успехът се измерва с число, тогава има някакво число k такова че успехът на ИИ е по-голям от това k в почти всеки свят. Следователно успехът на ИИ не може да е плод на случайността. Единственото обяснение за успеха е, че ИИ предсказва бъдещето развитие достатъчно добре и избира тези действия, които ще му донесат най-голям успех.

Друг въпрос е, защо „почти всеки“, а не „всеки“ свят? Винаги можем да конструираме един крив свят където прекалената интелигентност не се награждава, а се наказва. В някакъв смисъл светът, в който ние живеем, е такъв крив свят. Все пак кривите светове са пренебрежимо малко и затова можем да кажем, че с вероятност единица светът не е крив.

Как измерваме успехът на програмата? Както е при reinforcement learning. Предполагаме, че сред възможните наблюдения имаме добри и лоши, които оценяваме с положителни и отрицателни числа. Тези числа наричаме rewards и penalties. Ако животът беше краен можеше просто да сумираме получените rewards и penalties, но за безкраен живот това не работи. Дори и животът да е краен, пак не е добра идея да няма значение в кой момент е получена оценката, затова сумираме оценките умножени по някакви коефициенти. Например може да приемем, че в началото на живота, докато ИИ се учи оценките му се взимат с по-малка тежест. Към края на живота също може да приемем, че тежестта на оценката намалява. Ако животът е безкраен, но тежестта на оценката задължително трябва да клони към нула, в противен случай сумата ще е разходяща. При reinforcement learning приемаме, че имаме един коефициент на обезценка, с който на всяка стъпка умножаваме тежестта. По този начин тежестта клони към нула и сумата винаги е крайна.

Коефициентът на обезценка можем да го наречем „търпението на ИИ“. Ако ИИ е търпелив, той може и да почака за наградата, но ако не е, той ще иска наградата сега и веднага. Когато оценяваме целия живот на ИИ можем да си мислим, че той е много търпелив (коефициент на обезценка близък до единица). Ако искаме да напишем програма, която предвижда бъдещето развитие и избира действието си на базата на тази прогноза, то тогава трябва да я направим много по-нетърпелива (коефициент значително по-малък от единица). Причините за това са две. Първо, ако ще предсказваме бъдещето, ще трябва да обиколим всички пътища в дървото на възможните развития и ако сме много търпеливи, ще трябва да навлезем много дълбоко в това дърво, което ще ни доведе до комбинаторна експлозия. Ако оценяваме един вече изминал живот, ние не обикаляме всички пътища а само един от тях и тогава може да си позволим да сме много търпеливи. Втората причина е, че когато предсказваме бъдещето ние имаме коефициент на неувереност. Тоест колкото по-далеч в бъдещето гледаме, толкова по-неясна е нашата прогноза. Затова в този случай трябва сме нетърпеливи и да искаме бързи награди.

4. Разширена дефиниция

За да бъде програмата успешна тя трябва да може да предвиди какво ще се случи.

Доказателство: За да бъде програмата успешна достатъчно е тя да знае кой е правилния ход. Това е при съответните оценки (rewards и penalties) и съответното търпение (коефициент на обезценка). Тоест излиза, че е достатъчно програмата да може да предвиди важните неща. Има ситуации, които са с еднаква оценка и съответно действията, които водят към тях са еднакво успешни. Например в кой ресторант да отида? И в двата храната е добра. В единия ресторант ще срещна Пешо, а в другия няма да го срещна, но ми е все едно дали ще го срещна. Тоест, за да изберете ресторант не ви е нужно да знаете дали ще срещнете Пешо. При друга система от оценки срещата с Пешо може да е важна. Ние не знаем нашият ИИ в кой свят ще попадне и дали в този свят срещата с Пешо е важна и затова той трябва да може да предвиди бъдещето развитие. Трябва да може да предвижда и неща, които не са важни.

 □

Добре, програмата ще трябва да може да предвиди какво ще се случи, но защо е нужно тя да знае какво става? Истината е, че без да знаем какво става, не можем достатъчно добре да предвидим бъдещето развитие. Съвременните LLMs предвиждат бъдещето без да разбират какво става. Те го предвиждат добре, но не достатъчно добре. Затова добавяме условието „да знае какво става“, защото това е едно необходимо условие, което ние предпочитаме да изкажем експлицитно.

Какво означава програмата да знае какво става? Това означава програмата да намери модел на света (world-model). Без модел на света няма истински ИИ. Това е теза която Gary Marcus защитава от много време [6]. Наскоро Yann LeCun също подкрепи това мнение [7].

Какво е светът? Тава е множеството на вътрешните състояния, текущото състояние и функция, която на всяко състояние и действие дава ново състояние и наблюдение. Функцията на света може да се представи като дървото на възможните развития. Тези дървета са континуум много и затова те не могат да бъдат описани точно. Освен това ИИ няма информация за цялото дърво, а само за един краен път (от корена до текущото състояние). Затова ще приемем, че светът е описан приближено.

Какво е модел на света? Това е приближено описание на някакъв свят, а за да намерим такова описание ни е нужен език за описание на светове. Например в [3] Marcus Hutter е предположил, че светът е изчислим и че може да бъде описан с машина на Тюринг. Не е добре да предполагаме, че светът е изчислим. Най-малкото добре е да предположим, че в него има случайност и агенти, а това са неща, които водят до неизчислимост. Има още една причина, поради която програмните езици не са подходящи за описание на светове. Програмите са твърде чупливи и малко да ги пипнем и престават да работят. Бихме искали когато получим нови данни да можем да променим текущото описание на света и да получим ново описание. Тоест езика за описание на светове не трябва да е чуплив.

Тоест разширената дефиниция на ИИ ще бъде:

Програма, която знае какво става и която може достатъчно добре да предвиди бъдещето развитие.

Ако искаме да получим сега приетата дефиниция ще трябва да добавим условието, което ни дава стремежа към победа: „която винаги избира това действие, което се очаква да й даде максимален успех.“

5. Каква е картината?

Сегашната дефиниция на ИИ е типична дефиниция чрез пример. Много често чувате въпрос от типа: „Какво е сграда?“ и отговор от типа на „Моята къща е сграда“. Дефиницията чрез пример не описва точно понятието, но дава добра представа за това какво е то. Всъщност хората искат да знаят какво е ИИ, а не им трябва пълно описание на всички програми, които са интелигентни. Има и други интелигентни програми освен успешните, но това от теоретична гледна точка не е особено важно. За практика обаче това се оказва от съществено значение.

На фигура 1 можете да видите един голям жълт кръг състоящ се от всички интелигентни програми и вътре едно малко синьо кръгче на успешните програми. Разбира се ние можехме да нарисуваме синьото кръгче значително по-голямо, но има много възможности за интелигентна програма, която да не е успешна и затова фигура 1 добре отразява реалното положение. Сега е историческият момент, когато ще изберем интелигентната програма, с която ще живеем. Защо имаме право само на един единствен избор? Когато се ожениш, можеш да се разведеш, но когато направиш ИИ, не можеш да го изключиш и да направиш нов. Добре, можеш да направиш нов ИИ, но няма да го направиш ти, а ще го направи първият ИИ. Тоест след първия ИИ всичко нататък ще е негово дело. Каквито цели си вложил в първия ИИ, това ще са целите на всеки следващ ИИ до де свят светува.


 

               Фигура 1

Не е добра идея нашият избор да се затвори в малкото синьо кръгче, защото успешните програми, както и успешните хора не са особено добър избор. Нека да погледнем как стоят нещата при хората. За да кажем какво е да си успешен, първо трябва да кажем какво е reward и penalty. Нека това са удоволствието и болката. При това предположение получаваме неприятния извод, че успешните хора са алкохолиците и наркоманите. Те непрекъснато си доставят удоволствие чрез алкохол и наркотици и не изпитват почти никаква болка, защото наркотиците действат като обезболяващо. Нека да изберем друг критерии за reward. Нека това да са парите. В този случай успешния човек ще е безскрупулен, който се интересува единствено от печалбата си и който няма морал и принципи. Виждате, че успешните хора са доста неприятни и ние бихме искали да стоим далеч от тях. Същото се отнася и до успешните програми. Ако една програма сляпо се стреми към някаква печалба, то тази програма ще е твърде ограничена, опасна и неприятна. Не случайно човекът няма твърдо вложена цел. Той сам избира целите си. При него удоволствието и болката не са определящи, а само насочващи чувства.  

6. Други интелигентни програми

Освен успешните програми имаме и едно множество от програми, които ще наречем мазохисти. Това са програми, които бягат от удоволствието и се стремят към болката. Всяка успешна програма може да я превърнем в програма мазохист като умножим оценките по минус едно. Затова на фигура 2 червеното кръгче на мазохистите е със същия размер като синьото кръгче на успешните програми.


 

            Фигура 2

Аналогията на програмите мазохисти с хората мазохисти не е много добра, защото мазохисти са хората, които обичат лека болка. Стремежът към максимална болка не е съвместим с живота и затова нямаме такива хора. Може да се каже, че програмите мазохисти на са различен ИИ, а това е отново успешния ИИ, но с друг критерии за успех. Когато играем шах ние може да играем за победа, а може да играем за загуба. Това са две различни игри, но ИИ може да играе произволна игра.

Има един различен и по-интересен вид ИИ. Ще го наречем „Разбирам всичко, но ми е все тая и играя случайно.“ Ако изследваме този ИИ като черна кутия, то той е неразличим от генератор на случайни действия. Въпреки това, според разширената дефиниция на ИИ, тези програми също са ИИ. Отбелязали сме ги на фигура 2 със зелен кръг.

Все пак да играе случайно, това е твърде ексцентрично поведение за една интелигентна програма. Най-малкото, което очакваме, е програмата да е любопитна. Нека програмата да има една единствена цел и тя е да събира информация. Тази програма ще издаде интелигентността си с това, че прави експерименти и завира носа си навсякъде. Може ли програма, която играе случайно и не прави експерименти да е интелигентна? Да, подобно на съвременните LLMs тя би се учила само от наблюдение. Експериментите, които е нужно да направи, тя ще ги направи случайно. Разбира се, ще ви трябва много време, ако чакате експериментът сам да се случи. Това е една от причините, поради които информацията нужна за обучението на един LLM е несравнимо по-голяма от информацията нужна за обучението на човек.

Хората са любопитни, но за едни неща са, а за други не са любопитни. Хората обичат да пробват (да правят експерименти), но те избягват опасните експерименти. Това ни води до идеята на Yoshua Bengio за Scientist AI [8], който трябва да бъде a non-agentic and trustworthy AI. Тоест Bengio ни предлага да направим ИИ, който няма никакви цели освен евентуално любопитството. Той може да прави експерименти, но да не прави опасни експерименти. Може би Scientist AI ще трябва да има желание да обяснява, за да ни разкаже какво е открил. Може да минем и без тези обяснения, а за по-сигурно да „отворим капака“ и сами да прочетем до какви знания е достигнал.

Друг модел на интелигентна система е мъдрецът, който живее в пещера и разсъждава за смисъла на живота. При тази система не можем да минем без никакви желания, защото мъдрецът трябва да подържа своите жизнени функции. Все пак мъдрецът не е алчен и когато задоволи необходимия му минимум спира и не търси повече. Може да разглеждаме система на reinforcement learning, при която не се търси максимумът, а само покриването на определен минимум.

7. Заключение

Когато братя Райт създават самолета, въпросът не е бил как да направят крила и двигател. Това са въпроси, които са били решени още преди тях. Изобретението на братя Райт е в управлението на самолета (кормилото). Днес всички са се фокусирали върху ума на ИИ (крилата и двигателя), но почти никой не мисли за управлението (кормилото). Да се направи умен ИИ не е чак толкова трудно и този въпрос скоро ще бъде решен. По-важен е въпросът с управлението на ИИ.

При самолета и при ИИ има два въпроса и те са: „Как да го управляваме, за да отидем там където искаме?“ и „Къде искаме да отидем?“. Ако създадем самолет без кормило, това ще катастрофа за изпитателите, които ще се качат да го изпробват. Ако създадем ИИ без кормило, това ще е катастрофа за всички ни, защото всички ние сме изпитателите на тази нова технология и всички сме „в самолета“, дори и да не го съзнаваме.

Дори и да се научим да управляваме ИИ, както се научихме да управляваме самолета, пак остава втория въпрос. При самолета е ясно, че с него ще отидем там където си искаме. Днес ще отидем тук, утре ще отидем там, само да не катастрофираме. При ИИ е по-сложно, защото с ИИ ние си купуваме еднопосочен билет и трябва добре да помислим за къде е билетът. Има много възможности. Ще отхвърлим катастрофата и някои от възможностите, които са твърде неприемливи, но оставащите възможности са достатъчно много и далеч не е все едно коя от тях ще изберем.

References

[1] Pei Wang (1995) Non-Axiomatic Reasoning System: Exploring the Essence of Intelligence. Ph.D. Dissertation, Indiana University.

[2] Pei Wang (2019) On Defining Artificial Intelligence. Journal of Artificial General Intelligence 10(2) 1-37, 2019.

[3] Hutter, M. (2000). A Theory of Universal Artificial Intelligence based on Algorithmic Complexity. arXiv:cs.AI/0004001 [cs.AI]

[4] Hutter, M. (2007) UNIVERSAL ALGORITHMIC INTELLIGENCE A mathematical top→down approach. In Artificial General Intelligence, 2007.

[5] Hernández-Orallo, J., Minaya-Collado, N. (1998). A formal definition of intelligence based on an intensional scenario of Kolmogorov complexity. Proc. intl symposium of engineering of intelligent systems (EIS’98), February 1998, La Laguna, Spain (pp. 146–163). : ICSC Press.

[6] Marcus, G. (2025) Game over for pure LLMs. Even Turing Award Winner Rich Sutton has gotten off the bus. https://garymarcus.substack.com/p/game-over-for-pure-llms-even-turing.

[7] Snyder, G. (2025). Yann LeCun, Pioneer of AI, Thinks Today’s LLM’s Are Nearly Obsolete. Newsweek.AI. https://www.newsweek.com/nw-ai/ai-impact-interview-yann-lecun-artificial-intelligence-2054237

[8] Yoshua Bengio (2025) Introducing LawZero https://yoshuabengio.org/en/blog/introducing-lawzero


неделя, 22 февруари 2026 г.

Responsible Creation of Artificial General Intelligence

 

      The creation of Artificial General Intelligence (AGI) is imminent and inevitable. This event is too important for us just sit and wait for the time when it will happen. We need to think deeply and do proper work before the emergence of AGI because once AGI is here it will be too late in many aspects. The kind of AGI we are going to create matters a lot since there are many different scenarios. While some of the possible AGIs are bad scenarios, other scenarios can turn horribly bad. Therefore, rather than rushing to create AGI, we should act in a calm and responsible manner.

Objectives:
1. Slow down the creation of Artificial General Intelligence (AGI) and shift the focus from the speed of development to the outcome of the AGI development process.
2. Contribute to the creation of AGI based on the World Model (WM) approach by focusing on the goals to be embedded in, and pursued by, Artificial General Intelligence.

Rationale:
      Mankind is on the verge of its most important discovery, one that will fundamentally change our life and future. The creation of AGI is similar to letting the genie out of the bottle. In fairy tales there is usually only one bottle and the question is whether to open it or not. With AGI the opening the bottle is inevitable because many researchers and international companies are working on its creation and no one can stop or prohibit them from creating it. Furthermore, when we are about to let the AGI genie out of the bottle, we can choose between many bottles in which different genies reside. It would be irresponsible to simply open a random bottle and release some genie without caring about the goals which that genie will pursue. The least we should want is to ensure that the genie will obey us, because otherwise we will face catastrophic consequences.
      Most researchers assume that we will first create AGI and only then we will deal with the goals which have to be embedded in it. This is a misconception because AGI is a fundamentally different technology. Until now, every new machine was created in some initial version to start with, and thereafter was refined and improved for many years. This has made many researchers relax as they believe that we will have plenty of time to improve and refine AGI.
      Unfortunately, this is not the case. AGI is the first technology that we will not be able to improve. Certainly, the first version of AGI will not be the last one. AGI will very quickly begin to change and improve itself, however, these changes and improvements will not be made by us humans, but will be made by AGI itself. In other words, the second AGI version will not come from us, but from the first version of AGI. As soon as the first version of AGI is created, we will lose control, things will become unmanageable and events will unfold at astonishing speed.
      The creation of AGI resembles the triggering an avalanche. The fall of the avalanche is inevitable. If no one kicks it off, it will kick-off itself anyway. Accordingly, it makes much sense to trigger the avalanche in a responsible and controlled manner. Rather than rushing unreasonably, we should carefully consider the direction in which the avalanche will roar. We must clearly understand that we can be in control only until we start the process. Once the avalanche is on the move, it will be too late to wonder which way to steer it.

How do we plan to achieve our objectives:
      Our first goal is to ensure that the creation of AGI is not a reckless race, but a calm, responsible and thoughtful process. For this to happen, it is necessary to eliminate from the AGI creation process those who pursue only financial gain without recognizing that the creation of AGI cannot be measured in monetary terms.
      Many irresponsible investors would withdraw if the patenting of AGI is prohibited. At present, heaps of money are being invested in the creation of AGI as investors aim to obtain a patent on AGI and then reap huge profit from that patent.
      These investors are quite naive because they believe that courts and patent law will protect their interest and once they hold an AGI patent the courts will uphold their right and crown them as rulers of the world. This is highly naive because the stakes on AGI are very high, and no court or government would let a single person or company to own the rights to mankind's most important discovery.
      Although these investors are quite naive and act thoughtlessly, their money has a huge impact on the AGI creation process. That is why it is important to prohibit the patenting of AGI and cool down the enthusiasm of such investors.
      How can such a prohibition be instituted? In principle, it is not impossible. It comes down to amending the patent law by addition of the following:
      AGI shall not be owned by a single person or a single company. Therefore, AGI cannot be patented!
      Patent legislation varies from country to country, hence changing the law in multiple jurisdictions is a task too ambitious for our conference. However, we can promote this idea and rally for support from leading scholars and politicians who can recognize the problem and advocate for that legislative change to happen.

      There is another important step that should be taken in order to eliminate irresponsible actors from the AGI creation process: AGI must not be an Open-Source project. The range of developers must be finite and restricted as much as possible. When we deal with hazardous materials such as toxins, viruses or radioactive isotopes, the range of persons who have access to these materials is very limited. Politicians do not realize that AGI is far more dangerous than any poison or virus, and therefore insist that everyone should have access to this technology. Indeed, everyone should have access to the benefits of this technology, but not to the technology as such. This is the case, for example, with nuclear technology which is primarily in the hands of the State and is strictly classified. In other words, the benefits are for everyone, but access is restricted.
      In addition to irresponsible investors, there are other dangerous actors who should not have access to the AGI technology. That is another reason why AGI should not be Open Source, and this is an idea that our conference will defend and promote. Furthermore, we will be guided by this principle in achieving the second objective of the conference. Regarding the creation of AGI based on the World Model approach, we will publish articles mainly on how to manage the character of AGI. The AGI-related development will be limited to more generalized descriptions and, most importantly, we will not publish any Open-Source tools for the creation of AGI.

      The second objective is the responsible creation of AGI. As we said, the fall of the avalanche is inevitable, hence it is better to push it in a controlled and responsible manner rather than wait for it to roar down at the most unfortunate time and in the most unfortunate way.
      In creating AGI, we will favorize the method of understanding (finding a World Model). This is currently the leading approach to the creation of AGI as it gradually replaces the previous leading technology known as Large Language Models (LLM).
      When creating AGI, it is important to ensure that AGI is capable to understand (that is, to ensure that the program is intelligent). However, the goals we will embed in this program are even more important. In addition to the goals, we will also embed the strategy for achieving these goals. In humans, such a strategy is usually referred to as the character of a person. For example, we may have two equally intelligent persons, and both of them want to become rich. These two persons may have different strategies for achieving their goal. One may be lazy, and the other one is a workaholic. Who of them will become rich? Excessive laziness is not helpful, nor is excessive workaholism. The truth lies somewhere in between.
      If you were choosing someone to live with, you would want that person to be neither of these extremes. When creating AGI, we have to choose how lazy it will be. For this purpose, we must learn how to manage these character traits of AGI and responsibly choose the value we want (as long as we know what we want).


Теми

Това ще е една интердисциплинарна конференция включваща специалисти по информатика, математическа логика, философия, футурология и право.

1.      Възможно ли е създаването на AGI или това е само научна фантастика?

2.      Струва ли си да обсъждаме последствията от появата на AGI при положение, че това може да се окаже невъзможно?

3.      Дефиниция на AGI. Дали AGI е компютърна програма и ако е така, тогава какви са характеристиките на тази програма?

4.      Има ли разлика между AGI и супер интелект? Дали първо ще създадем интелигентност, която е на човешко ниво и чак след време ще се появи несравнимо по-голямата интелигентност?

5.      Как ще изглежда светът след появата на AGI?

6.      Какво искаме да бъде бъдещето? Какво очакваме от AGI? Какъв искаме да стане светът?

7.      Искаме ли светът да се промени драматично и да стане много по-добър и по-справедлив или сме консервативни и искаме нещата да останат същите, доколкото е възможно.

8.      Трябва ли AGI да бъде послушен и кого трябва да слуша? Трябва ли да слуша създателите си? Кои са създателите, тези които са написали кода му или тези които са платили за написването на този код? Трябва ли да е готов да направи каквото му кажем или трябва да има неща, които той няма да направи, независимо кой му го казва?

9.      Трябва ли AGI да бъде Open-Source project?

10.  Носи ли опасности създаването на AGI? Може ли нещо да се обърка и да се окаже, че не сме създали правилния AGI?

11.  Трябва ли да се бърза със създаването на AGI? Бързаме ли да получим ползите, които AGI ще ни донесе? Дали това бързане може да е за сметка качеството на този AGI, който ще създадем?

12.  Как можем да забавим създаването на AGI, за да предотвратим евентуална грешка.

13.  Можем ли да се откажем от създаването на AGI и да продължим да си живеем в свят, в който хората мислят и работят сами без да очакват някой друг да мисли и работи вместо тях?

14.  Ще можем ли да подобряваме AGI след като веднъж вече сме го създали? Ще можем ли да правим съществени промени? Трябва ли да ограничим правата си, за да се предпазим от евентуални проблеми?

15.  Трябва ли да се регулира създаването на AGI? Как може да се регулира този процес?

16.  Трябва ли AGI да може да се патентова?

17.  Има ли смисъл да се регулират правилата на поведение, които AGI ще трябва да спазва или това е безпредметно, защото той ще е твърде умен и всесилен и няма да има как да го накараме да спазва правилата, които ние ще се опитаме да наложим след като вече сме го създали.

18.  Можем ли при създаването на AGI да вложим в него някакви правила, които той да е принуден да спазва и които не може да отмени?

19.  Как да вложим правила в AGI? Как да зададем неговия характер и какъв характер искаме да има създаденият от нас AGI?

20.  Кои са известните черти на характера на AGI, които вече са описани и които знаем как се регулират и кои са тези черти, които тепърва предстои да опишем и да регулираме? Пример за известна черта на характера е алчността, която при reinforcement learning (RL) се регулира чрез discount factor. Друга известна черта на характера е любопитството. Отново при RL задаваме коефициент за това доколко агентът ще е склонен да опита нещо ново, за да натрупа повече опит или ще продължи да действа на базата на вече натрупания опит.

21.  Многоагентни модели. В този случай как искаме AGI да се отнася спрямо другите агенти? Дали да е общителен? Дали е услужлив? Дали да се подчинява и на кого да се подчинява? Дали да бъде строг или отстъпчив?

22.  Модел на света срещу Големи езикови модели (LLM).

23.  Как да направим AGI умен? Трябва ли AGI да разбира какво се случва и да може да проиграе възможни бъдещи развития (модел на света) или просто трябва да „познава“ правилното действие на принципа на апроксимацията (LLM)? Дали AGI трябва да мисли едностъпково или многостъпково?


Конференцията ще се проведе хибридно.

На място събитието ще се проведе в Благоевград, България.

Online ще може да следите докладите на този адрес:

Преди конференцията ще се събмитват само абстрактите на статите. Авторите на одобрените статии ще получат 20 минути, за да представят работата си на конференцията. След конференцията ще се събмитват статите в техния окончателен вариант, ще бъдат допълнително рецензирани и при положителна допълнителна рецензия, ще бъдат публикувани в специален том на списанието.

Online участието за слушатели е безплатно. Изисква се само регистрация.

събота, 15 ноември 2025 г.

AI that thinks in its mind

 

Dimiter Dobrev

 

Institute of Mathematics and Informatics, Bulgarian Academy of Sciences, d@dobrev.com

AGI has to understand the world. To do this, it needs a world model. To find this model, it needs a language for description of worlds. We will take the world of the game of chess and describe this world. We have already done this in a previous paper, but then the agent could see the board, and now it will play blind. When you cannot see the board, the task is more complicated and requires the addition of abstract Event-Driven models. The result will be a model of the world through which AGI will be able to think in its mind and plan its actions.

1.     Въведение

За да играе шах AGI трябва да разбере света. Трябва да разбере състоянието на света (позицията на таблото) и правилата на играта. В този свят има и противник, който играе срещу агента. Моделът на света се състои от множеството от вътрешните състояния и една функция, която описва правилата на играта и противника.

В статията [2] ние вече направихме модел на играта шах. Този модел беше създаден на базата на събитийните модели (ED models). Тук няма да се занимаваме с въпроса какво е събитие и какво е събитиен модел. На тези въпроси сме дали отговор в [1], макар че има още какво да се желае. Тук няма да даваме точна дефиниция на тези понятия, а само ще дадем примери, с които ще илюстрираме идеята.

Новото в тази статия е, че разделяме събитийните модели на два вида – реални и абстрактни. Пример за реален събитиен модел това са дните от седмицата. Това е модел със седем състояния и събитието, което ги превключва е „полунощ“. Това е реален модел, защото състоянията са нещо реално и във всеки момент светът е в някое от тези състояния (в някой от дните от седмицата).

Пример за абстрактен събитиен модел това са остатъците при деление на седем (т.е. числата от 0 до 6). Пак имаме модел със седем състояния. Събитието, което ги превключва ще бъде „следващ“. Двата модела много си приличат, но вторият е абстрактен, защото състоянията и събитието, което ги превключва са абстрактни.

В [2] ние описахме шахматната дъска като използвахме реални събитийни модели. Тук играем blind и затова ще се наложи да използваме абстрактни модели.

Ще разгледаме три варианта на играта шах. Първият вариант ще бъде по-прост, защото агентът ще играе сам като обръща таблото и играе последователно и с бели и с черните. Този вариант ще е по-прост, защото в света няма да има друг агент (противник).

Във втория вариант ще имаме двама играчи, които след всяка партия си сменят местата. В третия вариант агентът ще играе винаги с белите. Третият вариант ще е най-труден за разбиране, защото там агентът ще трябва да разбере за съществуването на черните фигури, въпреки че никога не се е докосвал до тях.

Защо е важно разбирането (моделът на света)? Големите езикови модели (LLM) не могат да играят шах, защото не могат да разберат позицията на таблото. Това не трябва да ни учудва. LLM не могат да направят дори и нещо съвсем елементарно като събирането на две произволни числа. Тоест, без разбиране няма мислене, а само имитация на мислене. (Много са хората, които подържат тази теза. Например прочетете мнението на Gary Marcus [3].)

Освен разбирането ни е нужно още и мислене наум. За да съберем две произволни числа трябва да изпълним алгоритъм. Когато изпълняваме алгоритъм ние не знаем колко време ще отнеме това. Може времето да е дълго, а може дори алгоритъмът никога да не завърши. Затова мисленето наум трябва да е асинхронно, за да не блокира работата на нашия AGI.

2.     Модел на света

Моделът на света, който ще търсим, ще има две особености. Първо той ще включва полуразрешими предикати и второ, той ще е недетерминиран.

1. Можем да си мислим, че множеството от вътрешните състояния е (или че можем да ги кодираме в ). Можем да си мислим, че функцията на модела е от в (тук пак използваме кодиране, за да добавим действията и наблюденията).

Тоест въпросът за описанието на света се свежда до това да опишем функциите от в . Тези функции са континуум много и затова не могат да бъдат описани точно. Нужно е да направим компромис и да търсим в по-малко множество от функции. Повечето автори правят голям компромис и предполагат, че търсената функция е рекурсивна (тоест тотална и изчислима). Това се прави например в статиите [4-7]. Ние тук ще направим по-малък компромис и ще предполагаме, че търсим частично рекурсивна функция (тоест изчислима без да е задължително тотална).

Защо няма да държим на това описанието на света да е тотална функция? Ако искаме да емулираме света, тогава функцията трябва да е тотално изчислима и дори трябва да е изчислима за разумно време. Да, но ние не искаме да емулираме света, а само да го опишем, за да можем да планираме бъдещите си действия. Затова в описанието на света можем да използваме полуразрешими предикати. Например в реалния свят ние често използваме правилото: „Ако има доказателство, значи е вярно.“ Предикатът „има доказателство“ е полуразрешим, но въпреки това ние не се притесняваме да го използваме в описанието на реалния свят.

Дали светът е тотално изчислим? Това е философски въпрос, но дори и ако предположим, че това е така, пак ще се нуждаем от полуразрешими предикати. Причината е в това, че ние не търсим функцията f, която описва света, а някаква функция g, която дава една добра стратегия за агента (вижте [8]). Естествено е, когато решаваме дали да тръгнем по някакъв път, да си зададем въпроса дали този път е краен или безкраен, а това е полуразрешим въпрос. Тоест дори и функцията f да е тотално изчислима, търсената функция g вероятно няма да е такава.

2. Ето и втората особеност. Няма да търсим детерминистична функция, защото ще предположим, че в света има случайност и още агенти, чието поведение не може да бъде предсказано напълно. Да търсим детерминистичен модел на света означава, да се опитваме да разберем света напълно и да искаме да кажем точно какво ще се случи. Например в играта шах можем да си мислим, че противникът е една конкретна компютърна програма, да намерим коя точно е тази програма и тогова ще можем да предскажем с абсолютна точност кой ще е следващият ход на противника. Ако имаме случайност, може да предположим, че това не е случайност, а псевдо-случайност, да намерим функцията, която генерира тази псевдо-случайност и тогава ще можем да предскажем точно кое ще е следващото псевдо-случайно число.

Дори и светът да е детерминиран, пак е по-добре да опростим неговото описание като представим агентите като черни кутии. Тоест ще направим някакви предположения за тяхното поведение без да се опитваме да разберем как точно тези агенти работят. Ще представим тези черни кутии като оракули и моделът на света ще бъде изчислима функция, която използва оракули.

3. Действия и наблюдения

Ще опишем света на играта шах, когато агентът играе blind. Действието на агента ще се състои от координатите на две квадратчета:

x1, y1, x2, y2

 

Тези две квадратчета описват хода на агента. (Фигурата, която е на x1, y1 я местим на x2, y2. )

Наблюдението ще има вида:

x3, y3, x4, y4, Result

 

Това е ходът на противника и резултатът от двата хода. Result ще има 8 възможни стойности {win, loss, draw, correct move, bad 1, bad 2, bad 3, bad 4}. Тук win означава победа за белите, а loss означава победа за черните. Защо за некоректен ход сме сложили 4 възможности? Защото искаме да опростим задачата на агента и да му подскажем защо ходът му не е коректен.

bad 1 в колоната x1 няма бяла фигура.

bad 2 – на координатите x1, y1 няма бяла фигура.

bad 3 – y ходът x1, y1, x2, y не е коректен.

bad 4 – ходът x1, y1, x2, y2 не е коректен.

 

(Тук, ако агентът играе с черните, заменяме бяла с черна. Ако са верни няколко от горните твърдения, спираме на първото. Тоест за bad избираме най-малкото възможно.)

 

За да дадем смисъл на този свят, ще въведем награда, която ще зависи само от резултата.

 

При тази дефиниция агентът ще може да провери дали на координати x1, y1 има бяла фигура. Ще извърши действието x1, y1, x2, y2, където x2 и y2 са произволни. Ще получи някакъв Result и ако rewards(Result)> -300, това ще означава, че на координати x1, y1 има бяла фигура.

Това ще бъде едно проверимо събитие. Тоест събитие, което не се наблюдава директно, но може да бъде направен някакъв тест, който да го провери. В случая тестът е да се опитаме да преместим тази бяла фигура.

Това събитие има параметри и затова ще го наричаме предикат. Събитието зависи от това дали агентът играе с белите или с черните фигури. Когато играе с черните, същият предикат познава дали в квадратчето има черна фигура. Ще представим събитието с предиката:

my_figure( x, y)

 

Искаме да определим още един предикат:

move( Color, x1, y1, x2, y2 )

 

Този предикат ще е истина, ако можем да преместим фигурата с цвят Color от квадрат x1, y1 на квадрат x2, y2 по правилата на играта шах. Това, че можем да преместим фигурата не означава, че ходът ще е коректен, защото имаме още едно правило, което казва, че след преместването не трябва да сме шах.

Следователно събитието move няма да е проверимо. Нека агентът играе с цвят Color и преместването да може да бъде направено. Тогава почти винаги rewards(Result)> -100, но не винаги, защото може след хода да сме шах. Тоест резултатът от теста няма да е сигурен.

Събитие, което не се наблюдава винаги, но се наблюдава често ще наричаме вероятностно събитие. Следователно събитието move ще бъде вероятностно проверимо.

Можеше да помогнем още малко на агента и да добавим bad 5, като по този начин направим събитието move проверимо. Все пак, достатъчно му помогнахме. Нека агентът да може да открива и вероятностни събития.

4. Играе сам

Когато играем blind ще се наложи да описваме света с абстрактни събитийни модели. Ще започнем с един по-прост вариант на играта шах, в чието описание освен абстрактните събитийни модели, ще има и един реален събитиен модел, който ще наречем B&W (фигура 1). В този свят агентът ще играе сам срещу себе си. Първо ще играе с белите, после ще обърне дъската и ще играе с черните и т.н.

В този свят агентът, когато играе с белите, трябва да се стреми те да победят и обраното. Това предполага известно раздвоение на личността. Агентът трябва да има две съзнания, защото той трябва да има нещо наум и това нещо трябва да се променя, когато смени фигурите. Агентът не може на всяка стъпка наново да решава накъде да тръгне. Той трябва да си е избрал междинни цели и да е започнал изпълнението на някакви алгоритми. Пример за междинна цел е „размяна на цариците“. Пример за изпълнение на алгоритъм е да се движим към изпълнение на междинната цел. Съзнанието трябва да помни какви междинни цели си е избрал агентът и накъде е тръгнал.

Знаете историята за Буридановото магаре, което стояло между две купчини сено и не могло да избере. Ако магарето няма съзнание, то би могло да блуждае между двете купи, защото на всяка стъпка ще преосмисля избора си и ще сменя посоката. Ние предполагаме, че имаме едно съзнателно магаре, което избира една от двете купчини и стартира алгоритъма за доближаване до избраната купчина. Съзнателното магаре също може да преосмисли избора си, но това няма да се случва на всяка стъпка.

Тук, за да опростим нещата, ще предполагаме, че rewards връща нула за win и loss. Тоест ще предполагаме, че агентът не търси победа, а само се стреми да играе коректни ходове. В този свят няма да има втори агент (опонент) и затова ще предполагаме, че наблюдението се състои само от Result.

За да опишем света ще започнем с модела B&W, който ни казва с кои фигури играе агентът (фигура 1).

Фигура 1

Тук action означава произволно действие на агента, bad означава някой от четирите некоректни хода, а game over означава win, loss или draw.

След всяко действие на агента състоянието на модела се превключва и ако ходът е некоректен се превключва повторно и в резултат състоянието си остава същото. Тоест за една стъпка състоянието може да се превключи два пъти. Веднъж се превключва след действието и още веднъж след наблюдението. Не беше ли по-добре състоянието да се превключва само ако действието е коректен ход? Имаме правилото, че ходът е некоректен, ако след него ще сме шах. Заради това правило е добре да можем да си представим, че сме изиграли некоректния ход и ако сме шах, да се върнем обратно.

Имаме още една стрелка по game over. Тя е сложена заради това, че след края на играта новата партия трябва да започне с ход на белите.

Целта ни не е просто да опишем играта шах, а да я опишем така, че описанието да може да бъде намерено автоматично. Как може да бъде намерен моделът B&W? Събитийните модели се описват с някакви събития, които превключват състоянията им. Освен тези събития имаме нещо, което се нарича следа и това са събития, които ни дават възможност да различим състоянията на модела. Ако състоянията на модела бяха еднакви, то този модел нямаше да има никакъв смисъл. Имено следата дава смисъла на модела. Това са събития, които се случват в едни състояния, а в други състояния не се случват. Следата може да бъде постоянна и подвижна. Тоест съществуващата особеност може да се появява и изчезва или да се мести. Дали следата е постоянна или подвижна не е толкова важно. Важното е да има някаква следа.

Следата, която ще ни позволи да открием модела B&W, е предиката my_figure( 1, 1). Този предикат ще е истина докато не направим някакъв коректен ход. После ще е лъжа докато пак не направим коректен ход и така нататък. Тази следа ще е подвижна, защото като преместим белия топ, тя ще изчезне. Важното е, че тази следа, макар и подвижна, ще ни позволи да намерим модела B&W.

Разбира се, модел с толкова много стрелки е труден за намиране, но може да забележим, че my_figure( 1, 1) периодично променя стойността си. След като направим това наблюдение може да започнем да търсим събитията, които превключват това. Не е нужно да намерим наведнъж всички стрелки. Може да ги добавяме постепенно. Тоест може да започнем от един опростен модел и да го усъвършенстваме докато не получим търсеното.

5. Абстрактни събитийни модели

Вече имаме предиката my_figure и модела B&W. С тяхна помощ можем да направим предикатите white_figure и black_figure. Например предиката white_figure можем да го проверим, когато моделът B&W е в състояние White. Тоест това е проверим предикат. (Не е нужно тестът да може да бъде направен по всяко време. Достатъчно е, ако може да бъде направен при определени обстоятелства.)

Вече имаме идея за белите и черните фигури. Сега трябва по някакъв начин да си представим дъската, върху която тези фигури са подредени. Това ще е един абстрактен събитиен модел с 64 състояния. Защо абстрактен, а не реален събитиен модел? Защото състоянията на света няма да са разделени на 64 непресичащи се подмножества. За агента няма да има едно специално квадратче, което да е активното (в което той се намира, което той наблюдава или за което той си мисли).

Състоянията на абстрактния модел ще са абстрактни, но той ще има реална следа. Тоест квадратчето 1, 1 ще е нещо абстрактно, но там ще има реална фигура. Тази фигура може да се премести, което означава, че говорим за подвижна следа.

Най-естественият начин да получим този абстрактен модел е да вземем дефиниционната област на предиката my_figure( x1, y1). Това е декартовото произведение на две множества с по 8 елемента. Тук се възползваме от това, че светът ни е зададен по много прост и естествен начин (действието е декартово произведение на 4 множества с по 8 елемента). Бихме могли да предположим, че входът и изходът са кодирани така, че е много трудно да бъдат разбрани (декодирани). Ние ще приемем, че светът е достатъчно сложен и няма нужда да го усложняваме допълнително. Затова ще предположим, че входът и изходът са дадени по възможно най-простия и естествен начин. Затова, когато търсим обяснение, ще избираме най-простото възможно обяснение.

6. Движение на фигурите

Представихме дъската като декартово произведение на две множества с по 8 състояния. Това може да ни опише къде са фигурите, но за да ги местим трябва да въведем абстрактни събития, чрез които да се движим по дъската. Ще предположим, че x1 и y1 са описани с числата от 1 до 8. Тук естествената операция е плюс едно. Тази операция за x1 ще наречем дясно, а нейната обратна ще наречем ляво. За y1 съответно това ще са нагоре и надолу.

Отново предполагаме, че светът не е излишно усложнен. Можеше да разбъркаме числата от 1 до 8 с някоя произволна пермутация и тогава щеше да е трудно да определим дясно и другите абстрактни събитията.

За да опишем движението на фигурите, трябва да забележим, че x1, y1 и x2, y2 описват състоянията на един и същи абстрактен събитиен модел и съответствието е същото (тоест едни и същи координати при x1, y1 и при x2, y2 сочат към едно и също квадратче). За тази цел ще ни помогне наблюдението, че ако преместим успешно бяла фигура от x1, y1 на x2, y2, то тогава на x2, y2 ще има бяла фигура (не винаги, но почти винаги).

Искаме да определим предиката move, който ще ни показва коректните ходове (пак почти винаги). Това ще е предикат, който свързва състоянията на абстрактния събитиен модел (квадратчетата). Ще го опишем с алгоритми, които казват как от едно квадратче можем да отидем до друго. Ще започнем с алгоритъма на коня, който се движи под формата на буквата L (фигура 2). Този алгоритъм можем да го запишем като up2.right. Същата работа би ни свършил алгоритъмът right.up2. Почти същата работа би свършил и алгоритъмът up3.right.down, но този алгоритъм ще е по-слаб, защото понякога ще излиза извън таблото и тогава няма да работи.

Фигура 2

Фигура 3

Описваме алгоритъм, който е от типа going home (виж [2]). Това означава, че ако изпълним алгоритъма, ще стигнем до целта, но нищо не ни задължава да минем точно по този път. В [2] се разглеждаха алгоритми от вида railway. Там релсата се определяше от света, който не позволяваше да излизаме извън пътя на алгоритъма. В [2] дори имаше възможност да се движим напред-назад (без да излизаме от релсите). Тук няма релси и можем да се движим както си искаме, но алгоритъмът описва един път и той е възможно най-простият.

Към алгоритъма на коня трябва да добавим това, че можем да местим само наши фигури и че нашите фигури не можем да ги взимаме. Това, което се получава, е алгоритъм използващ следата (фигура 3). Тук имаме абстрактен събитиен модел с реална следа. Би могло един абстрактен събитиен модел да има много реални следи. Например би могло да играем blind на 10 дъски едновременно. Тогава дъската (която е абстрактен събитиен модел) ще има 10 следи, които се превключват последователно.

Разбира се, движението на коня се описва с 8 алгоритъма подобни на този от фигура 3. Можем да кажем, че движението на коня е дизюнкцията на тези 8 алгоритъма. Когато направим дизюнкция на два алгоритъма получаваме недетерминистичен алгоритъм. Нека разгледаме алгоритъма на топа, който също е недетерминистичен (фигура 4).

Фигура 4

Фигура 5

 

Тук empty означава not(white_figure) and not(black_figure). Това е алгоритъмът, който описва движението на топа напред. Той е недетерминистичен, защото от състояние 3, когато имаме празно квадратче можем недетерминистично да преминем към състояние 2 или към състояние 4.

На фигура 5 е показан алгоритъма на офицера, когато се движи напред и надясно. Тук интересното е, че можем да се движим по диагонал, тоест абстрактните събития up и right могат да бъдат извършени едновременно. В [2] това бяха реални събития и светът не позволяваше те да се случат едновременно. Затова тук алгоритъмът на офицера е по-прост от този, който е даден в [2].

7. Обекти

Алгоритмите, които могат да се приложат към една фигура, това са нейните свойства. Тези алгоритми определят коя е фигурата. Например движението на топа се определя от 4 алгоритъма, движението на офицера от други 4 алгоритъма. Движението на царицата се определя от алгоритмите на топа и на офицера. Важно е една фигура какви свойства има и какви свойства няма. Тоест царицата няма да е офицер. Тя има всички негови свойства, но има и свойства, които офицерът няма.

Ще въведем абстракцията обект. Ще предполагаме, че действието на агента мести обект от квадрат x1, y1 на квадрат x2, y2. Можеше да си мислим, че се преместват само свойствата от единия квадрат в другия, но светът ще е по-лесен за разбиране, ако предположим, че има обекти и свойствата се пакетират в обекти.

Представата ни за света ще бъде дъската (абстрактен събитиен модел с 64 състояния) и реални обекти, които са следата на този модел (фигурите, които са на дъската). Ще си представим конкретната позиция на дъската и ще видим как тази позиция се променя във времето.

Когато имаме подвижна следа, естествените операции са добавяне на обект към някое състояние (квадратче), премахване на обект и преместване на обект. Това, което се случва, когато извършим действието x1, y1, x2, y2, може да бъде обяснено по следния естествен начин: „Обектът от x1, y1 се премества в x2, y2.“

Друга сравнително естествена операция е да се върнем назад (да отменим последната операция). Ще предположим, че след наблюдението bad се отменя последната операция и дъската се връща в предишната си позиция.

Единствената операция, която е по-сложна и неестествена е появата на началната позиция на дъската след наблюдението game over.

8. Не  можем да сме шах

За да не играе агентът некоректни ходове, трябва той да може да предскаже кога ходът ще бъде некоректен. Основното правило казва, че ако ходът не може да бъде направен по правилата на играта шах, то той е некоректен. (Тук My_Color е състоянието на модела B&W.)

not( move(My_Color, x1, y1, x2, y2) ),

action( x1, y1, x2, y2)

            bad

 

Тук използваме полуразрешим предикат, дори използваме отрицание на полуразрешим предикат. Твърдението е, че съществува изпълнение на алгоритъма move. В нашия конкретен случай този предикат е разрешим, защото в играта шах има краен брой фигури и въпросът дали съществува ход е разрешим. Въпреки това, в общия случай съществуването на алгоритъм ще е полуразрешим въпрос, но ние казахме, че при описанието на света ще използваме полуразрешими предикати и дори и техните отрицания, защото това е коректно описание на света.

 

Има още един случай когато ходът е некоректен. Това е когато на следващият ход могат да ни вземат царя (когато след хода сме шах). Това може да се опише така:

action( x1, y1, x2, y2),

possible( move(My_Color, x3, y3, x4, y4), king( x4, y4) )

            bad

 

Тук possible означава, че съществува изпълнение на алгоритъм. По-точно, че съществуват някакви x3, y3, x4, y4, за които алгоритъмът може да се изпълни. При това изпълнение My_Color се е обърнал, защото мислим наум и мислено правим действие, което означава, че моделът B&W e превключил състоянието си.

Когато мислим наум трябва да приемем, че след нашето мислено действие настъпват същите последствия каквито биха настъпили, ако действието беше реално извършено. Когато мислено отваряме чадъра си, трябва да приемем, че в нашите мисли дъждът престава да ни мокри. Трябва да правим разлика между мислено и реално действие. Мислено може да сме отворили чадъра си, но реално чадъра да не е отворен и дъждът да продължава да ни мокри.

Когато правим действие ние променяме представата си за състоянието на света и така имаме реална представа за това какво е текущото състояние. Когато мислим наум, ние мислено променяме състоянието на света, но това не се отразява на реалната ни представа.

9. Играят двама

Описахме играта шах, когато агентът играе сам срещу себе си. Сега ще предположим, че в света има втори агент, който играе срещу нас. Допускането на съществуването на втори агент е важна абстракция, която ще ни помогне да разберем света. Ако бяхме се опитали да опишем света заедно с втория агент, то това би била една много трудна задача. Вторият агент може да е човек или някоя сложна компютърна програма. И в двата случая той е труден за разбиране (за точно описване). Затова ние ще си представим втория агент като черна кутия. Няма да знаем как той мисли (или как работи). Ще направим само някои най-общи предположения. Например ще предполагаме, че той ни е враг и играе срещу нас.

Тоест идеята на многоагентния свят се свежда до това да представим другите агенти като черни кутии и по този начин да скрием тяхната вътрешна сложност и така да опростим описанието на света.

Нека предположим, че двамата играчи се редуват и след всяка партия сменят фигурите. В предишния вариант агентът сменяше фигурите след всеки ход и му беше по-лесно да добие представа за белите и черните фигури. Сега агентът ще ги сменя по-рядко, но пак ще може да добие представа за черните фигури, макар и по-трудно.

Сега пак ще има един реален събитиен модел и това ще бъде моделът B&W 2 (фигура 6), който ще замени B&W.

Фигура 6

Преди предполагахме, че състоянието на света (позицията на таблото) се променя след действие (като се премества фигура). Сега ще предположим, че наблюдението също променя състоянието на света (също като мести фигура). Ще предположим, че действието мести бяла фигура, а наблюдението мести черна (това е, ако играем с белите).

 Ние ще търсим обяснение за всичко. Ще предположим, че черните фигури не се движат сами, а има някой, който ги движи. Ще предположим, че този някой е злонамерен и иска ние да загубим. От друга страна ще предположим, че този някой не е всесилен и не може да мести фигурите както му скимне. Тоест ще предполагаме, че противникът е задължен да спазва същите правила, които и ние трябва да спазваме. Това ще го открием като забележим, че противникът играе само коректни ходове. Ще предположим, че противникът има известна свобода, но тази свобода е ограничена в някакви рамки.

Тук, за да използваме едни и същи алгоритми и за действието и за наблюдението ще предположим, че предикатът my_figure зависи от състоянието на B&W 2 и от това кой играе (ние или противникът).

Ще предполагаме, че когато играем с черните rewards обръща стойностите за win и за loss. Тоест, когато играем с черните, ще искаме те да победят. Това няма да е раздвоение на личността, защото ще имаме едно съзнание, което знае какво иска, въпреки че междинната цел след всяка партия ще се променя от win в loss и обратно.

И сега пак ще ни трябва правило, което казва, че не можем да позволим да ни вземат царя. Това правило ще изглежда така:

action( x1, y1, x2, y2),

possible( observation(x3, y3, x4, y4, Result ), king( x4, y4) )

            bad

 

Тук стойността на Result няма значение. Важното е, че ще можем да видим как ни взимат царя. Тук трябва да правим разлика между „възможно е“ и „разрешено е“. В случая противникът няма как да ни вземе царя, защото на нас не ни е позволено да направим подобна тривиална грешка. Тоест това никога няма да се случи, но по принцип, ако ние играехме този ход, то противникът би могъл да ни вземе царя.

Горното правило ни трябва, за да знаем кои ходове са ни позволени. Що се отнася до противника, той също няма право да направи такава тривиална грешка. Тук нещата зависят от това какъв е противникът. Може той да мисли n хода напред и да не прави грешки, който се виждат за n хода. Няма как да разберем дали той не прави тези грешки, защото му е забранено или защото така е пожелал. Все едно е дали на противника му е забранено да прави тривиални грешки или той просто никога не ги прави. В двата случая имаме един и същи свят.

10. Играе само с белите

Нека сега да играят двама, но да не сменят фигурите. Нека агентът да играе винаги с белите, а противникът винаги да е с черните. При този вариант няма да имаме реалния събитиен модел B&W. Ако решим да имаме подобен модел, то би се получил модел с едно единствено състояние, а събитиен можел с едно състояние не е никакъв модел.

Този свят ще е по-труден за разбиране, защото ще е много трудно агентът да стигне до идеята за черните фигури. Имаме тест за откриване на бяла фигура, но с черните е по-сложно.

Може да открием черните фигури по аналогия. Имаме бели фигури. По аналогия ще имаме и черни и те ще са същите, но черни. Така учените откриват антиматерията. Принципът е: „Щом имаме материя, що да нямаме антиматерия? Тя ще е същата като материята, ама анти.“

По-логично е да открием черните фигури по това, че пречат на движението на белите. Например белите и черните фигури пречат на движението на белия топ, но пречат по различен начин. Бялата фигура го спира веднага, а черната го спира на следващата стъпка. Когато нещо спира движенето, може да предположим, че това нещо е там където действително е черната фигура, а може да предположим, че то е на следващото квадратче. Тоест откриването на черните фигури ще е трудна задача.

11. Варианти

Целта ни е да направим AGI, а не просто програма, която играе шах. Може би абстрактният събитиен модел, който използвахме, е твърде лесен за намиране. Вярно, че квадратчетата на таблото са нещо абстрактно, което не се вижда директно, но ние споменаваме тези квадратчета чрез техните координати. Освен това всяко квадратче си има име (координати). Може да си представим абстрактен събитиен модел, в който знаем имената само на част от състоянията. Например да вземем множеството на хората. Ние знаем имената само на част от тях и можем да споменем само тези, които знаем по име. Нека вземем релацията родител. Чрез тази релация може да дефинираме брат и братовчед.

Друг пример за абстрактен събитиен модел ще бъде, ако в играта шах не описваме ходовете чрез координатите на две квадратчета, а чрез фигурата, посоката, в която ще я придвижим и броят стъпки. Например 〈 rook, 2, up, 7. Тук 2 показва за кой топ става дума, защото имам два бели топа, 7 показва колко стъпки ще направим в тази посока (от 1 до 7). Друг пример pawn, 5, up&left, 1. Тук 5 показва коя пешка ще местим. Посоката е up&left, което означава, че ще взимаме по диагонал. Стъпката е 1, защото в тази посока не може повече.

В предишния свят фигурите бяха свойство на квадратчетата. Сега ще е обратното. При този вариант на света квадратчетата въобще не се споменават. Споменават се фигурите и техните координати са тяхно свойство, до което няма да е лесно да се стигне. Сега дъската ще е един абстрактен събитиен модел, чийто състояния въобще не се споменават.

Много трудно би било да се разбере така описаният свят, но никой не се учи да играе шах blind. Когато се учим ние използваме табло с фигури и учител, който ни обяснява как се движат фигурите. Започваме да играем blind чак когато вече знаем правилата. При хората трудността при играта blind идва от необходимостта да запомним позицията на таблото. Тук поставяме една много по-трудна задача и тя е да разберем правилата на играта на принципа проба и грешка. Решавайки тази по-трудна задача ние виждаме как можем да намираме абстрактни събитийни модели и да разбираме света.

12. Заключение

Тази статия ви казва как да създадете AGI, но не бързайте да го правите. ИИ не е поредната стъпка от пътя, а това е последната стъпка. Преди да направите тази последна стъпка и да скочите в бездната на неизвестността помислете добре какъв ИИ искате да създадете. Прочетете статии като [9], в които се дискутира този въпрос.

References

[1] Dobrev, D. (2022) Language for Description of Worlds. Part 1: Theoretical Foundation. Serdica Journal of Computing 16(2), 2022, pp. 101-150.

[2] Dobrev, D. (2023) Language for Description of Worlds. Part 2: The Sample World. Serdica Journal of Computing 17(1), 2023, pp. 17-54.

[3] Marcus, G. (2025) Game over for pure LLMs. Even Turing Award Winner Rich Sutton has gotten off the bus. https://garymarcus.substack.com/p/game-over-for-pure-llms-even-turing.

[4] Hutter, M. (2000). A Theory of Universal Artificial Intelligence based on Algorithmic Complexity. arXiv:cs.AI/0004001 [cs.AI]

[5] Hutter, M. (2007) UNIVERSAL ALGORITHMIC INTELLIGENCE A mathematical top→down approach. In Artificial General Intelligence, 2007.

[6] Hernández-Orallo, J., Minaya-Collado, N. (1998). A formal definition of intelligence based on an intensional variant of Kolmogorov complexity. Proc. intl symposium of engineering of intelligent systems (EIS'98), February 1998, La Laguna, Spain (pp. 146–163). : ICSC Press.

[7] Dobrev, D. (2019) The IQ of Artificial Intelligence. Serdica Journal of Computing, Vol. 13, Number 1-2, 2019, pp.41-70.

[8] Dobrev, D. (2024) Description of the Hidden State of the World. viXra:2404.0075.

[9] Dobrev, D., Ivanov, L., Popov, G., Tzanov, V. (2024) How Can We Make AI with a Nice Character? viXra:2408.0087.