openclaw-llm-actions

Як OpenClaw перетворює LLM на реальні дії

24 лютого 2026 р.

Автор: Олександр Пєхота, провідний інженер-програміст компанії Teaching Strategies

Вступ

OpenClaw здобув репутацію Джарвіса, який робить усе за тебе. Це справді магія, чи за цим стоїть певна логіка, яку можна пояснити?

У цій статті ми спробуємо в цьому розібратися. Наша мета: коротко оглянути концепції, які сьогодні доступні під час роботи з сучасними LLM (Large Language Models), і показати, як ці концепції інтегровані в архітектуру OpenClaw. На прикладі реального запиту ми простежимо всі точки, через які проходить запит, і як дані передаються до фінальної цілі.

Ми звикли використовувати популярні LLM (такі як Chat GPT, Gemini, Claude тощо) для виконання різних завдань. Це можуть бути пояснення певної концепції, підсумовування статей, витяг даних із PDF, аналіз таблиць тощо. Проте наш стандартний користувацький досвід зазвичай обмежений обраним вендором (наприклад, ChatGPT від OpenAI), типом підписки (Free, Pro, Max) або окремими функціями — такими як Browser Atlas від OpenAI, Claude Code, CLI-інструменти тощо. Існують і більш просунуті інструменти. Як приклад візьмемо ChatGPT від OpenAI — там є кілька цікавих можливостей. Наприклад, Codex дозволяє підключити модель до вашого GitHub-репозиторію та виконувати code review під час кожного pull request, або ж використовувати deep research для глибокого дослідження теми й збирання даних. Але варто зазначити, що всі ці додаткові можливості по суті є розширеннями поверх існуючих LLM-рішень. Тож у чому ж унікальність OpenClaw, яка зробила його таким популярним?

Ми могли б повторювати ті самі концептуальні терміни, що й багато інших статей, описуючи OpenClaw, але для людини, яка ніколи не користувалася AI-інструментами, це все одно залишиться не до кінця зрозумілим. Тому спочатку варто підсвітити кілька базових концепцій на прикладі ChatGPT:

Дата знань (knowledge cut-off) і prompt engineering?

Дані навчання LLM зафіксовані — користувачі не можуть напряму їх змінювати. Не вірите? Запитайте модель: «What is the knowledge cut-off date?». Цікаво? Якщо базові знання зафіксовані, то як тоді Chat GPT може повідомити поточну погоду? Або як це працює, коли ми просимо намалювати зображення, і модель раптом починає рендерити картинку замість текстового опису?

Знову ж таки, знання моделі обмежені даними, на яких її навчали, і це інформація лише до певної дати. Ми ніяк не можемо на це вплинути. Але ми можемо надати моделі додатковий контекст для роботи. Ми можемо описати проблему, завантажити файли, надати дослідницькі дані, пояснити, як діяти в тому чи іншому сценарії. Більше того, під час розв’язання мовних або технічних задач ми можемо передати приклади того, як би ми самі вирішували подібні питання. Таким чином, ми допомагаємо моделі ефективніше працювати з нашим конкретним запитом.

Джерело зображення: https://platform.claude.com/docs/en/about-claude/models/overview

Токени та контекстне вікно

Але ви не можете просто надіслати свою домашню бібліотеку зі 100 книг і сказати: прочитай усе це та будь таким же розумним, як я :)

Коли ви надсилаєте повідомлення моделі, вона обробляє текст як токени — це типові послідовності символів, що зустрічаються в текстах. Є зручний інструмент, який допоможе це зрозуміти: https://platform.openai.com/tokenizer. Пограйтеся з ним, щоб краще відчути концепцію токенів. Кожна модель має обмеження контекстного вікна — це обсяг даних, які модель може «пам’ятати». Якщо перевищити цей ліміт, модель почне «забувати» інформацію, яку ви надіслали на початку. Саме тому в довгих діалогах модель іноді забуває інструкції, озвучені раніше.

Джерело зображення: https://developers.openai.com/api/docs/guides/conversation-state

Довгострокова пам’ять і RAG

«Стоп, але ж я бачив онлайн-агентів або чат-ботів, які нібито знають більше, ніж дозволяє їхнє контекстне вікно. Як це можливо?» — можете запитати ви.

Щоб досягти такого результату, інженери створюють різні обхідні рішення. На щастя, більшість таких інструментів уже вбудована на рівні платформ. Коли користувач надсилає конкретний запит, система визначає контекст, робить окремий запит для витягування релевантних даних зі сховища (часто з векторної бази даних) і додає ці дані до prompt. Додаткові дані можуть бути персональними (історія пошуку, вподобання користувача) або доменними (специфічна інформація для певної галузі).

Function calling

Під час роботи з моделлю через браузерний інтерфейс, наприклад, ChatGPT, це неочевидно, адже UI виконує все «за лаштунками». Але якщо ви напряму працюєте з ChatGPT API, можна побачити доволі цікаву поведінку. Коли модель отримує запит, на який вона не знає відповіді (наприклад, поточна погода в Парижі), вона може повернути структурований запит типу get_weather з параметром Paris. Код клієнта сприймає це як виклик функції, робить окремий веб-запит, отримує температуру в Парижі й передає результат назад моделі. Після цього модель формує природну відповідь, наприклад: «The weather in Paris is cold» або «rainy».

Комбінуючи такі функції, можна створювати дуже складну поведінку. Наприклад, ChatGPT може шукати веб-сторінки, малювати зображення, аналізувати файли в межах одного застосунку, але за лаштунками виконуються різні процеси.

Model Context Protocol (MCP)

Хоча function calling — дуже потужна концепція, вона все одно потребує спроєктованого, розробленого та розгорнутого інтеграційного шару. У масштабі це створює багато проблем. Щоб їх вирішити, у 2024 році компанія Anthropic представила Model Context Protocol (MCP). Це універсальний відкритий стандарт для підключення AI-систем до джерел даних, який замінює фрагментовані інтеграції єдиним протоколом. Результат — простіший і надійніший спосіб надання AI доступу до потрібних даних. Разом із протоколом Anthropic надали багато SDK, що спростило створення повторно використовуваних конекторів для підключення моделей до систем — таких як бази даних (PostgreSQL), хмарні сервіси (AWS), десктопні застосунки (Apple Calendar) та багато інших:
https://github.com/modelcontextprotocol/servers

Джерело зображення: https://www.thinkstack.ai/glossary/model-context-protocol/

Занурення в OpenClaw

Тут ми можемо почати говорити про OpenClaw.

У своїй основі OpenClaw — це процес CLI на Typescript, який працює на вашому комп’ютері. Цей процес відкриває gateway-сервер — по суті, ядро застосунку. Уявіть це як програму, що працює у фоновому режимі на вашій машині та здатна виконувати різні завдання. Але назвати це просто gateway було б занадто спрощено.

Перший компонент gateway, який варто згадати, — це Channels або Chat Channels:
https://docs.openclaw.ai/channels

Це ваш інтерфейс взаємодії з OpenClaw. Вам не потрібен складний UI (хоча веб-інтерфейс і companion-застосунки є 🙂), адже ви можете надсилати запити через улюблений месенджер — Telegram, WhatsApp тощо. Функція Channels дозволяє підключити підтримувані месенджери, такі як Telegram, Discord, WhatsApp, і отримати прямий доступ до всіх можливостей OpenClaw.

Оскільки це «The AI that actually does things», він має підтримувати сучасні LLM — як ви вже здогадалися. Список підтримуваних моделей великий. Інструмент підтримує практично всі сучасні моделі, включно із self-hosted. Тобто ви можете використовувати Claude, ChatGPT або навіть Llama.

Але чим це відрізняється від будь-якого іншого месенджер-агента з конектором до ChatGPT? Gateway, про який ми говорили, — це програма, що працює на вашій машині й має ті самі дозволи, що й користувач, під яким вона запущена. Це означає, що gateway може надіслати ваш запит AI-моделі, а потім виконати запропоновані дії через інструменти, які ви дозволили на своєму комп’ютері.

Але зачекайте… Ми говоримо про веб-пошук, запуск застосунків, періодичну перевірку inbox тощо. Як LLM може це робити? Усе це можливо завдяки згаданому вище Model Context Protocol. Якщо ви створите відповідний міст, який дозволить ChatGPT або Claude керувати вашим Gmail, модель зможе генерувати відповідні запити до інструментів.

OpenClaw має перелік інструментів «із коробки»:
Exec — для виконання команд у терміналі,
WebTool — для пошуку інформації в інтернеті,
BrowserControl — через розширення Chrome тощо:
https://openclaw.ai/integrations

Усі вони інтегровані через той самий MCP-протокол.

А що з тими відео, які ви бачили в інтернеті? Перераховані інструменти — лише базові приклади. Можливості не обмежуються цим. Існує величезна кількість застосунків і функцій, які можна інтегрувати, але ресурси dev-команди не безмежні. Тому вони запустили https://clawhub.ai/ і фактично перетворили OpenClaw на платформу, де можна підключити практично будь-який інструмент із реалізованим MCP-протоколом: Trello, Slack, Zoho, Philips Hue, системи розумного дому. Не знайшли потрібного — можете розробити власну інтеграцію.

А якщо ви хочете, щоб він щось перевіряв регулярно? Потрібно писати йому кожні 30 хвилин? Ні. Gateway має вбудований планувальник, який може автоматично запускати завдання за заданими інтервалами — наприклад, щогодини. Коли ви просите застосунок виконувати щось регулярно, він зберігає інструкцію та виконує її за встановленим розкладом. Наприклад, може щогодини перевіряти ціну монети, порівнювати її з вашим target-рівнем і надсилати алерт, якщо поріг досягнуто.

Пам’ять? Так, інструкції, контекст, розмови мають десь зберігатися, щоб застосунок діяв правильно. Детальніше тут:
https://docs.openclaw.ai/concepts/memory#memory

Головне: пам’ять OpenClaw — це звичайний Markdown у робочому просторі агента. Файли — це джерело істини; модель «пам’ятає» лише те, що записано на диск. Усвідомивши це, ви можете відстежити файли та зрозуміти, як усе працює за лаштунками — як структуруються ваші дані та як вони використовуються у взаємодії з обраною LLM.

Джерело зображення: https://apidog.com/blog/openclaw-memory/

Архітектура OpenClaw в одному вигляді

Розбір реального кейсу — Whales AI Crypto Follower

Розглянемо приклад простого запиту, коли ми просимо OpenClaw зробити щось корисне.

Prerequisites:
Після встановлення OpenClaw потрібно підключити його до однієї з підтримуваних LLM. Ми вважаємо зручним використовувати codex agent API key (аналогічно можна використовувати будь-який інший codex-подібний LLM-застосунок), оскільки це дозволяє використовувати активну підписку без окремої оплати за LLM API.

Щоб надсилати повідомлення й взаємодіяти з gateway, потрібно налаштувати один із підтримуваних каналів: https://docs.openclaw.ai/channels

У нашому прикладі ми використовуємо Telegram-канал: https://docs.openclaw.ai/channels/telegram

На цьому етапі OpenClaw може обробляти ваші повідомлення через LLM і відповідати вам. Ви можете просто написати «hello» в Telegram і отримати відповідь від моделі. Але нам потрібно, щоб OpenClaw виходив в інтернет і шукав інформацію. Є кілька способів це реалізувати:

  1. Використати вбудовані web-інструменти OpenClaw: web_search і web_fetch. Це програмний спосіб отримання даних. Зверніть увагу, що це не автоматизація браузера. Використовуються зовнішні системи — наприклад, Brave Search API або Perplexity. Для вас це означає, що браузер на вашій машині не запускається, а виконуються запити до зовнішнього пошукового сервісу. Але для цього потрібен API-ключ: https://docs.openclaw.ai/tools/web#web-tools
  2. Альтернатива — автоматизація браузера через MCP. Ми вважаємо зручним використовувати Chrome Browser Extension: https://docs.openclaw.ai/tools/chrome-extension

Це один із найпростіших способів керувати браузером. До того ж ви можете залогінитися в потрібні сервіси та надати OpenClaw доступ до закритих розділів сайтів.

Коли всі prerequisites виконані, можна починати доручати агенту реальну роботу. Ви вільні комбінувати різні конектори — у цьому і полягає справжня сила для користувача.

Наприклад, якщо ми надсилаємо такий запит:

"Run an hourly BTC/ETH whale-flow check focused on major transfers and exchange flows. Use web sources/tools available (e.g., Whale Alert dashboard and reputable trackers). Return a concise update with: (1) top 3-5 notable flows in the last hour, (2) quick interpretation (risk-on/risk-off/neutral), (3) any actionable watch levels for BTC/ETH. If there is no meaningful flow, say "No major whale-flow change in the last hour." Keep it under 8 bullets."

FYI: вам не обов’язково формулювати настільки складний запит. Можна просто вести діалог і поступово уточнювати бажаний результат. Gateway автоматично поєднує історію розмови, пам’ять і деталі завдання перед відправленням запиту до моделі. Фінальний результат можна знайти у файлі jobs.json за шляхом приблизно ~/.openclaw/cron/jobs.json (може відрізнятися залежно від системи).

Повідомлення надсилається через Telegram-канал до gateway для обробки. Оскільки ми просимо виконувати дію регулярно, вона буде збережена як заплановане завдання. Після налаштування агент починає виконувати веб-запити або керувати браузером для збору потрібної інформації. Якщо ви хочете бачити сам процес дослідження на екрані, рекомендується використовувати автоматизацію браузера. Зверніть увагу: Brave API Search має ліміт запитів.

Фактичний результат виглядатиме приблизно так:



Цей приклад не є повноцінною торговою стратегією, оскільки для реальних криптодій потрібно враховувати значно більше параметрів, сервісів і факторів. Але для базового розуміння та першої автоматизації криптофлоу цього достатньо.

Дуже важливо підкреслити, що цей сценарій — read-only і не здійснює жодних реальних торгових операцій від вашого імені. Це ризикований напрям, оскільки деякі MCP-конектори можуть створювати ризики безпеки — наприклад, витік криптоключів або неефективність через галюцинації AI. Використовуйте це лише якщо розумієте, що робите, і будуйте складніші флоу з перевіреними та безпечними конекторами, а також із наглядом з вашого боку або додатковими AI-моделями для зниження ризику помилок.

На поверхні OpenClaw може виглядати як Джарвіс, але жодної магії тут немає, лише добре спроєктована архітектура. LLM забезпечують reasoning, gateway керує комунікацією, MCP підключає інструменти, планувальник запускає завдання, а пам’ять зберігає контекст. Коли всі ці елементи працюють разом, результат виглядає автономним, але насправді це структурований флоу: запит користувача → reasoning моделі → виконання інструменту → збереження стану → відповідь.

Сила OpenClaw не в містичності, вона в оркестрації.