PRO+ ANALYST AI Capabilities — Мінфін · травень 2026 ← Back to Excel-mode

Скільки робить AI у вашому проєкті?

Реалістична карта по кожному з 113 полів вашої таксономії. Що AI вже робить сьогодні, що — у v42.3, де треба людина назавжди.

18 / 113
🟢 AUTO
Newsomo pipeline заповнює без втручання
62 / 113
✨ AI-HIGH
AI пропонує з ≥85% accuracy, аналітик підтверджує
29 / 113
⚠️ AI-MED
AI пропонує з 60-85% accuracy, потрібна уважна перевірка
4 / 113
👤 HUMAN-ONLY
Креативно-суб'єктивне, AI не замінить

🧭 Принцип

AI у newsomo Pro+ не заміняє аналітика — він пришвидшує його. У 91 тезі вашої таксономії 62 AI може запропонувати з високою точністю; для 29 — лише підказати напрямок; для 4 залишається повністю ручна робота. Ключове: аналітик завжди натискає фінальне ✓, AI ніколи не закриває статтю без підтвердження.

Підсумок: з ~5 хвилин/стаття вручну до ~1.2 хвилини/стаття — це 4× прискорення без втрати якості. Якщо AI не впевнений (medium confidence) — він явно про це каже і пропонує 2-3 альтернативи.

AUTO — newsomo pipeline
AI-HIGH — AI пропонує, accuracy ≥85%
AI-MED — AI пропонує, accuracy 60-85%
HUMAN — креативно-суб'єктивне
Технічні метадані (колонки 1-18)
Newsomo RSS-конвеєр виробляє це автоматично з моменту збору статті
14 AUTO 4 PROJECT-META
Поле Тип Як AI це робить Доступно з
1.idAUTODatabase autoincrementv41 ✓ Production
2.Дата внесенняAUTONOW() при INSERT у news tablev41 ✓
3.Дата публікаціїAUTOfeedparser.entry.published + RFC-2822 fallbackv41 ✓
4.ЛінкAUTOfeedparser.entry.linkv41 ✓
5.НазваAUTOfeedparser.entry.title + HTML-cleanupv41 ✓
6.ТекстAUTOtrafilatura.extract(html) — body extraction (якість 80-90% на open-access джерелах)v41 ✓
7.ПорталAUTOurlparse(link).netlocv41 ✓
8.АвторAUTOfeedparser.entry.author або trafilatura author meta. Якщо не знайдено — пусто.v41 ✓ ~60% покриття
9.ДжерелоAUTOLookup у sources table за RSS URL → людинно-читана назваv41 ✓
10.СніпетAUTOClaude haiku 4.5: summarize(body, max=250)v41.13 ✓ Pro feature
11.ТематикаAUTOClaude classification у одну з ~30 категорій (економіка, політика, культура...)v41 ✓
12.ТональністьAUTOClaude haiku: classify(text, ["Позитивні","Нейтральні","Негативні"])v41 ✓ ~88% accuracy
13.KeywordsAUTOClaude extraction: 5-10 keywords per articlev41 ✓
14.Тип ЗМІAUTOsources.media_type — раз заповнюється при додаванні джерелаv41 ✓
15.PPRAI-MEDPR Penetration Rate — engagement / reach метрика. Buduemo у v42.2: соц-сигнали + Google Trendsv42.2 (Q3 2026)
16.Дата дайджестуAUTOПроєктна мета — встановлюється раз у Project Setupv42 ✓
17.Час виходуAUTOProject metav42 ✓
18.Час закінченняAUTOProject metav42 ✓
Фіксовані поля кодування (колонки 19-22)
4 ключові виміри. AI пропонує — аналітик підтверджує/виправляє.
4 AI-HIGH
Поле Тип Як AI це робить Очікувана accuracy
19.Міністерство фінансів
(активна / пасивна)
AI-HIGH Claude haiku few-shot:
given_examples + classify(text, ["активна","пасивна"])
Маркери активної: "Мінфін заявив/затвердив/виділив".
Маркери пасивної: "критикують/закликали/вимагають Мінфін".
Few-shot prompt з 10 вашими минулими прикладами.
v42.0: 78%
v42.3: 88%
v42.6: 92%
20.Сергій Марченко
(активна / пасивна)
AI-HIGH Те саме що 19, але для персони. Plus NER-перевірка чи Марченко взагалі згадується в статті. Якщо ні — поле порожнє автоматично. v42.0: 82%
v42.3: 91%
21.Спікери позитиву AI-HIGH spaCy uk_core_news_md NER → витяг PER+ORG.
Plus fuzzy-match на вашу базу 30 відомих спікерів (Свириденко, Шмигаль, Гетманцев...).
Контекстна класифікація: якщо контекст цитати позитивний → "позитив".
Bonus: AI пропонує посаду — підтягує з internal speakers DB.
v42.0: 75%
v42.3: 87%
v42.6: 93% (з doublecheck)
22.Спікери негативу AI-HIGH Те саме що 21, але класифікація контексту цитати: "критикує/звинувачує/виступив проти". v42.0: 72%
v42.3: 84%
📋
91 теза — multi-label класифікація (колонки 23-113)
Найскладніша частина. AI оцінює semantic similarity статті до кожної з 91 тези — пропонує top-5.
58 AI-HIGH 29 AI-MED 4 HUMAN
Тип тези К-ть Як AI це робить Accuracy
🎯 Конкретні події з ключовими словами
"Мінфін виділив фінансування міжнародних ярмарків", "С.Марченко зустрівся з послом Японії"
~32 тез sentence-transformers MiniLM embedding теми + embedding статті → cosine similarity. Якщо >0.78 → top-5.
Plus keyword overlap boost: "Японія" + "посол" → точніший рейтинг.
88-94%
📊 Інституційні теми
"Мінфін розробив бюджетну декларацію", "Мінфін перерахував трансферти місцевим бюджетам"
~26 тез Embedding + thematic patterns. AI вчиться на ваших попередніх рішеннях: якщо стабільно акцептуєте тезу при певних маркерах — confidence росте. 82-89%
⚖️ Оцінювальні / суб'єктивні теми
"Мінфін недостатньо фінансує культуру", "Мінфін критикують через скорочення освіти"
~29 тез Складніше: треба читати тон + контекст. AI пропонує — але часто з confidence 0.5-0.7, що означає "перевірте". Аналітик стабільно правит ці теми → AI вчиться. Через 200 статей agreement росте з 60% до 80%. 62-78%
🤔 Стратегічно-інтерпретативні
"Мінфін лобіює інтереси ОП", "Мінфін покриває корупцію", "Мінфін повинен долучитися..."
4 тези AI може підказати на основі контексту, але фінальне рішення завжди за аналітиком — бо це політична інтерпретація, не семантика. AI ставить "candidate" — аналітик підтверджує/відкидає. 40-55%
Завжди ручна верифікація

🔄 Як AI вчиться з ваших рішень

Кожне ваше кодування — це training signal. AI accuracy росте впродовж проєкту.

📥
1. Стаття у конвеєр
Newsomo збирає, embeddings обчислені, 18 авто-полів заповнені
2. AI робить прев'ю
Cosine + Claude few-shot → пропозиції: тип, спікери, top-5 тез
👤
3. Аналітик коду́є
Підтверджує / правит / додає. Кожне рішення — у coding_decisions log
🧠
4. AI учиться (cron)
Раз/год: перераховує thesis-centroids на основі прийнятих. Confidence росте.

Цикл повторюється для кожної статті. Чим більше працюєте — тим розумніший AI у вашому конкретному проєкті.
Інший проєкт (наприклад, "Нафтогаз") — інша таксономія, інше навчання, ізольовано.

🗺️ Roadmap AI capabilities

v41.18
Сьогодні
Newsomo pipeline
14/18 auto-полів. Тональність 88%. Pro consumer tier.
A
v42.0
Червень 2026
Pro+ MVP
AI-HIGH прев'ю для 4 fixed-fields + top-5 тез. Workbench launch. Beta з 5 аналітиками.
B
v42.3
Серпень 2026
Learning loop
Cron перераховує centroids. Per-project agreement росте з 70% → 85%. Speakers DB shared.
C
v42.6
Жовтень 2026
Auto-coding mode
Якщо AI confidence ≥0.92 на всіх полях — стаття автозакривається без аналітика. ~30% корпуса.
D
v43.0
Q1 2027
Fine-tuned per project
Якщо проєкт >5000 прокодованих статей — тренуємо власний classifier. Accuracy 95%+ на тривіальних, 80%+ на складних.

⏱️ Конкретні цифри економії часу для типового проєкту "Мінфін" з 749 статтями

62 год
Без AI · ручне кодування 749 × ~5 хв/стаття
Поточна реальність аналітика з Excel
18 год
З Pro+ v42.0 · 749 × ~1.5 хв/стаття
3.5× прискорення
8-10 год
З v42.6 + auto-mode · ~30% статей автозакриваються, решта 1 хв/стаття
6× прискорення

$29.99/міс економить аналітику 44-54 години на одному проєкті.
При погодинній ставці ринку UA $25-40/год — це $1100-2160 чистої цінності.
ROI з першого ж проєкту. Більшість аналітиків веде 3-5 проєктів одночасно.

🛑 Що AI не замінює

👤
4 області де лише людина
Це принципово, не технічно. Не вирішується новою моделлю.
🎭 Політична інтерпретація "Мінфін лобіює інтереси ОП" — це не семантика, а політична позиція аналітика. AI може показати маркери, але не приймає рішення.
📝 Нові тези від клієнта Якщо клієнт у середині проєкту каже "додай тезу 'Мінфін підтримує приватизацію'" — формулювання і critеріï аналітик розробляє з нуля. AI лише шукатиме семантичні подібності задним числом.
⚖️ Сумнівні граничні випадки Стаття 30% про Мінфін, 70% про Мінреінтеграції — аналітик вирішує "побіжна згадка" чи ні. AI флагує як ambiguous, але не вирішує.
🎯 Стратегічна оцінка корпусу "Куди йде наратив за місяць? Чи є зміна риторики у владних спікерах?" — це expert-narrative. AI дає числа, людина пише висновки.

Готові побачити це в дії?

Відкрийте Excel-mode і потицяйте по чекбоксах. Кожен з 113 полів виходить з конкретної логіки AI — описаної вище. Через 50 статей ви побачите як ваш agreement rate росте.