Реалістична карта по кожному з 113 полів вашої таксономії. Що AI вже робить сьогодні, що — у v42.3, де треба людина назавжди.
AI у newsomo Pro+ не заміняє аналітика — він пришвидшує його. У 91 тезі вашої таксономії 62 AI може запропонувати з високою точністю; для 29 — лише підказати напрямок; для 4 залишається повністю ручна робота. Ключове: аналітик завжди натискає фінальне ✓, AI ніколи не закриває статтю без підтвердження.
Підсумок: з ~5 хвилин/стаття вручну до ~1.2 хвилини/стаття — це 4× прискорення без втрати якості. Якщо AI не впевнений (medium confidence) — він явно про це каже і пропонує 2-3 альтернативи.
| Поле | Тип | Як AI це робить | Доступно з |
|---|---|---|---|
| 1.id | AUTO | Database autoincrement | v41 ✓ Production |
| 2.Дата внесення | AUTO | NOW() при INSERT у news table | v41 ✓ |
| 3.Дата публікації | AUTO | feedparser.entry.published + RFC-2822 fallback | v41 ✓ |
| 4.Лінк | AUTO | feedparser.entry.link | v41 ✓ |
| 5.Назва | AUTO | feedparser.entry.title + HTML-cleanup | v41 ✓ |
| 6.Текст | AUTO | trafilatura.extract(html) — body extraction (якість 80-90% на open-access джерелах) | v41 ✓ |
| 7.Портал | AUTO | urlparse(link).netloc | v41 ✓ |
| 8.Автор | AUTO | feedparser.entry.author або trafilatura author meta. Якщо не знайдено — пусто. | v41 ✓ ~60% покриття |
| 9.Джерело | AUTO | Lookup у sources table за RSS URL → людинно-читана назва | v41 ✓ |
| 10.Сніпет | AUTO | Claude haiku 4.5: summarize(body, max=250) | v41.13 ✓ Pro feature |
| 11.Тематика | AUTO | Claude classification у одну з ~30 категорій (економіка, політика, культура...) | v41 ✓ |
| 12.Тональність | AUTO | Claude haiku: classify(text, ["Позитивні","Нейтральні","Негативні"]) | v41 ✓ ~88% accuracy |
| 13.Keywords | AUTO | Claude extraction: 5-10 keywords per article | v41 ✓ |
| 14.Тип ЗМІ | AUTO | sources.media_type — раз заповнюється при додаванні джерела | v41 ✓ |
| 15.PPR | AI-MED | PR Penetration Rate — engagement / reach метрика. Buduemo у v42.2: соц-сигнали + Google Trends | v42.2 (Q3 2026) |
| 16.Дата дайджесту | AUTO | Проєктна мета — встановлюється раз у Project Setup | v42 ✓ |
| 17.Час виходу | AUTO | Project meta | v42 ✓ |
| 18.Час закінчення | AUTO | Project meta | v42 ✓ |
| Поле | Тип | Як AI це робить | Очікувана accuracy |
|---|---|---|---|
| 19.Міністерство фінансів (активна / пасивна) |
AI-HIGH | Claude haiku few-shot:given_examples + classify(text, ["активна","пасивна"])Маркери активної: "Мінфін заявив/затвердив/виділив". Маркери пасивної: "критикують/закликали/вимагають Мінфін". Few-shot prompt з 10 вашими минулими прикладами. |
v42.0: 78% v42.3: 88% v42.6: 92% |
| 20.Сергій Марченко (активна / пасивна) |
AI-HIGH | Те саме що 19, але для персони. Plus NER-перевірка чи Марченко взагалі згадується в статті. Якщо ні — поле порожнє автоматично. | v42.0: 82% v42.3: 91% |
| 21.Спікери позитиву | AI-HIGH | spaCy uk_core_news_md NER → витяг PER+ORG.Plus fuzzy-match на вашу базу 30 відомих спікерів (Свириденко, Шмигаль, Гетманцев...). Контекстна класифікація: якщо контекст цитати позитивний → "позитив". Bonus: AI пропонує посаду — підтягує з internal speakers DB. |
v42.0: 75% v42.3: 87% v42.6: 93% (з doublecheck) |
| 22.Спікери негативу | AI-HIGH | Те саме що 21, але класифікація контексту цитати: "критикує/звинувачує/виступив проти". | v42.0: 72% v42.3: 84% |
| Тип тези | К-ть | Як AI це робить | Accuracy |
|---|---|---|---|
| 🎯 Конкретні події з ключовими словами "Мінфін виділив фінансування міжнародних ярмарків", "С.Марченко зустрівся з послом Японії" |
~32 тез | sentence-transformers MiniLM embedding теми + embedding статті → cosine similarity. Якщо >0.78 → top-5. Plus keyword overlap boost: "Японія" + "посол" → точніший рейтинг. |
88-94% |
| 📊 Інституційні теми "Мінфін розробив бюджетну декларацію", "Мінфін перерахував трансферти місцевим бюджетам" |
~26 тез | Embedding + thematic patterns. AI вчиться на ваших попередніх рішеннях: якщо стабільно акцептуєте тезу при певних маркерах — confidence росте. | 82-89% |
| ⚖️ Оцінювальні / суб'єктивні теми "Мінфін недостатньо фінансує культуру", "Мінфін критикують через скорочення освіти" |
~29 тез | Складніше: треба читати тон + контекст. AI пропонує — але часто з confidence 0.5-0.7, що означає "перевірте". Аналітик стабільно правит ці теми → AI вчиться. Через 200 статей agreement росте з 60% до 80%. | 62-78% |
| 🤔 Стратегічно-інтерпретативні "Мінфін лобіює інтереси ОП", "Мінфін покриває корупцію", "Мінфін повинен долучитися..." |
4 тези | AI може підказати на основі контексту, але фінальне рішення завжди за аналітиком — бо це політична інтерпретація, не семантика. AI ставить "candidate" — аналітик підтверджує/відкидає. | 40-55% Завжди ручна верифікація |
Кожне ваше кодування — це training signal. AI accuracy росте впродовж проєкту.
coding_decisions log
Цикл повторюється для кожної статті. Чим більше працюєте — тим розумніший AI у вашому конкретному проєкті.
Інший проєкт (наприклад, "Нафтогаз") — інша таксономія, інше навчання, ізольовано.
$29.99/міс економить аналітику 44-54 години на одному проєкті.
При погодинній ставці ринку UA $25-40/год — це $1100-2160 чистої цінності.
ROI з першого ж проєкту. Більшість аналітиків веде 3-5 проєктів одночасно.
| 🎭 Політична інтерпретація | "Мінфін лобіює інтереси ОП" — це не семантика, а політична позиція аналітика. AI може показати маркери, але не приймає рішення. | ||
| 📝 Нові тези від клієнта | Якщо клієнт у середині проєкту каже "додай тезу 'Мінфін підтримує приватизацію'" — формулювання і critеріï аналітик розробляє з нуля. AI лише шукатиме семантичні подібності задним числом. | ||
| ⚖️ Сумнівні граничні випадки | Стаття 30% про Мінфін, 70% про Мінреінтеграції — аналітик вирішує "побіжна згадка" чи ні. AI флагує як ambiguous, але не вирішує. | ||
| 🎯 Стратегічна оцінка корпусу | "Куди йде наратив за місяць? Чи є зміна риторики у владних спікерах?" — це expert-narrative. AI дає числа, людина пише висновки. | ||
Відкрийте Excel-mode і потицяйте по чекбоксах. Кожен з 113 полів виходить з конкретної логіки AI — описаної вище. Через 50 статей ви побачите як ваш agreement rate росте.