AI Text Checker – Анализатор на SEO текстове с E-E-A-T, rewrite и humanization
Какво представлява този инструмент?
Проверявате текст с надеждата да разберете дали изглежда писан от човек или от AI. Очаквате ясен отговор, но... получавате процент. Е, това е AI Text Checker – инструмент, който не претендира за непогрешимост, но може да ви спести срам, флаг от Google или просто да покаже „къде ви куца“.
AI Text Checker е Python скрипт, който автоматично:
- извлича текст от Google Docs;
- извършва дълбок анализ по критерии за SEO и E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness);
- определя вероятността текстът да е генериран с AI;
- дава точни препоръки за подобрение;
- генерира пренаписан (rewrite) текст с хуманизация;
- визуализира резултатите чрез бар графики.
Всичко това – с един линк и един клик.
Важно е да разберете едно: това не е детектор на истината.
👉 Има текстове писани от човек, които ще получат резултат, че са генерирани с AI.
👉 Има AI текстове, които ще минат за „човешки“ с висока ангажираност и E-E-A-T.
Това не е грешка. Това е реалността на езиковите модели. Целта на скрипта не е да лепи етикети, а да ви помогне да направите текстовете си по-добри: по-убедителни, по-човешки, по-надеждни, да даде идеи, за които не сте се сетили.
За кого е полезен?
- SEO копирайтъри, които искат да дадат повече стойност на текстовете си;
- content мениджъри, които преглеждат статии от фрийлансъри или AI.
- хора, които използват AI за чернови, но искат човешко усещане.
Какъв модел използва скриптът по подразбиране?
model="gpt-4o"
Това е оптимизиран модел от серията GPT-4, който комбинира качество и бързо действие. Поддържа огромен обем токени и е в пъти по-ефективен от предишната версия gpt-4, като е и по-достъпен за повечето потребители на OpenAI API.
- temperature=0.5 – осигурява балансиран стил. Нито твърде креативен, нито прекалено монотонен. Перфектен за анализ и пренаписване с човешки елемент.
- max_tokens=2000 – достатъчно дълго, за да анализира и пренапише повечето средно дълги статии без прекъсване.
Скриптът е напълно отворен – можете да замените модела с:
- gpt-3.5-turbo – ако искате по-ниска цена и нямате нужда от нещо повече от по-общи резултати;
- gpt-4 – ако имате достъп и предпочитате малко по-подробни отговори;
- gpt-4o – най-добра стойност между цена и качество в момента.
Ако искате да направите анализа "по-строг“ или "по-разговорен“, просто настройте temperature между:
- 0.2 (по-точен, "по-официален“ тон);
- 0.7 (по-свободен, по-човешки стил).
Всичко това става чрез:
response = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": prompt_text}],
temperature=0.5,
max_tokens=2000
)
Можете да модифицирате скрипта според нуждите си – точно това го прави толкова полезен инструмент за напреднали SEO специалисти, копирайтъри и контент мениджъри.
Промптът
Една от най-силните страни на скрипта AI Text Checker е гъвкавият и напълно отворен prompt, който можете да редактирате според собствените си цели.
def build_analysis_prompt(text):
return f'''
🔍 Анализирай текста според най-добрите SEO и E-E-A-T практики:
...
✍️ Rewrite на текста с всички предложени подобрения:
...
Оригинален текст:
"""{text}"""
'''
Какво прави този промпт?
- Насочва модела да оцени вероятността за AI-генериране.
- Изисква специфичен анализ по четирите E-E-A-T категории (Experience, Expertise, Authoritativeness, Trustworthiness).
- Стимулира модела да даде конкретни препоръки за подобрение, а не просто общи съвети.
- Изисква емоционална ангажираност, rewrite и SEO ключови думи.
Всяка част на промпта може да бъде адаптирана. Например:
Ако искате... | Променете... |
Само технически анализ | Премахнете или намалете частта за емоционална ангажираност. |
По-човешки rewrite | Добавете инструкции за по-топъл и разговорен тон. |
По-строг SEO подход | Включете изискване за структура с подзаглавия и HTML тагове. |
Само вероятност за текст, генериран с AI | Можете да изрежете всичко освен точка 1. |
Промптът е интерфейсът между вас и модела. Колкото по-ясно и точно дефинирате какво искате, толкова по-полезен ще бъде резултатът. Това ви дава не просто анализатор, а персонализиран AI асистент, който следва вашия стил и нужди.
Как работи?
Въвеждате линк към Google Docs документ - става директно в Colab интерфейса, като можете да въведете един или повече линкове наведнъж.
Скриптът извлича съдържанието на документа, като използва Google Docs API, за да вземе чистия текст.
Подава текста към GPT-4o - създава персонализиран prompt, който инструктира модела да:
- оцени дали текстът е писан от човек или AI;
- анализира E-E-A-T компоненти (поотделно, с процентен резултат и обосновка);
- предложи конкретни подобрения;
- направи rewrite, добавяйки човешки елементи и допустими грешки;
След това се създава графика с AI вероятности, емоционална ангажираност и E-E-A-T оценка.
Как да го ползвате?
Изходният код е публично достъпен в GitHub
Можете да разгледате или изтеглите скрипта директно от GitHub:
Ако отворите скрипта през Colab, можете само да го разглеждате. За да го редактирате, натиснете: "File → Save a copy in Drive" – така ще го копирате в своя Google Drive и ще можете да го ползвате с OpenAI ключа си.
Стъпки за използване на скрипта
- Отворете Google Colab.
- Направете копие.
- Сменете OPENAI_API_KEY със своя:
Вижте как да го генерирате в това видео. - Скриптът се стартира от тук:
- Въведете един или повече линкове към Google Docs документи от тук:
Важно е да скролнете надолу до терминала. Ако искате повече от един документ, то трябва да ги разделите със запетая. - Анализирайте: след като въведете линк към документа в полето, просто натиснете Enter и ще видите резултатите в терминала.
Може да ви бъдат поискани достъпи – разрешете ги спокойно, за да може скриптът да извлича съдържание от Google Docs.
Възможна интеграция с други AI модели (Gemini, Claude и др.)
Въпреки че скриптът е базиран на OpenAI (gpt-4o), структурата му позволява лесна адаптация за използване с други LLM платформи като:
- Google Gemini (ex Bard) – чрез Google AI Studio и тяхното API;
- Anthropic Claude – чрез claude.ai и API ключ от console.anthropic.com;
- Mistral / Mixtral – чрез Hugging Face API или локално;
- Cohere, Aleph Alpha, Groq – всяка с публично API и документация.
За да интегрирате друг модел:
- Заменете функцията analyze_with_gpt4() със заявка към съответния API.
- Уверете се, че структурата на prompt и начина на извличане на резултата са съвместими.
- Адаптирайте max_tokens, temperature, headers, payload и endpoint.
Пример за подмяна с Gemini API (с requests библиотека) може да изглежда така:
import requests
def analyze_with_gemini(prompt_text):
endpoint = "https://generativelanguage.googleapis.com/v1beta/models/gemini-pro:generateContent?key=YOUR_API_KEY"
headers = {"Content-Type": "application/json"}
data = {
"contents": [{"parts": [{"text": prompt_text}]}]
}
response = requests.post(endpoint, headers=headers, json=data)
return response.json()['candidates'][0]['content']['parts'][0]['text']
Това означава, че скриптът не е "заключен" към OpenAI – можете да го използвате с всяка платформа, която предлага LLM API. Просто сменяте "двигателя", но запазвате логиката.
Освен това винаги можете да пуснете скрипта на AI и да му кажете какво точно искате и ще го имате за броени секунди, без да заменяте ръчно каквото и да е.
Скриптът е ваш, надградете го
AI Text Checker не е затворен инструмент – той е отправна точка. Всеки, който работи с текстове, SEO, съдържание или просто иска да тества ефекта на E-E-A-T принципите, може да го използва, променя и надгражда според своите нужди.
Можете да:
- смените модела (например от gpt-4o на gpt-3.5-turbo за по-ниска цена и по-бързи отговори);
- настроите температурите и max_tokens според обема на текстовете;
- разширите или опростите промпта за анализ;
- вградите допълнителни визуализации, таблици, PDF генериране и още.
Ако имате идеи за подобрения, нови метрики или искате да го интегрирате в по-голям SEO workflow – направете го! И споделете с общността. 🙂
Препоръчани нови статии