هوش مصنوعی

عامل‌های هوش مصنوعی در مهندسی داده – ظهور استانداردها و اکوسیستم مهارت‌ها🤖

این مطلب، بخش اول از یک مقاله سه قسمتی درباره نقش ایجنت‌های هوش مصنوعی (AI Agents) در مهندسی داده است. در این بخش به مفاهیم پایه، استانداردها و اکوسیستم فعلی می‌پردازیم. در بخش‌های دوم و سوم، وارد کدهای عملیاتی و نحوه استفاده روزمره از این ابزارها در محیط کار خواهیم شد.

هوش مصنوعی در سال ۲۰۲۶ به بلوغ اولیه و پذیرش سازمانی رسیده است. طی دو سال گذشته، از سیستم‌های مبتنی بر مدل‌های زبانی بزرگ (LLM) به سامانه‌های مبتنی بر عامل‌های هوشمند رسیده‌ایم. در دنیای مهندسی داده هم همسو با این جریان، یک انقلاب خاموش در حال وقوع است: تبدیل ایده‌ مبهم «دستیار هوشمند» به ابزارهای کاربردی و قابل استفاده مجدد که می‌توانند کوئری‌ها را بهینه‌سازی کنند، ساختار دیتابیس‌ها را طراحی کنند و پایپ‌لاین‌های داده را مدیریت نمایند. بیایید این گرایش سال را دقیق‌تر با هم بررسی کنیم.

از چت‌بات‌ها تا ایجنت‌هایی که واقعا کار می‌کنند!

برای درک بهتر نحوه کار ایجنت‌ها، بیایید به مشکل چت‌بات‌های اولیه نگاه کنیم. دستیارهای اولیه در توضیح دادن مفاهیم (مثلاً انواع JOIN در SQL) عملکرد خوبی داشتند، اما نمی‌توانستند کارها را در محیط واقعی شما انجام دهند.

دلیل این امر ساده است : یک ایجنت هوش مصنوعی به خودی خود نمی‌تواند مستقیماً به یک ابزار خارجی (مثل دیتابیس شما) متصل شود. برای این کار، ما به یک رابط، یک کانکتور و یک زبان استاندارد نیاز داریم تا ایجنت بتواند با دنیای بیرون ارتباط برقرار کند.

اینجا سه مفهوم کلیدی وارد میدان می‌شوند:

  • پروتکل ارتباطی و ابزارها (MCP): از آنجا که ایجنت نمی‌تواند مستقیم به دیتابیس وصل شود، به یک پل ارتباطی نیاز دارد. پروتکل Model Context Protocol (MCP) دقیقاً همین کار را بر عهده می‌گیرد. این پروتکل یک استاندارد باز است که به عنوان یک کانکتور عمل می‌کند و به ایجنت اجازه می‌دهد به ابزارهای خارجی متصل شود و کارهایی مثل «اجرای یک کوئری» یا «خواندن یک فایل از سرور» را انجام دهد.
  • – فریم‌ورک‌های ایجنت: هماهنگ‌کننده‌هایی مانند LangChain یا AutoGen که حافظه و برنامه‌ریزی ایجنت را مدیریت می‌کنند تا بداند در حال انجام چه کاری است.
  • – مهارت‌های ایجنت (Skills): حالا فرض کنید ایجنت به کمک MCP به دیتابیس متصل شد؛ از کجا باید بداند که چطور یک کار کاملاً تخصصی را انجام دهد؟ مثلاً چگونه ایندکس‌های PostgreSQL را بهبود دهد یا چه ساختاری برای طراحی دیتابیس ClickHouse مناسب‌تر است؟ اینجاست که ما با فایل‌های مهارت (معمولاً با فرمت skill.md) به کمک ایجنت می‌آییم. در این فایل‌ها، ما دستورالعمل‌های تخصصی را تعریف می‌کنیم و به ایجنت می‌گوییم: «اگر کاربر دنبال اصلاح ایندکس‌هاست، دقیقاً باید این مراحل را طی کنی».

نگاهی گذرا به ساختار یک مهارت (Skill)

برای اینکه تصور بهتری از یک “مهارت” داشته باشید، در اینجا بخش کوچکی از یک فایل skill.md برای بهینه‌سازی دیتابیس را می‌بینیم (در بخش دوم به طور مفصل به آن خواهیم پرداخت):


name: postgres-fast-tuning
description: Detect and resolve common slow query issues in PostgreSQL
---
**Role:** You are a senior data engineer with deep expertise in Postgres optimization.

**Step 1:** First, call the database MCP tool and execute the query with `EXPLAIN ANALYZE`.
**Step 2:** If you observe a `Sequential Scan` on large tables, suggest creating an Index.

حالا این فایل‌های مهارت که خلاصه و یا برگه‌های تقلب مهندسی داده در زمینه های مختلف هستند را از کجا پیدا کنیم ؟‌

دو مرجع تخصصی برای یافتن و مرور اسکیل‌ها

با گسترش این مفاهیم، مکان‌هایی برای اشتراک‌گذاری این مهارت‌ها شکل گرفته‌اند. در حال حاضر دو مرجع تخصصی اصلی (دو وب سایت) برای یافتن و مرور اسکیل‌ها وجود دارند:

✨ – سایت skill.sh: توسط Vercel در اوایل سال ۲۰۲۶ راه‌اندازی شد و یک هاب مرکزی برای کشف و نصب مهارت‌های استاندارد است.
✨ – سایت agentskill.sh: یک مرجع تخصصی تحت مدیریت جامعه کاربری (Community-curated) که در حال حاضر شامل بیش از ۵۴۶ مهارت مختص کارهای مهندسی داده است.

🔍 کشف گنجینه‌ای از مهارت‌ها در مراجع تخصصی

با جستجو در مراجعی مانند skill.sh و agentskill.sh به مهارت‌های متنوعی در حوزه مهندسی داده برمی‌خوریم. هم‌اکنون پروژه‌های برجسته‌ای در این پلتفرم‌ها حضور دارند که هر کدام برای یک کار تخصصی و رفع چالشهای روزانه مدیریت داده‌ها طراحی شده‌اند :

  • 🔹 مهارت clickhouse-io: برای پیاده‌سازی بهترین روش‌ها (Best Practices) در بارهای کاری تحلیلی و تیونینگ حرفه‌ای دیتابیس ClickHouse.
  • 🔹مهارت spark-optimization: جهت بهینه‌سازی عملکرد آپاچی اسپارک (شامل مفاهیم پیچیده‌ای مثل پارتیشن‌بندی استاندارد، کش کردن و مدیریت بهینه Shuffle).
  • 🔹مهارت airflow-dag-patterns: برای پیاده‌سازی الگوهای DAG پایدار، مطمئن و آماده برای محیط واقعی (Production).
  • 🔹 مهارت dbt-transformation-patterns: برای سازماندهی اصولی مدل‌ها، معماری تست‌نویسی و استراتژی‌های افزایشی (Incremental).
  • 🔹مهارت supabase-postgres-best-practices: جهت بهبود چشمگیر عملکرد، ارتقای امنیت و طراحی صحیح اسکیما در پستگرس.

🚀 حضور بازیگران بزرگی مثل ClickHouse، dbt، Supabase و DataHub در این پلتفرم‌ها نشان می‌دهد که توسعه این مهارت‌های اختصاصی دیگر یک آزمایش سرگرم‌کننده نیست، بلکه مسیر قطعی آینده صنعت مهندسی داده است.

💡این موضوع برای مهندسان داده چه معنایی دارد؟

نقش مهندس داده به سرعت در حال تغییر از “نوشتن دستی تمامی اسکریپت‌ها” به “گزینش، ترکیب و اعتبارسنجی” مهارت‌های ایجنت‌ها است. به زودی شما زمان بیشتری را صرف تعریف گاردریل‌ها (Guardrails – چارچوب‌های ایمنی) و تست خروجی‌ها خواهید کرد تا درگیری با کدهای تکراری و بهینه‌سازی‌های سطح پایین.

پدیده جذاب ماجرا اینجاست: دانشی تخصصی که زمانی تنها در ذهن یک مهندس داده ارشد (Senior Engineer) قفل شده بود، حالا قابل استفاده مجدد شده است!
خود این فایل‌های تشریح مهارت (skill.md) یک رفرنس و راهنمای بسیار مفید و خلاصه برای مهندسان هستند. حتی اگر از ایجنت‌های هوش مصنوعی استفاده نکنید، خواندن یک فایل اسکیل که توسط متخصصان همان دیتابیس نوشته شده، دقیقاً مانند در دست داشتن یک چک‌لیست طلایی برای انجام بی‌نقص تسک‌های روزمره است. 🥇

نکته: در یک سال گذشته، مطالب بسیار زیادی درباره دو ضلع دیگر توسعه عامل‌های هوشمند (یعنی MCP Serverها و فریم‌ورک‌ها) منتشر شده است. با توجه به تمرکز این نوشته بر موضوع بررسی و توسعه «مهارت‌های مرتبط با مهندسی داده»، در اینجا به آن دو مبحث نپرداختیم؛ اما تلاش می‌کنیم در نوشتارهای جداگانه، این موارد را نیز با نگاهی تخصصی به حوزه مهندسی داده، بسیار دقیق‌تر بررسی کنیم. 📌

🔜 در بخش دوم این نوشتار:
یک مهارت واقعی را کالبدشکافی خواهیم کرد: مهارت بهینه‌سازی عملکرد PostgreSQL از تیم Supabase. با ما همراه باشید!

ادامه مقاله در پست بعدی :‌http://bigdata.ir/?p=9045

مجتبی بنائی

دانشجوی دکترای نرم‌افزار دانشگاه تهران (yun.ir/smbanaie)، مدرس دانشگاه و فعال در حوزه توسعه نرم‌افزار و مهندسی داده که تمرکز کاری خود را در چند سال اخیر بر روی مطالعه و تحقیق در حوزه کلان‌داده و زیرساخت‌های پردازش داده و تولید محتوای تخصصی و کاربردی به زبان فارسی و انتشار آنها در سایت مهندسی داده گذاشته است. مدیریت پروژه‌های نرم‌افزاری و طراحی سامانه‌های مقیاس‌پذیر اطلاعاتی از دیگر فعالیتهای صورت گرفته ایشان در چند سال گذشته است.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

این سایت از اکیسمت برای کاهش جفنگ استفاده می‌کند. درباره چگونگی پردازش داده‌های دیدگاه خود بیشتر بدانید.

دکمه بازگشت به بالا