وب‌سرویس مجید

پروژه‌های متن‌باز | OpenSource Projects

این یک ابزار ساده و کاربردی برای خزنده وب در پایتون است که به توسعه‌دهندگان کمک می‌کند تا به راحتی داده‌های وب را جمع‌آوری کنند. کاربرد: این ابزار برای استخراج داده از صفحات وب طراحی شده و می‌تونه در پروژه‌های مختلفی مثل جمع‌آوری اطلاعات، تحلیل داده یا آموزش مدل‌های هوش مصنوعی استفاده بشه. در چه شرا ...

  • #web_crawler
  • #python
  • #data_scraping
  • #AI
  • #machine_learning
  • #data_analysis
  • #automation
  • #NLP
  • #open_source
  • #DataCrawlAI

این پروژه یک ابزار مبتنی بر وب برای کاوش و بررسی مجموعه‌های داده در Open Data Cube فراهم می‌کند. کاربرد: به کاربران اجازه می‌دهد تا داده‌های مکانیزمانی (مانند تصاویر ماهواره‌ای) را به صورت تعاملی مشاهده، فیلتر کنند و از طریق یک رابط کاربری وب، به مجموعه داده‌ها دسترسی داشته باشند. در چه شرایطی بهتره ...

  • #DataCube
  • #RemoteSensing
  • #Geospatial
  • #SatelliteData
  • #WebExplorer
  • #OpenData
  • #EarthObservation
  • #ODC
  • #DataVisualization
  • #EnvironmentalMonitoring

کاربرد: این ابزار به شما کمک می‌کنه تا جداول داده‌ها رو درون یک پایگاه داده یا بین چند پایگاه داده مقایسه کنید و تفاوت‌های موجود در سطرها، ستون‌ها یا مقادیر رو به راحتی شناسایی کنید. ️ در چه شرایطی بهتره استفاده بشه؟ وقتی نیاز دارید تغییرات داده‌ها بین محیط‌های مختلف (مثل تست و تولید) رو کنترل کنید، ...

  • #data_diff
  • #database_comparison
  • #data_validation
  • #ETL_testing
  • #data_quality
  • #data_sync
  • #diff_tool
  • #data_engineering
  • #open_source
  • #datafold

این ابزار برای ایجاد مستندات حرفه‌ای و ساختاریافته برای داده‌ها طراحی شده است. کاربرد: این پروژه به داده‌کاوها، مهندسان داده و تیم‌های تحلیل داده کمک می‌کنه تا مستندات دقیق، خوانا و قابل نگهداری برای مجموعه داده‌ها، پایپ‌لاین‌ها و پروژه‌های داده ایجاد کنند. در چه شرایطی بهتره استفاده بشه؟ وقتی تیم ش ...

  • #DataDocumentation
  • #DataEngineering
  • #DataGovernance
  • #DataCatalog
  • #ETL
  • #DataAnalysis
  • #OpenSource
  • #DataTransparency
  • #DataTeam
  • #DataManagement

کاربرد: این ابزار یک عامل نظارتی قدرتمند برای جمع‌آوری، پردازش و ارسال داده‌های مانیتورینگ و لاگ از سرورها و برنامه‌ها به پلتفرم Datadog است. ️ این عامل (Agent) متریک‌ها، لاگ‌ها، ردیابی‌های تراکنشی (traces) و اطلاعات سلامت سیستم را در زمان واقعی جمع‌آوری می‌کند. در چه شرایطی بهتره استفاده بشه؟ وقتی ...

  • #monitoring
  • #DevOps
  • #observability
  • #Kubernetes
  • #Docker
  • #metrics
  • #logs
  • #tracing
  • #Datadog
  • #infrastructure

این افزونهٔ اِکستنشن لَمبْدا از دیتا داگ، امکان ارسال همزمانِ متریک‌های سفارشی، تریس‌ها و لاگ‌ها را در حین اجرای توابع AWS Lambda فراهم می‌کند. کاربرد: این ابزار برای نظارت بر عملکرد و سلامت توابع لَمبْدا در محیط ابری آمازون استفاده می‌شود و داده‌های مانیتورینگ را بدون تأثیر روی زمان اجرا، به صورت غ ...

  • #monitoring
  • #serverless
  • #aws_lambda
  • #datadog
  • #observability
  • #cloud_monitoring
  • #custom_metrics
  • #tracing
  • #logging
  • #devops

این پروژه شامل مجموعه‌ای ساده و کاربردی از داده‌ها، نوت‌بوک‌های تحلیلی و مدل‌سازی آماری است که به‌صورت شفاف و آموزشی طراحی شده. کاربرد: این مخزن برای کسانی مناسب است که می‌خواهند در حوزه‌های تحلیل داده، بصری‌سازی اطلاعات و مدل‌سازی آماری مهارت بسازند. هر پروژه همراه با توضیحات کتبی (writeup) است که ...

  • #data_analysis
  • #statistical_modeling
  • #data_visualization
  • #python_notebooks
  • #teaching_data_science
  • #real_world_datasets
  • #beginner_friendly
  • #data_literacy
  • #educational_resources
  • #data_projects

این ابزار یک پلتفرم جامع برای توسعه مدل‌های هوش مصنوعی با استفاده از داده‌های مصنوعی است. با استفاده از پرامپت، می‌توانید داده‌های مصنوعی تولید کنید، مدل‌ها را آموزش دهید و آن‌ها را با اهداف مورد نظر همسو کنید. کاربرد: این ابزار به شما کمک می‌کند تا بدون نیاز به داده‌های واقعی حجیم، مدل‌های زبانی یا ...

  • #AI_Development
  • #SyntheticData
  • #PromptEngineering
  • #ModelTraining
  • #DataPrivacy
  • #LLM
  • #MachineLearning
  • #AITools
  • #EthicalAI
  • #DataGeneration

کاربرد: این ابزار یک راه‌حل گرافیکی قدرتمند برای تحلیل داده‌هاست که به هر کسی اجازه می‌دهد بدون نیاز به دانش فنی عمیق، داده‌هایش را بصری‌سازی و تحلیل کند. مثل Tableau عمل می‌کنه، ولی منبع باز (opensource) هست و همگان می‌تونن ازش رایگان استفاده کنن. در چه شرایطی بهتره استفاده بشه؟ وقتی تیم‌های کوچک ی ...

  • #DataVisualization
  • #OpenSourceBI
  • #DataAnalytics
  • #BusinessIntelligence
  • #Dashboards
  • #DataEase
  • #SelfServiceBI
  • #DataDriven
  • #ETL
  • #ReportingTool

این پروژه یک روش نوآورانه برای آموزش مدل‌های تولیدی متخاصم (GANs) با استفاده از داده‌های کم ارائه می‌دهد. کاربرد: استفاده از تکنیک "تقویت‌های قابل افتراق" (Differentiable Augmentation) که به‌جای افزایش داده‌های واقعی، تغییرات قابل تفکیک روی تصاویر اعمال می‌کند تا مدل یاد بگیرد بدون اینکه دچار ناپاید ...

  • #DataEfficiency
  • #GANs
  • #DifferentiableAugmentation
  • #NeurIPS2020
  • #DeepLearning
  • #ComputerVision
  • #SmallData
  • #AIResearch
  • #GenerativeModels
  • #LowDataRegime

این یک مرجع جامع و دست‌آویز برای یادگیری مباحث مهندسی داده است که حاوی لینک‌های مفید به ابزارها، آموزش‌ها، مقالات و منابع مختلف در حوزه Data Engineering است. کاربرد: این مخزن به عنوان یک راهنمای چندمنظوره عمل می‌کند که به افراد کمک می‌کند بدون گم شدن در دریای اطلاعات، منابع معتبر و مرتبط با مهندسی د ...

  • #data_engineering
  • #learning_resources
  • #ETL
  • #data_pipeline
  • #big_data
  • #data_warehouse
  • #tech_skills
  • #career_growth
  • #developer_tools
  • #data_science

این پروژه یک نمونه کار جامع در حوزه مهندسی داده و هوش مصنوعی است که به توسعه‌دهندگان و مهندسان داده کمک می‌کند تا مهارت‌های خود را در دنیای واقعی تقویت کنند. کاربرد: این مخزن شامل پروژه‌های عملی و الگوهای تولیدی (productionready) است که به شما کمک می‌کند مهارت‌های پیشرفته‌ای مثل ساخت خطوط لوله داده ...

  • #DataEngineering
  • #AIProjects
  • #RAG
  • #DataPipelines
  • #AIAgents
  • #MachineLearning
  • #LLMOps
  • #IntelligentDashboards
  • #ProductionReady
  • #Airflow

این کتاب دیجیتالی یک مجموعه جامع از دانش و تجربیات عملی در حوزه مهندسی داده است که توسط Oleg Agapov گردآوری شده است. هدف اصلی آن کمک به متخصصان و علاقه‌مندان برای درک عمیق‌تر از مفاهیم، ابزارها و بهترین روش‌های (best practices) مهندسی داده است. کاربرد: این منبع می‌تونه به عنوان راهنمایی عملی برای طر ...

  • #data_engineering
  • #data_pipeline
  • #data_warehouse
  • #big_data
  • #etl
  • #data_lake
  • #dbt
  • #airflow
  • #data_architecture
  • #oleg_agapov

مهندسی داده برای همه چیه؟ این یک مجموعه آموزشی و عملی از مفاهیم پایه تا پیشرفته در حوزه مهندسی داده هست که توسط تیم PseudoLab تهیه شده. هدفش اینه که دانش و ابزارهای مهندسی داده رو به صورت قابل دسترس و ساده در اختیار همه قرار بده، بدون نیاز به پیش‌زمینه سنگین فنی. چه کسایی می‌تونن ازش استفاده کنن؟ ‍ ...

  • #DataEngineering
  • #ETL
  • #BigData
  • #DataPipeline
  • #LearnToCode
  • #PseudoLab
  • #DataForAll
  • #BeginnerFriendly
  • #OpenSource
  • #DataEducation

کاربرد: این پروژه یک مجموعهٔ کامل از منابع آموزشی برای یادگیری Data Engineering از صفر تا صد هست که به برنامه‌نویسان، دانشجویان و علاقه‌مندان کمک می‌کنه بدون نیاز به دوره‌های گران‌قیمت، مهارت‌های لازم برای ساخت پایپ‌لاین‌های داده، کار با پایگاه‌های داده و ابزارهای مرتبط رو یاد بگیرن. در چه شرایطی به ...

  • #DataEngineering
  • #LearnFromScratch
  • #ETL
  • #DataPipeline
  • #Airflow
  • #Spark
  • #BigData
  • #DataWarehouse
  • #OpenSource
  • #Programming

این مجموعه شامل بیش از ۲۰۰۰ سوال مصاحبه برای مهندسی داده است. کاربرد: این مجموعه به شما کمک می‌کنه تا برای مصاحبه‌های شغلی در حوزه مهندسی داده آماده بشید. شامل سوالات فنی، مفاهیم پایه و پیشرفته، ابزارها و تجربیات واقعی از مصاحبه‌های شرکت‌های بزرگه. در چه شرایطی بهتره استفاده بشه؟ وقتی داری برای موقع ...

  • #DataEngineering
  • #InterviewPrep
  • #ETL
  • #BigData
  • #ApacheSpark
  • #Kafka
  • #Airflow
  • #DataPipeline
  • #TechInterview
  • #DataJobs

این مخزن شامل راه‌حل تمام پروژه‌های دوره Data Engineering Nanodegree از Udacity است. کاربرد: این مجموعه به تو کمک می‌کنه تا با ابزارها و مفاهیم کلیدی مهندسی داده مثل مدل‌سازی داده، انبار داده، دریاچه داده و پایپلاین‌های داده آشنا بشی و پروژه‌های عملی رو ببینی. ️ در چه شرایطی بهتره استفاده بشه؟ اگر د ...

  • #DataEngineering
  • #ETL
  • #ApacheAirflow
  • #Spark
  • #Redshift
  • #DataLake
  • #DataWarehouse
  • #PostgreSQL
  • #Cassandra
  • #BigData

این یک پروژه نمونه مهندسی داده از ابتدا تا انتهاست کاربرد: این پروژه به تو کمک می‌کنه تا مراحل مختلف یک پیپلاین داده رو به صورت عملی ببینی، از جمع‌آوری داده تا پردازش و ذخیره‌سازی نهایی در چه شرایطی بهتره استفاده بشه؟ اگر دنبال یادگیری مهندسی داده هستی، یا می‌خوای یک ساختار استاندارد برای پروژه‌های ...

  • #DataEngineering
  • #ETL
  • #Airflow
  • #DataPipeline
  • #Python
  • #BigData
  • #DataProcessing
  • #DataScience
  • #OpenSource
  • #ProjectTemplate

این مجموعه پروژه‌های شخصی در حوزه مهندسی داده شامل ابزارها و جریان‌های کاری برای جمع‌آوری، پردازش و ذخیره‌سازی داده‌هاست. ️ کاربرد: این پروژه‌ها به تو کمک می‌کنن تا داده‌های خام رو از منابع مختلف جمع‌آوری کنی، اون‌ها رو پاکسازی و تبدیل کنی و در انبار داده ذخیره کنی. در چه شرایطی بهتره استفاده بشه؟ و ...

  • #DataEngineering
  • #ETL
  • #Python
  • #Airflow
  • #Kafka
  • #DataPipeline
  • #BigData
  • #DataWarehouse
  • #Automation
  • #DataProjects

این یک نقشه راه جامع برای مهندسی داده است که به افراد کمک می‌کند تا مسیر یادگیری خود را در حوزه مهندسی داده مشخص کنند. ️ کاربرد: این پروژه به عنوان یک راهنمای گام‌به‌گام برای یادگیری مفاهیم، ابزارها و فناوری‌های مرتبط با مهندسی داده استفاده می‌شود. شامل موضوعاتی مثل پردازش داده‌های انبوه، ساخت خطوط ...

  • #DataEngineering
  • #Roadmap
  • #BigData
  • #ETL
  • #DataPipeline
  • #CloudComputing
  • #ApacheSpark
  • #DataWarehouse
  • #LearnToCode
  • #TechCareer

کاربرد: این پروژه یک ویکی جامعه‌محور برای یادگیری و توسعه دانش در حوزه مهندسی داده است. شامل راهنماها، ابزارها، بهترین روش‌ها و منابع آموزشی مرتبط با پایپلاین‌های داده، ETL، انبار داده، جریان‌های داده و زیرساخت‌های داده است. ️ در چه شرایطی بهتره استفاده بشه؟ وقتی می‌خوای بدونی چطور یک سیستم داده بسا ...

  • #data_engineering
  • #ETL
  • #data_pipeline
  • #Airflow
  • #dbt
  • #data_warehouse
  • #open_source
  • #tech_community
  • #learn_to_code
  • #big_data

کاربرد: این دوره آموزشی رایگان به شما کمک می‌کنه تا مباحث پایه‌ای و ضروری مهندسی داده رو یاد بگیرید، از جمله کار با ابزارهایی مثل Airflow، BigQuery، Docker، Kubernetes و همچنین پردازش داده در مقیاس بزرگ. در چه شرایطی بهتره استفاده بشه؟ اگر می‌خوای وارد حوزه مهندسی داده بشی و هنوز تجربه زیادی نداری، ...

  • #dataengineering
  • #datascience
  • #ETL
  • #BigQuery
  • #Airflow
  • #Docker
  • #Kubernetes
  • #DataPipeline
  • #LearnToCode
  • #FreeCourse

این پروژه شامل یادداشت‌های دقیق و تمرین‌های دورهٔ ۲۰۲۵ Data Engineering Zoomcamp از Datatalks.Club است. کاربرد: یادگیری مفاهیم پایه تا پیشرفته مهندسی داده مثل ETL، مدیریت پایپلاین‌ها، کار با داده‌های حجیم و ابزارهای مدرن داده دسترسی به تمرین‌های عملی و پروژه‌های واقعی برای تقویت مهارت‌های فنی منبعی ...

  • #data_engineering
  • #ETL
  • #Airflow
  • #BigQuery
  • #Terraform
  • #dbt
  • #Docker
  • #DataPipeline
  • #Zoomcamp
  • #LearnInPublic

این پروژه یک مخزن برای چالش‌های مصاحبه دیتای مهندسی داده است که کاربران می‌توانند تجربیات خود از فرآیندهای استخدام و مسائل فنی مطرح‌شده را به اشتراک بگذارند. کاربرد: این مخزن به دانشجویان، مهندسان داده و علاقه‌مندان کمک می‌کنه تا با نمونه سوالات واقعی مصاحبه، ابزارهای مورد استفاده و چالش‌های عملی آش ...

  • #data_engineering
  • #interview_prep
  • #ETL
  • #data_pipeline
  • #coding_challenges
  • #bigdata
  • #SQL
  • #Python
  • #career_growth
  • #tech_interview

این یک مخزن شخصی برای نمایش جزئیات، مهارت‌ها، پروژه‌ها و پیشرفت Tuan در حوزه‌های تحلیل داده و علم داده است. کاربرد: این پروژه به عنوان یک نمونه کار عمل می‌کند که به دیگران نشان می‌دهد فرد چه مهارت‌هایی دارد، چه پروژه‌هایی انجام داده و چطور در مسیر یادگیری خود پیشرفت کرده است. در چه شرایطی بهتره استف ...

  • #data_engineer
  • #portfolio
  • #data_science
  • #data_analytics
  • #python
  • #sql
  • #github_portfolio
  • #learning_in_public
  • #data_projects
  • #tuanx18

این یک نمونه اپلیکیشن فلاتر است که نشان می‌دهد چگونه داده‌ها را بین ویجت‌ها و صفحات مختلف ارسال و به اشتراک بگذاریم کاربرد: این پروژه به توسعه‌دهندگان کمک می‌کند تا روش‌های مختلف مدیریت داده در اپلیکیشن‌های فلاتر را یاد بگیرند، مثل استفاده از پروپرتی‌ها، InheritedWidget، Provider، یا Stream برای انت ...

  • #flutter
  • #dart
  • #data_management
  • #state_management
  • #ui
  • #mobile_app
  • #provider
  • #inherited_widget
  • #stream
  • #example_app

این پروژه یک ابزار قدرتمند برای آماده‌سازی داده‌ها با استفاده از جدیدترین مدل‌های زبانی بزرگ (LLM) است. کاربرد: این ابزار به تو کمک می‌کنه تا داده‌های خام رو به راحتی پاکسازی، تبدیل و ساختاردهی کنی تا برای مدل‌های یادگیری ماشین یا تحلیل‌های بعدی آماده بشن. در چه شرایطی بهتره استفاده بشه؟ وقتی با داد ...

  • #DataPreparation
  • #LLM
  • #DataPipeline
  • #AI
  • #MachineLearning
  • #DataCleaning
  • #NLP
  • #OpenSource
  • #DataFlow
  • #SmartProcessing

این ابزار چیه؟ Google Cloud Dataflow Java SDK یک کتابخانه توسعه‌دهنده (SDK) برای ساخت و اجرای خطوط لوله پردازش داده‌های موازی در محیط ابری گوگل است. این ابزار به توسعه‌دهندگان اجازه می‌دهد تا برنامه‌های پردازش داده را به زبان جاوا بنویسند و هم برای داده‌های دسته‌ای (batch) و هم جریانی (streaming) اس ...

  • #DataProcessing
  • #BigData
  • #GoogleCloud
  • #JavaSDK
  • #StreamProcessing
  • #BatchProcessing
  • #CloudComputing
  • #DataPipeline
  • #ETL
  • #RealTimeAnalytics

این مجموعه از تمپلیت‌های آماده برای Cloud Dataflow توسط گوگل ارائه شده و به توسعه‌دهندگان کمک می‌کند تا وظایف پردازش داده در محیط ابری را بدون نیاز به کدنویسی از صفر، اجرا کنند. کاربرد: این تمپلیت‌ها برای انجام وظایف رایج پردازش داده مثل انتقال داده بین سرویس‌های گوگل کلود (مثل Pub/Sub، BigQuery، Cl ...

  • #Dataflow
  • #GoogleCloud
  • #BigQuery
  • #PubSub
  • #CloudStorage
  • #DataPipeline
  • #Streaming
  • #BatchProcessing
  • #ETL
  • #DataEngineering

این یک کتابخانه قدرتمند برای تبدیل و تحلیل داده‌ها در جاوااسکریپت و تایپ‌اسکریپت است، الهام‌گرفته از کتابخانه‌های معروفی مثل Pandas در پایتون و LINQ در دات‌نت. کاربرد: این ابزار به شما کمک می‌کنه تا داده‌های خام رو پاکسازی کنید، تحلیل کنید، تبدیل دهید و آماده گزارش‌گیری یا نمایش کنید. مناسب برای کار ...

  • #data_analysis
  • #javascript
  • #typescript
  • #data_science
  • #ETL
  • #data_processing
  • #CSV
  • #JSON
  • #data_transformation
  • #NodeJS

کاربرد: این یک کتابخانهٔ C++ است که یک ساختار داده‌ای شبیه به DataFrame در پایتون (مثل Pandas) ارائه می‌دهد. قابلیت پردازش داده‌های آماری، مالی و یادگیری ماشین را در محیط C++ فراهم می‌کند و مناسب پروژه‌هایی با عملکرد بالا است. در چه شرایطی بهتره استفاده بشه؟ وقتی به دنبال پردازش سریع داده‌ها با کمتر ...

  • #DataFrame
  • #C
  • #HighPerformance
  • #FinancialAnalysis
  • #MachineLearning
  • #DataScience
  • #StatisticalAnalysis
  • #RealTimeProcessing
  • #ModernCpp
  • #DataProcessing

این پروژه یک کتابخانه قدرتمند برای پردازش داده‌های ساختاریافته در زبان کاتلین است با استفاده از آن می‌توانی داده‌هایی مثل CSV، JSON و دیتابیس را به صورت dataframe بارگذاری، تحلیل و دستکاری کنی کاربرد: این ابزار به تو اجازه می‌ده تا داده‌ها رو فیلتر کنی، ستون‌ها رو تغییر بدی، گروه‌بندی انجام بدی و عم ...

  • #data_processing
  • #Kotlin
  • #DataFrame
  • #structured_data
  • #analytics
  • #data_science
  • #backend
  • #CSV
  • #JSON
  • #data_transformation

کاربرد: یک موتور اجرای پرس‌وجوی SQL با کارایی بالا و منبع باز است که برای پردازش داده‌های در مقیاس کوچک تا متوسط طراحی شده. این ابزار از زبان SQL پشتیبانی می‌کند و می‌تواند در برنامه‌های داخلی (embedded) یا به عنوان بخشی از سیستم‌های بزرگ‌تر استفاده شود. در چه شرایطی بهتره استفاده بشه؟ وقتی نیاز به ...

  • #datafusion
  • #SQLengine
  • #opensource
  • #Rust
  • #Apache
  • #DataProcessing
  • #QueryEngine
  • #Arrow
  • #EmbeddedDB
  • #Analytics

کاربرد: این پروژه یک موتور اجرای پرس‌وجوی توزیع‌شده است که از Apache DataFusion برای پردازش داده‌ها در محیط‌های توزیع‌شده استفاده می‌کند. این ابزار برای اجرای پرس‌وجوهای SQL روی داده‌های بزرگ در مقیاس بالا طراحی شده و می‌تواند جایگزین سبک‌وزن و کارآمدی برای سیستم‌هایی مثل Apache Spark باشد. در چه شر ...

  • #distributed_query_engine
  • #data_processing
  • #rust
  • #apache_datafusion
  • #ballista
  • #big_data
  • #sql_engine
  • #serverless
  • #data_pipeline
  • #analytics

این پروژه یک شتاب‌دهنده برای آپاچی اسپارک است که با استفاده از موتور اجرای DataFusion، عملیات پردازش داده را به‌طور قابل توجهی تسریع می‌کند. کاربرد: این ابزار برای بهبود عملکرد کوئری‌های اسپارک طراحی شده و با جایگزینی موتور اجرای داخلی اسپارک با DataFusion، مصرف منابع را کاهش داده و سرعت اجرا را افز ...

  • #datafusion
  • #spark
  • #apache
  • #bigdata
  • #queryoptimization
  • #databricks
  • #dataengineering
  • #comet
  • #performance
  • #accelerator

کاربرد: این کتابخانه یک لکسر و پارسر قابل گسترش برای زبان SQL در زبان برنامه‌نویسی Rust فراهم می‌کنه. ️ این ابزار به توسعه‌دهندگان اجازه می‌دهد تا کدهای SQL را تجزیه و تحلیل کنند، ساختارهای دستوری را استخراج کنند و تغییرات سفارشی روی دستورات SQL اعمال کنند. در چه شرایطی بهتره استفاده بشه؟ وقتی نیاز ...

  • #sql_parser
  • #rust_lang
  • #datafusion
  • #database_tools
  • #query_analysis
  • #lexer_parser
  • #apache_project
  • #opensource
  • #static_analysis
  • #big_data

DataGear یک پلتفرم قدرتمند برای تجسم و تحلیل داده است که به شما امکان می‌دهد هر نوع داشبورد داده‌ای را که نیاز دارید، به صورت کاملاً آزاد طراحی کنید. کاربرد: این ابزار برای تبدیل داده‌های خام به نمودارهای تعاملی، گزارش‌های پویا و داشبوردهای زیبا و کاربردی استفاده می‌شه. مناسب تحلیل‌های کسب‌وکار، مان ...

  • #DataVisualization
  • #DashboardTool
  • #DataAnalysis
  • #OpenSource
  • #BusinessIntelligence
  • #DataAnalytics
  • #WebApp
  • #SelfHosted
  • #DataDashboard
  • #DataGear

این یک دستیار تحقیقاتی چندعامله مبتنی بر هوش مصنوعی است که به طور خودکار فرضیه‌ها را تولید می‌کند، داده‌ها را تحلیل می‌کند و گزارش‌های کامل می‌نویسد. همچنین در حال حاضر دامنه فعالیت‌های خود را به سمت هوش تجاری در بازارهای ارزهای دیجیتال (کریپتو) گسترش داده است. کاربرد: این ابزار برای پژوهشگران، تحلی ...

  • #AI_Research
  • #DataAnalysis
  • #CryptoAnalytics
  • #MultiAgentSystem
  • #AutoReport
  • #HypothesisGeneration
  • #MarketIntelligence
  • #DATAGEN
  • #ResearchAssistant
  • #CryptoInsights

این پروژه، مخزن اصلی سرویس data.gov است که توسط اداره خدمات عمومی ایالات متحده (GSA) مدیریت می‌شود. هدف اصلی آن، فراهم کردن دسترسی عمومی به داده‌های دولتی امریکا به صورت باز و قابل استفاده مجدد است. کاربرد: این پلتفرم به شهروندان، توسعه‌دهندگان، پژوهشگران و سازمان‌های خصوصی اجازه می‌دهد تا داده‌های ...

  • #opendata
  • #governmentdata
  • #dataaccess
  • #transparency
  • #civictech
  • #datagov
  • #publicdatasets
  • #research
  • #dataanalytics
  • #opengov

کاربرد: این ابزار یک موتور Datalog سریع، توزیع‌شده و تغییرناپذیره که به همه امکان استفاده از قدرت داده‌های ترکیبی و منطقی رو میده. با استفاده از این موتور، می‌تونی داده‌ها رو به صورت ایمن و کارآمد مدیریت کنی، بدون نیاز به سرورهای مرکزی پیچیده. در چه شرایطی بهتره استفاده بشه؟ وقتی به دنبال یک سیستم ت ...

  • #distributed_data
  • #datalog_engine
  • #immutable_db
  • #clojure
  • #p2p_apps
  • #data_sync
  • #logic_programming
  • #decentralized
  • #datahike
  • #replikativ

این ابزار به کمک هوش مصنوعی، تحلیل داده رو به یک گفت‌وگوی ساده تبدیل می‌کنه با استفاده از دستورات ساده انگلیسی می‌تونی داده‌هات رو ویرایش کنی، بصری‌سازی کنی یا حتی مدل‌های یادگیری ماشین بسازی و تستشون کنی کاربرد: این ابزار برای کسانی که می‌خوان بدون نیاز به کدنویسی عمیق، با داده‌هاشون کار کنن عالیه ...

  • #DataAnalysis
  • #MachineLearning
  • #LLM
  • #DataScience
  • #ChatWithData
  • #NoCode
  • #AIAssistant
  • #DataVisualization
  • #DataHorse
  • #DeDolphins

کاربرد: این پلتفرم یک سیستم مدیریت متادیتا برای داده‌ها و زیرساخت‌های هوش مصنوعی و یادگیری ماشین هست . به کمک آن می‌تونی متادیتا رو از منابع مختلف جمع‌آوری، سازماندهی و جستجو کنی، تا داده‌ها قابل کشف، قابل اعتماد و قابل مدیریت بشن . در چه شرایطی بهتره استفاده بشه؟ وقتی تیم‌های داده، مهندسین داده و ع ...

  • #data_management
  • #metadata_platform
  • #data_discovery
  • #data_lineage
  • #ai_infrastructure
  • #data_governance
  • #open_source
  • #datahub
  • #machine_learning
  • #data_engineering

این یک کتابخانه پایتونی برای مدیریت پایپلاین‌های داده رابطه‌ای در محیط‌های تحقیقاتی و آزمایشگاهیه. کمک می‌کنه تا داده‌های علمی رو به صورت ساختاریافته، قابل‌تکثیر و هماهنگ بین اعضای تیم مدیریت کنید. کاربرد: این ابزار برای سازماندهی داده‌های پیچیده در پروژه‌های تحقیقاتی مثل عصب‌شناسی، بیوانفورماتیک و ...

  • #DataPipeline
  • #ScientificComputing
  • #RelationalDatabase
  • #PythonResearch
  • #LabAutomation
  • #Neuroscience
  • #Bioinformatics
  • #DataManagement
  • #ReproducibleResearch
  • #SQL

کاربرد: این ابزار برای پردازش داده‌های مورد استفاده در مدل‌های بنیادی (Foundation Models) طراحی شده. به کمک آن می‌تونی داده‌های خام مثل متن، تصویر و چندوجهی رو تمیز کنی، فیلتر کنی، تبدیل کنی و برای آموزش یا ارزیابی مدل‌های بزرگ آماده کنی. ️ در چه شرایطی بهتره استفاده بشه؟ وقتی داری روی مدل‌های بزرگ ...

  • #data_processing
  • #foundation_models
  • #model_training
  • #data_cleaning
  • #data_augmentation
  • #large_language_models
  • #multimodal_data
  • #AI_pipeline
  • #machine_learning
  • #data_juicer

این پروژه یک رابط فایل‌سیستمی شبیه به گیت ارائه می‌دهد که به شما امکان می‌دهد فرآیندها را به‌راحتی در کنار هم قرار دهید و خطوط لوله داده قدرتمندی ایجاد کنید کاربرد: با استفاده از می‌توانید داده‌ها را بین فرآیندها به‌صورت ساختاریافته و قابل ردیابی جابه‌جا کنید، همچون کاری که در گیت با کامیت‌ها انجام ...

  • #data_pipeline
  • #git_like
  • #moby
  • #data_sharing
  • #container
  • #devops
  • #ci_cd
  • #distributed_systems
  • #filesystem
  • #data_versioning

این پروژه یک دریاچه داده سطح سازمانی و بدون سرور روی پلتفرم AWS ارائه می‌دهد که برای استقرارهای تولیدی طراحی شده است. کاربرد: این راه‌حل به شما کمک می‌کند تا یک معماری دریاچه داده مدرن با استفاده از سرویس‌های بدون سرور AWS مثل Amazon S3، AWS Glue، Athena و Lake Formation بسازید. همچنین شامل نمونه‌ها ...

  • #data_lake
  • #AWS
  • #serverless
  • #big_data
  • #data_engineering
  • #cloud_architecture
  • #S3
  • #Glue
  • #Athena
  • #LakeFormation

یک سیستم تحلیلی مدرن و مقیاس‌پذیر که به توسعه‌دهندگان و تیم‌های داده کمک می‌کند تا داده‌های پیچیده را به‌راحتی جمع‌آوری، پردازش و تحلیل کنند. کاربرد: این ابزار برای ساخت پلتفرم‌های تحلیل داده در مقیاس بزرگ مناسب است و امکان یکپارچه‌سازی با منابع داده مختلف، انجام تحلیل‌های بلادرنگ و نمایش داشبوردهای ...

  • #data_analytics
  • #scalable_system
  • #real_time_processing
  • #big_data
  • #cloud_native
  • #dashboarding
  • #data_pipeline
  • #distributed_system
  • #tech_innovation
  • #datalens

یک پایگاه داده دوست‌داشتنی و سریع با قابلیت‌های قوی برای ذخیره و پرس‌وجوی داده‌ها با استفاده از Datalog کاربرد: این ابزار برای کسانی مناسبه که به دنبال یک پایگاه داده سبک، بدون نیاز به سرور، با قابلیت پرس‌وجوهای پیچیده با Datalog هستند. می‌تونه توی برنامه‌های دسکتاپ، ابزارهای محلی یا پروژه‌های کوچک ...

  • #Datalevin
  • #Datalog
  • #Database
  • #LocalDB
  • #LightweightDB
  • #DevTools
  • #KnowledgeGraph
  • #OfflineFirst
  • #JujiIO

چه کاری انجام میده؟ این ابزار بهت اجازه میده با داده‌هایت مثل یه آدم صحبت کنی! با استفاده از هوش مصنوعی، می‌تونی از داده‌هات سوال بپرسی و جواب‌های ساده، تحلیل‌های آماری و نمودارهای جذاب دریافت کنی. از فایل‌های CSV گرفته تا پایگاه‌های داده مثل Postgres، MySQL، Snowflake و SQLite رو پشتیبانی می‌کنه. ک ...

  • #DataAnalysis
  • #AIChat
  • #CSV
  • #Postgres
  • #MySQL
  • #Snowflake
  • #SQLite
  • #DataVisualization
  • #NoCodeAnalytics
  • #SmartData

کاربرد: DataLink یک پلتفرم تبادل داده‌ی توزیع‌شده و مقیاس‌پذیره که برای همگام‌سازی بلادرنگ داده‌ها بین منابع داده‌ی ناهمگون طراحی شده. این ابزار هم از انتقال افزایشی (Incremental) در زمان واقعی پشتیبانی می‌کنه و هم از انتقال کامل (Full) در حالت آفلاین. در چه شرایطی بهتره استفاده بشه؟ وقتی نیاز داری ...

  • #DataSync
  • #RealTimeProcessing
  • #ETL
  • #DataIntegration
  • #DistributedSystem
  • #BigData
  • #DataPipeline
  • #IncrementalSync
  • #DataExchange
  • #ucarGroup

کاربرد: این ابزار یک کتابخانهٔ عمومی برای بهینه‌سازی دریافت داده‌ها در برنامه‌های گراف‌کوئری است که با استفاده از دسته‌بندی درخواست‌ها (batching) و کش‌کردن نتایج (caching)، تعداد درخواست‌های ارسالی به بک‌اند را کاهش می‌دهد. در چه شرایطی بهتره استفاده بشه؟ وقتی با مشکل N+1 query مواجه هستید و هر درخو ...

  • #DataLoader
  • #GraphQL
  • #Batching
  • #Caching
  • #Performance
  • #NodeJS
  • #API_Optimization
  • #Microservices
  • #N_plus_1
  • #Backend_Optimization

این یک پیاده‌سازی از کتابخانه معروف DataLoader فیسبوک در زبان Go است که برای بهینه‌سازی درخواست‌های داده، به‌ویژه در کنار GraphQL، استفاده می‌شود. کاربرد: این کتابخانه به شما کمک می‌کنه تا چندین درخواست کوچک به پایگاه داده یا سرویس دیگر رو در یک درخواست دسته‌ای (batch) ترکیب کنید و از مشکل N+1 query ...

  • #DataLoader
  • #GoLang
  • #GraphQL
  • #PerformanceOptimization
  • #Microservices
  • #Backend
  • #Batching
  • #Caching
  • #API
  • #GolangLibraries

این پروژه یک مجموعه از روش‌های مدیریت داده‌های آموزشی برای مدل‌های زبان بزرگ (LLM) است. کاربرد: این ابزار به توسعه‌دهندگان و محققان کمک می‌کند تا داده‌های آموزشی خود را به‌صورت ساختاریافته، تمیز و قابل استفاده نگه دارند. در چه شرایطی بهتره استفاده بشه؟ وقتی با حجم بالای داده آموزشی کار می‌کنی و نیاز ...

  • #data_management
  • #LLM
  • #training_data
  • #AI_research
  • #NLP
  • #machine_learning
  • #data_cleaning
  • #data_pipeline
  • #AI_tools
  • #open_source

این ابزار یک اپلیکیشن مبتنی بر مرورگر است که به شما کمک می‌کند داده‌های پیچیده رو به صورت بصری کاوش کنید کاربرد: داده‌ها رو با استفاده از نقشه‌های گرمایی (heatmaps)، نمودارهای PCA و tSNE به تصویر می‌کشه تا الگوها، خوشه‌ها و روندها به راحتی قابل تشخیص باشن در چه شرایطی بهتره استفاده بشه؟ وقتی با داده ...

  • #DataVisualization
  • #Bioinformatics
  • #Heatmap
  • #PCA
  • #tSNE
  • #DataAnalysis
  • #Genomics
  • #ScientificResearch
  • #InteractiveApp
  • #BrowserTool

این کتابخانه به تو کمک می‌کنه تا درخواست‌های داده محلی رو با استفاده از Fetch یا XHR شبیه‌سازی کنی، بدون نیاز به سرور واقعی ️ کاربرد: وقتی داری روی یه پروژه فرانت‌اند کار می‌کنی و هنوز بک‌اند آماده نیست، می‌تونی با این ابزار، پاسخ‌های شبیه‌سازی شده رو دریافت کنی و توسعه رو ادامه بدی، بدون وابستگی به ...

  • #data_mocking
  • #fetch_mock
  • #xhr_mock
  • #frontend_testing
  • #local_development
  • #api_simulation
  • #javascript_tools
  • #web_development
  • #mock_data
  • #dev_productivity

چه کاری انجام میده؟ این ابزار یک مولد کد هوشمند هست که به راحتی میتونه از فایل‌های JSON، OpenAPI، JSON Schema و YAML مدل‌های Pydantic یا dataclass در پایتون تولید کنه. ️ کاربرد: وقتی با APIها یا داده‌های ساختاریافته کار میکنی و میخوای بدون دست‌نویسی دسته‌ها، مدل‌های پایتونی تولید کنی، این ابزار میتو ...

  • #Pydantic
  • #OpenAPI
  • #JSONSchema
  • #CodeGenerator
  • #FastAPI
  • #DataClass
  • #YAML
  • #API
  • #Python
  • #Automation

این ابزار یک راه‌حل مبتنی بر هوش مصنوعی برای ایجاد و اجرای تست‌های کیفیت داده در محیط‌های DataOps است. ️ کاربرد: به طور خودکار تست‌های اعتبارسنجی کیفیت داده را با استفاده از پروفایل‌کردن داده، بررسی سلامت داده‌های جدید و تشخیص ناهنجاری‌ها ایجاد می‌کند. در چه شرایطی بهتره استفاده بشه؟ وقتی تیم‌های دا ...

  • #DataQuality
  • #DataOps
  • #DataObservability
  • #AITesting
  • #AnomalyDetection
  • #DataProfiling
  • #OpenSource
  • #DataEngineering
  • #ContinuousTesting
  • #DataHygiene

این پلتفرم یک سیستم یکپارچه برای مدیریت داده است که الهام‌گرفته از Airflow است، اما قابلیت‌های پیشرفته‌تری مثل داده‌مِش (data mesh) و اوتوماسیون فرآیند رباتیک (RPA) را نیز فراهم می‌کند. با استفاده از این ابزار می‌توانید پایپ‌لاین‌های داده و گردش‌های کاری را طراحی، زمان‌بندی و اتوماتیک کنید. کاربرد: ...

  • #data_pipeline
  • #automation
  • #golang
  • #react
  • #rpa
  • #data_mesh
  • #etl
  • #workflow_scheduler
  • #unified_data_platform
  • #open_source

این یک پلتفرم مجتمع داده‌های بزرگ با قابلیت کشیدن و رها کردن (Drag & Drop) است که به صورت بی‌کد (NoCode) امکان طراحی، همگام‌سازی، پاکسازی و مدیریت داده‌ها را فراهم می‌کند. کاربرد: این پلتفرم برای ساخت خطوط لوله داده (Data Pipeline) بدون نیاز به نوشتن کد مناسب است. شما می‌توانید منابع داده مختلف را ب ...

  • #DataIntegration
  • #BigData
  • #NoCode
  • #DataPipeline
  • #ETL
  • #DataPlatform
  • #DragAndDrop
  • #DataSync
  • #DataMonitoring
  • #shaiwz_data_platform_open

کاربرد: این کتابخانه یک ابزار پایتونی با کد کم (lowcode) برای آماده‌سازی داده‌هاست که به تو کمک می‌کنه داده‌ها رو جمع‌آوری، تمیز کنی و بصری‌سازی کنی فقط با چند خط کد . مناسب برای کار با دیتاست‌های خام، پاک‌سازی اطلاعات نامنظم و تولید نمودارهای سریع از داده‌هاست. در چه شرایطی بهتره استفاده بشه؟ وقتی ...

  • #dataprep
  • #python
  • #data_cleaning
  • #data_science
  • #low_code
  • #ETL
  • #data_visualization
  • #machine_learning
  • #open_source
  • #pandas

چه چیزی توی داده‌هات هست؟ این ابزار بهت کمک می‌کنه تا ساختار، آمارهای توصیفی و موجودیت‌های مهم رو از مجموعه داده‌هات استخراج کنی کاربرد: این ابزار برای تحلیل اولیه داده‌ها (Data Profiling) طراحی شده. به کمکش می‌تونی بدونی داده‌هات چه نوعی دارن، چقدر ازشون معتبره، چه الگوهایی دارن و حتی چه اطلاعات حس ...

  • #DataProfiling
  • #DataQuality
  • #DataScience
  • #Python
  • #ETL
  • #DataValidation
  • #PrivacyDetection
  • #OpenSource
  • #DataAnalysis
  • #CapstoneProject

کاربرد: این پروژه یک پلتفرم متن‌باز برای تصویرسازی داده‌ها است که به کاربران کمک می‌کند تا داده‌های پیچیده رو به صورت گرافیکی، شفاف و قابل فهم نمایش بدن با این ابزار می‌تونی به راحتی داشبوردهای تعاملی بسازی، گزارش‌های دینامیک ایجاد کنی و از منابع داده مختلف متصل بشی و داده‌ها رو لحظه‌ای تحلیل کنی در ...

  • #data_visualization
  • #open_source
  • #dashboard
  • #analytics
  • #datart
  • #business_intelligence
  • #real_time_reporting
  • #data_platform
  • #interactive_dashboard
  • #self_service_analytics

این پروژه یک مجموعه از چالش‌ها و مسابقات محبوب علم داده است که با هدف کمک به علاقه‌مندان به دنبال تمرین، یادگیری و بهبود مهارت‌های خود در حوزهٔ داده طراحی شده. کاربرد: این پروژه به شما کمک می‌کنه تا از آخرین مسابقات علم داده (مثل Kaggle، DrivenData و غیره) مطلع بشید و با دیدن زمان باقی‌مانده تا ددلا ...

  • #DataScience
  • #MachineLearning
  • #Kaggle
  • #DataCompetition
  • #OpenSource
  • #AI
  • #Programming
  • #DataAnalysis
  • #DeadlineTracker
  • #LearnInPublic

کاربرد: این مخزن یک مجموعه جامع از موضوعات مرتبط با علم داده است که شامل مقالات، ویدیوها و کدهای کاربردی میشه . به تو کمک میکنه بدون پراکندگی، همه چیزی که برای یادگیری یا پیاده‌سازی علم داده نیاز داری رو در یک جا پیدا کنی. در چه شرایطی بهتره استفاده بشه؟ وقتی دنبال یک منبع سازمان‌یافته برای یادگیری ...

  • #datascience
  • #machinelearning
  • #python
  • #pandas
  • #jupyter
  • #numpy
  • #ai
  • #coding
  • #tutorial
  • #opensource

چه کاربردی داره؟ این پروژه یک لیست دسته‌بندی‌شده از منابع پایتون برای علم داده هست که به برنامه‌نویسان و دانشمندان داده کمک می‌کنه تا ابزارها، کتابخانه‌ها و منابع آموزشی مفید رو سریع پیدا کنند. در چه شرایطی بهتره استفاده بشه؟ وقتی دنبال منابع معتبر و مرتب برای شروع یا پیشرفت در علم داده با پایتون هس ...

  • #datascience
  • #python
  • #machinelearning
  • #pandas
  • #numpy
  • #scikit_learn
  • #programming
  • #AI
  • #dataanalysis
  • #opensource

این مجموعه یک کتابخانهٔ دسته‌بندی‌شده از منابع رایگان برای یادگیری علم داده است. کاربرد: این پروژه به مبتدیان و علاقه‌مندان به Data Science کمک می‌کنه تا بدون هزینه، به منابع معتبر و ساختاریافته دسترسی داشته باشند. شامل لینک به دوره‌ها، کتاب‌های الکترونیکی، مقالات، پروژه‌های عملی و ابزارهای مفید است ...

  • #DataScience
  • #FreeResources
  • #LearnPython
  • #MachineLearning
  • #AI
  • #Programming
  • #OpenSource
  • #TechEducation
  • #DataAnalysis
  • #SelfLearning

این مجموعه ابزار و نمونه‌هایی از پروژه‌های داده‌کاوی و هوش مصنوعی را ارائه می‌دهد تا توسعه‌دهندگان و دانشمندان داده بتوانند سریع‌تر شروع به کار کنند. کاربرد: این ریپوزیتوری به شما کمک می‌کند تا با نمونه‌های عملی، مفاهیم یادگیری ماشین، پردازش زبان طبیعی و تجزیه‌تحلیل داده را بهتر درک کنید و در پروژه‌ ...

  • #DataScience
  • #ArtificialIntelligence
  • #MachineLearning
  • #NLP
  • #Python
  • #DataAnalysis
  • #AI_Examples
  • #Utils

کاربرد: این پروژه به شما کمک می‌کنه تا از طریق خط فرمان (Terminal) و ابزارهای سنتی مثل bash، awk، sed و غیره، وظایف علم داده رو انجام بدید. ️ شامل ابزارها و اسکریپت‌هایی هست که پردازش داده، تحلیل اولیه و خودکارسازی تسک‌ها رو در محیط خط فرمان ممکن می‌کنه. در چه شرایطی بهتره استفاده بشه؟ وقتی با داده‌ ...

  • #data_science
  • #command_line
  • #bash
  • #automation
  • #data_processing
  • #cli_tools
  • #text_processing
  • #linux
  • #devops
  • #scripting

این مجموعه یک کتابخانهٔ دست‌چین‌شده از بهترین منابع علم داده است که تمامی لینک‌های مفید را در یک جا جمع کرده. کاربرد: به شما کمک می‌کنه بدون گشتن در اینترنت، به منابع معتبر و باکیفیت برای یادگیری علم داده دسترسی داشته باشید. شامل لینک‌هایی برای یادگیری پایتون، ماشین لرنینگ، دیتا ویژوالایزیشن، مدل‌سا ...

  • #DataScience
  • #MachineLearning
  • #Python
  • #AI
  • #FreeResources
  • #LearningPath
  • #Programming
  • #DataAnalysis
  • #Notebooks
  • #OpenSource

کاربرد: این مخزن یک لیست دسته‌بندی‌شده از وبلاگ‌های مرتبط با علم داده، یادگیری ماشین و تحلیل داده است که توسط متخصصان جمع‌آوری شده. این لیست به شما کمک می‌کند تا منابع معتبر و باکیفیت برای یادگیری یا به‌روز ماندن در حوزه علم داده پیدا کنید. در چه شرایطی بهتره استفاده بشه؟ اگر دنبال منابع مطالعاتی مع ...

  • #datascience
  • #machinelearning
  • #blogs
  • #learningresources
  • #AI
  • #dataanalysis
  • #techblogs
  • #ML
  • #knowledge
  • #dataengineering

این مخزن منابع شغلی برای کسانی است که قصد دارند در حوزه‌های علم داده, یادگیری ماشین, داده‌های بزرگ و تحلیل کسب‌وکار فعالیت کنند. کاربرد: این پروژه به شما کمک می‌کنه تا با مسیرهای شغلی، مهارت‌های مورد نیاز، منابع یادگیری و ابزارهای روز دنیای داده آشنا بشید. در چه شرایطی بهتره استفاده بشه؟ اگر دنبال ش ...

  • #DataScience
  • #MachineLearning
  • #BigData
  • #CareerGuide
  • #Analytics
  • #Python
  • #SQL
  • #AI
  • #TechCareers
  • #DataAnalytics

کاربرد: این چت‌شیت یک راهنمای فشرده و سریع برای یادگیری ماشین و علوم داده است که شامل مفاهیم پایه، فرمول‌ها، الگوریتم‌ها و تکنیک‌های مهم می‌شه. مناسب مرور سریع قبل از امتحان یا مصاحبه شغلیه. در چه شرایطی بهتره استفاده بشه؟ وقتی دنبال یه منبع خلاصه و قابل اعتماد هستی که بتونی توی کمتر از ۵ دقیقه مفاه ...

  • #MachineLearning
  • #DataScience
  • #CheatSheet
  • #InterviewPrep
  • #MLAlgorithms
  • #StudyGuide
  • #AI
  • #TechInterview
  • #Kaggle
  • #DataAnalysis