Python से Web Scraper कैसे बनाएं | BeautifulSoup और Requests Tutorial in Hindi (Step-by-Step Guide)

Python का उपयोग करके Web Scraper कैसे बनाएं (Step-by-Step Guide)

अगर आप जानना चाहते हैं कि Python का उपयोग करके Web Scraper कैसे बनाया जाता है, तो यह लेख आपके लिए है। आज हम सीखेंगे कि कैसे कुछ आसान लाइनों के कोड से किसी भी वेबसाइट से डेटा निकाला जा सकता है।





🔧 Step 1: आवश्यक लाइब्रेरी इंस्टॉल करें

Web scraping के लिए Python में दो प्रमुख लाइब्रेरी का उपयोग किया जाता है:

  • requests → वेबसाइट से डेटा लाने के लिए
  • BeautifulSoup (bs4) → HTML को पार्स करने के लिए

सबसे पहले अपने टर्मिनल या कमांड प्रॉम्प्ट में नीचे दिए गए कमांड चलाएं:

pip install requests
pip install beautifulsoup4

🧠 Step 2: वेबसाइट से डेटा लाना

अब हम quotes.toscrape.com वेबसाइट से डेमो डेटा scrape करेंगे।


import requests
from bs4 import BeautifulSoup

# वेबसाइट URL
url = "https://quotes.toscrape.com/"

# वेबसाइट से HTML डेटा प्राप्त करना
response = requests.get(url)

# HTML को पार्स करना
soup = BeautifulSoup(response.text, 'html.parser')

# सभी quote वाले div ढूंढना
quotes = soup.find_all('div', class_='quote')

# परिणाम दिखाना
for quote in quotes:
    text = quote.find('span', class_='text').get_text()
    author = quote.find('small', class_='author').get_text()
    print(f"Quote: {text}\nAuthor: {author}\n")

ऊपर दिए गए कोड को चलाने पर हर quote और उसके author का नाम टर्मिनल पर दिखाई देगा।


💾 Step 3: डेटा को CSV फाइल में सेव करना

अगर आप scraped डेटा को किसी CSV फाइल में सेव करना चाहते हैं तो नीचे दिया गया कोड जोड़ें:


import csv

with open("quotes.csv", "w", newline='', encoding='utf-8') as file:
    writer = csv.writer(file)
    writer.writerow(["Quote", "Author"])

    for quote in quotes:
        text = quote.find('span', class_='text').get_text()
        author = quote.find('small', class_='author').get_text()
        writer.writerow([text, author])

इससे एक quotes.csv नाम की फाइल बनेगी जिसमें सारे quotes और उनके authors होंगे।


⚠️ कुछ महत्वपूर्ण बातें

  • हमेशा वेबसाइट की robots.txt फाइल चेक करें (जैसे https://example.com/robots.txt)।
  • एक ही वेबसाइट को बार-बार scrape न करें, वरना आपका IP ब्लॉक हो सकता है।
  • Commercial websites को scrape करने से पहले अनुमति जरूर लें।

✅ निष्कर्ष (Conclusion)

अब आपने सीख लिया कि Python से एक Simple Web Scraper कैसे बनाया जाता है। Requests और BeautifulSoup का इस्तेमाल करके आप किसी भी वेबसाइट से डेटा निकाल सकते हैं।

अगर आप अगला लेवल सीखना चाहते हैं — जैसे कि Pagination, Excel या Database में Data Save करना, या Selenium से Dynamic Websites Scrape करना — तो नीचे कमेंट में बताएं।


🔥 Related Posts:

💡 अगर यह पोस्ट पसंद आई हो तो इसे शेयर करें और अपने दोस्तों को भी Python सीखने में मदद करें!

❓Frequently Asked Questions (FAQ)

1️⃣ Python में Web Scraper क्या होता है?

Web Scraper एक ऐसा प्रोग्राम होता है जो वेबसाइट से स्वतः डेटा निकालने के लिए बनाया जाता है। Python में हम Requests और BeautifulSoup जैसी लाइब्रेरी का उपयोग करके किसी वेबसाइट का HTML डेटा निकाल सकते हैं।

2️⃣ BeautifulSoup क्या है?

BeautifulSoup एक Python लाइब्रेरी है जो HTML और XML डॉक्युमेंट्स को आसानी से पढ़ने और पार्स करने में मदद करती है। यह वेब पेज से डेटा निकालने के लिए सबसे लोकप्रिय टूल्स में से एक है।

3️⃣ Web Scraping के लिए कौन सी लाइब्रेरी सबसे अच्छी है?

शुरुआती लोगों के लिए Requests और BeautifulSoup सबसे आसान और लोकप्रिय लाइब्रेरी हैं। Advanced level पर आप Selenium या Scrapy का उपयोग कर सकते हैं।

4️⃣ क्या Web Scraping करना Legal है?

अगर वेबसाइट की robots.txt फाइल में scraping की अनुमति है, तो यह legal माना जाता है। लेकिन किसी private या commercial वेबसाइट का डेटा बिना अनुमति scrape करना गलत है। हमेशा वेबसाइट की policy को पढ़ें।

5️⃣ क्या मैं Scraped डेटा को CSV या Excel में सेव कर सकता हूँ?

हाँ, Python में आप csv या pandas लाइब्रेरी की मदद से scraped डेटा को आसानी से CSV या Excel फाइल में सेव कर सकते हैं।

टिप्पणियाँ

इस ब्लॉग से लोकप्रिय पोस्ट

Python से Simple Calculator कैसे बनाएं | Python Calculator Code in Hindi (CLI + GUI Tutorial)

RBSE Class 12 Computer Science Chapter 1 Question and Answers

अपने कंप्यूटर में पाइथन कैसे इनस्टॉल करें How to install Python in your Computer