Python से Web Scraper कैसे बनाएं | BeautifulSoup और Requests Tutorial in Hindi (Step-by-Step Guide)
Python का उपयोग करके Web Scraper कैसे बनाएं (Step-by-Step Guide)
अगर आप जानना चाहते हैं कि Python का उपयोग करके Web Scraper कैसे बनाया जाता है, तो यह लेख आपके लिए है। आज हम सीखेंगे कि कैसे कुछ आसान लाइनों के कोड से किसी भी वेबसाइट से डेटा निकाला जा सकता है।
🔧 Step 1: आवश्यक लाइब्रेरी इंस्टॉल करें
Web scraping के लिए Python में दो प्रमुख लाइब्रेरी का उपयोग किया जाता है:
- requests → वेबसाइट से डेटा लाने के लिए
- BeautifulSoup (bs4) → HTML को पार्स करने के लिए
सबसे पहले अपने टर्मिनल या कमांड प्रॉम्प्ट में नीचे दिए गए कमांड चलाएं:
pip install requests
pip install beautifulsoup4
🧠 Step 2: वेबसाइट से डेटा लाना
अब हम quotes.toscrape.com वेबसाइट से डेमो डेटा scrape करेंगे।
import requests
from bs4 import BeautifulSoup
# वेबसाइट URL
url = "https://quotes.toscrape.com/"
# वेबसाइट से HTML डेटा प्राप्त करना
response = requests.get(url)
# HTML को पार्स करना
soup = BeautifulSoup(response.text, 'html.parser')
# सभी quote वाले div ढूंढना
quotes = soup.find_all('div', class_='quote')
# परिणाम दिखाना
for quote in quotes:
text = quote.find('span', class_='text').get_text()
author = quote.find('small', class_='author').get_text()
print(f"Quote: {text}\nAuthor: {author}\n")
ऊपर दिए गए कोड को चलाने पर हर quote और उसके author का नाम टर्मिनल पर दिखाई देगा।
💾 Step 3: डेटा को CSV फाइल में सेव करना
अगर आप scraped डेटा को किसी CSV फाइल में सेव करना चाहते हैं तो नीचे दिया गया कोड जोड़ें:
import csv
with open("quotes.csv", "w", newline='', encoding='utf-8') as file:
writer = csv.writer(file)
writer.writerow(["Quote", "Author"])
for quote in quotes:
text = quote.find('span', class_='text').get_text()
author = quote.find('small', class_='author').get_text()
writer.writerow([text, author])
इससे एक quotes.csv नाम की फाइल बनेगी जिसमें सारे quotes और उनके authors होंगे।
⚠️ कुछ महत्वपूर्ण बातें
- हमेशा वेबसाइट की robots.txt फाइल चेक करें (जैसे https://example.com/robots.txt)।
- एक ही वेबसाइट को बार-बार scrape न करें, वरना आपका IP ब्लॉक हो सकता है।
- Commercial websites को scrape करने से पहले अनुमति जरूर लें।
✅ निष्कर्ष (Conclusion)
अब आपने सीख लिया कि Python से एक Simple Web Scraper कैसे बनाया जाता है। Requests और BeautifulSoup का इस्तेमाल करके आप किसी भी वेबसाइट से डेटा निकाल सकते हैं।
अगर आप अगला लेवल सीखना चाहते हैं — जैसे कि Pagination, Excel या Database में Data Save करना, या Selenium से Dynamic Websites Scrape करना — तो नीचे कमेंट में बताएं।
🔥 Related Posts:
- Python से To-Do List App कैसे बनाएं
- Python में Number Guessing Game बनाना सीखें
- BeautifulSoup Tutorial in Hindi
💡 अगर यह पोस्ट पसंद आई हो तो इसे शेयर करें और अपने दोस्तों को भी Python सीखने में मदद करें!
❓Frequently Asked Questions (FAQ)
1️⃣ Python में Web Scraper क्या होता है?
Web Scraper एक ऐसा प्रोग्राम होता है जो वेबसाइट से स्वतः डेटा निकालने के लिए बनाया जाता है। Python में हम Requests और BeautifulSoup जैसी लाइब्रेरी का उपयोग करके किसी वेबसाइट का HTML डेटा निकाल सकते हैं।
2️⃣ BeautifulSoup क्या है?
BeautifulSoup एक Python लाइब्रेरी है जो HTML और XML डॉक्युमेंट्स को आसानी से पढ़ने और पार्स करने में मदद करती है। यह वेब पेज से डेटा निकालने के लिए सबसे लोकप्रिय टूल्स में से एक है।
3️⃣ Web Scraping के लिए कौन सी लाइब्रेरी सबसे अच्छी है?
शुरुआती लोगों के लिए Requests और BeautifulSoup सबसे आसान और लोकप्रिय लाइब्रेरी हैं। Advanced level पर आप Selenium या Scrapy का उपयोग कर सकते हैं।
4️⃣ क्या Web Scraping करना Legal है?
अगर वेबसाइट की robots.txt फाइल में scraping की अनुमति है, तो यह legal माना जाता है। लेकिन किसी private या commercial वेबसाइट का डेटा बिना अनुमति scrape करना गलत है। हमेशा वेबसाइट की policy को पढ़ें।
5️⃣ क्या मैं Scraped डेटा को CSV या Excel में सेव कर सकता हूँ?
हाँ, Python में आप csv या pandas लाइब्रेरी की मदद से scraped डेटा को आसानी से CSV या Excel फाइल में सेव कर सकते हैं।

टिप्पणियाँ
एक टिप्पणी भेजें