Mirror Ebook Website

วิธีสำหรับการแปลงเว็บไซต์ทั้งหมดเป็น PDF ไฟล์เดียว ขอแนะนำวิธีที่ง่ายและมีประสิทธิภาพดังนี้:


วิธีที่ 1: ใช้ Browser Extension (ง่ายที่สุด) SingleFile Extension:

ติดตั้ง SingleFile extension ใน Chrome/Firefox เข้าไปที่หน้าแรกของหนังสือ คลิก SingleFile icon แล้วเลือก “save page with links” จะได้ไฟล์ HTML ที่รวมทุกหน้าไว้ เปิดไฟล์ HTML นั้นแล้วใช้ Ctrl+P → Save as PDF

วิธีที่ 2: ใช้ Print to PDF ใน Browser Chrome/Edge:

เข้าไปที่หน้าแรกของหนังสือ กด Ctrl+P (Print) เลือก “Save as PDF” ในส่วน “More settings” เลือก:

Paper size: A4 Scale: Custom (ลดเหลือ 80-90%) Options: ✓ Headers and footers, ✓ Background graphics

กด “Save”

สำหรับหลายหน้า:

เปิดหลายๆ tab ของหนังสือ ใช้ extension อย่าง “Print Friendly” เพื่อรวม content หรือใช้ “Merge PDF” tool ภายหลัง

วิธีที่ 3: ใช้ Web Scraping Tools HTTrack Website Copier (ฟรี):

ดาวน์โหลด HTTrack ใส่ URL: https://d2l.ai/ ตั้งค่า:

Scan Rules: ใส่ +.html +.css +.js +.png +*.jpg Limits: ตั้ง depth = 3-5 levels

เริ่ม download เมื่อเสร็จแล้ว เปิดไฟล์ index.html ใช้ browser print เป็น PDF

wkhtmltopdf (Command Line): bash# ติดตั้ง wkhtmltopdf wget https://d2l.ai/d2l-en.pdf

หรือใช้คำสั่ง

wkhtmltopdf –page-size A4 –orientation Portrait https://d2l.ai/index.html d2l-book.pdf วิธีที่ 4: ใช้ Online Tools PrintFriendly.com:

ไปที่ printfriendly.com ใส่ URL ของหนังสือ เลือกส่วนที่ต้องการ กด “Print PDF”

PDF24 Tools:

ไปที่ tools.pdf24.org เลือก “Webpage to PDF” ใส่ URL Download PDF

วิธีที่ 5: ใช้ Python Script (สำหรับคนที่ชอบ coding) pythonimport requests from bs4 import BeautifulSoup import pdfkit

ต้องติดตั้ง wkhtmltopdf ก่อน

pip install pdfkit beautifulsoup4 requests

def scrape_and_convert(base_url, output_file): # ดึงลิงค์ทั้งหมด response = requests.get(base_url) soup = BeautifulSoup(response.content, ‘html.parser’)

# หาลิงค์ทั้งหมด
links = [base_url + link.get('href') for link in soup.find_all('a', href=True)]

# แปลงเป็น PDF
pdfkit.from_url(links, output_file)

ใช้งาน

scrape_and_convert(‘https://d2l.ai/', ‘d2l-book.pdf’)

Related
Etc