วิธีสำหรับการแปลงเว็บไซต์ทั้งหมดเป็น PDF ไฟล์เดียว ขอแนะนำวิธีที่ง่ายและมีประสิทธิภาพดังนี้:
วิธีที่ 1: ใช้ Browser Extension (ง่ายที่สุด) SingleFile Extension:
ติดตั้ง SingleFile extension ใน Chrome/Firefox เข้าไปที่หน้าแรกของหนังสือ คลิก SingleFile icon แล้วเลือก “save page with links” จะได้ไฟล์ HTML ที่รวมทุกหน้าไว้ เปิดไฟล์ HTML นั้นแล้วใช้ Ctrl+P → Save as PDF
วิธีที่ 2: ใช้ Print to PDF ใน Browser Chrome/Edge:
เข้าไปที่หน้าแรกของหนังสือ กด Ctrl+P (Print) เลือก “Save as PDF” ในส่วน “More settings” เลือก:
Paper size: A4 Scale: Custom (ลดเหลือ 80-90%) Options: ✓ Headers and footers, ✓ Background graphics
กด “Save”
สำหรับหลายหน้า:
เปิดหลายๆ tab ของหนังสือ ใช้ extension อย่าง “Print Friendly” เพื่อรวม content หรือใช้ “Merge PDF” tool ภายหลัง
วิธีที่ 3: ใช้ Web Scraping Tools HTTrack Website Copier (ฟรี):
ดาวน์โหลด HTTrack ใส่ URL: https://d2l.ai/ ตั้งค่า:
Scan Rules: ใส่ +.html +.css +.js +.png +*.jpg Limits: ตั้ง depth = 3-5 levels
เริ่ม download เมื่อเสร็จแล้ว เปิดไฟล์ index.html ใช้ browser print เป็น PDF
wkhtmltopdf (Command Line): bash# ติดตั้ง wkhtmltopdf wget https://d2l.ai/d2l-en.pdf
หรือใช้คำสั่ง
wkhtmltopdf –page-size A4 –orientation Portrait https://d2l.ai/index.html d2l-book.pdf วิธีที่ 4: ใช้ Online Tools PrintFriendly.com:
ไปที่ printfriendly.com ใส่ URL ของหนังสือ เลือกส่วนที่ต้องการ กด “Print PDF”
PDF24 Tools:
ไปที่ tools.pdf24.org เลือก “Webpage to PDF” ใส่ URL Download PDF
วิธีที่ 5: ใช้ Python Script (สำหรับคนที่ชอบ coding) pythonimport requests from bs4 import BeautifulSoup import pdfkit
ต้องติดตั้ง wkhtmltopdf ก่อน
pip install pdfkit beautifulsoup4 requests
def scrape_and_convert(base_url, output_file): # ดึงลิงค์ทั้งหมด response = requests.get(base_url) soup = BeautifulSoup(response.content, ‘html.parser’)
# หาลิงค์ทั้งหมด
links = [base_url + link.get('href') for link in soup.find_all('a', href=True)]
# แปลงเป็น PDF
pdfkit.from_url(links, output_file)
ใช้งาน
scrape_and_convert(‘https://d2l.ai/', ‘d2l-book.pdf’)
Etc