Как в bs4 удалить дочерний тег?
У тега 'p' есть дочерний тег 'strong', как его удалить из выдачи? soup = BeautifulSoup(r.text , "html.parser") import re for tag in soup.find_all(re.compile('^p'): print…
У тега 'p' есть дочерний тег 'strong', как его удалить из выдачи? soup = BeautifulSoup(r.text , "html.parser") import re for tag in soup.find_all(re.compile('^p'): print…
Мне нужна полная копия страницы для дальнейшего парсинга, но при открытии html файла сама страница держится всего пару секунд, как это обойти Как обойти ошибку 403 при get запросе…
Хочу спарсить некоторые игры вот здесь https://stopgame.ru/topgames?year_end=2022&p=1 , проблема в том, что html код который я получаю в программе не тот , который наблюдаю на…
Скрипт не может добавить спаршенные данные в список. Код: def test(soup): trs_0 = soup.findAll('div', class_='rcnt tr_0') for i in range(len(trs_0)): fprc = trs_0[i].find('div', c…
Как, используя beautifulsoup, извлечь значение атрибута тега и запустить всё в цикле? Запуская поодиночке - всё приходит, в цикле - нет from bs4 import BeautifulSoup import codecs…
<p id="plus" magazine_name="Supermarket" magazine_sort="jKZIRdGMXN" **name="Жевательная резинка DIROL 13,6гр Арбузная свежесть"** tid=&q…
BS спокойно парсит любые другие данные из блока, но на попытку спарсить счёт выдает None. При этом значение счёта есть в исходном коде. Код парсера: import requests from bs4 impor…
Пишу парсер для сайта анекдотов https://nekdo.ru/. Когда пытаюсь спарсить левый список тем этим же кодом, всё работает. Но когда пытаюсь спарсить чисто для примера тексты с первой…
Не совсем понимаю как записать результат парсинга сайта https://myshows.me/news/ в формат txt. Я ищу заголовки с такой формулировкой: "Что посмотреть на этой неделе? Премьеры…
from bs4 import BeautifulSoup as b import requests url = 'https://p2p.binance.com/ru/trade/sell/USDT?fiat=UAH&payment=Monobank' response = requests.get(url) r = requests.get(u…
Есть функция парсинга сайта find_news, которая возвращает две переменные: return (filteredNews[0], filteredLinks[0]) Далее с помощью библиотеки telebot необходимо вернуть эти данн…
Хотел сделать парсер для вывода информации со школьного сайта, но BeautifulSoap не может найти элемент кода. from bs4 import BeautifulSoup import requests url = str("https://…
Хочу спарсить страницу новостей сайта, а именно: время публикации, название новости, ссылка на новость. Но, вместо того, чтобы выводить все новости страницы выводит только 1 пункт…
import requests from bs4 import BeautifulSoup as BS url = 'https://finance.rambler.ru/calculators/converter/1-USD-RUB/' r = requests.get(url) soup = BS(r.content, 'html.parser') m…
Как сохранить все картинки, а именно .png, которые находятся на странице? Мой код не работает: import requests from bs4 import BeautifulSoup response = requests.get("https://…
Мне нужно пропарсить всю страницу, но проблема состоит том, что когда я отправляю запрос на страницу там присутствуют всего 8 тегов, они увеличиваются по мере того как ее листаешь…
Существует сайт из которого нужно скопировать все ссылки на файлы формата .xlsx import requests URL = 'https://rosstat.gov.ru/vpn_popul' resp = requests.get(URL) html = resp.text …
Как найти все названия классов на сайте с помощью BeautifulSoup
Пишу парсер вк, который мог бы подсчитать лайки под постами. Мой код нже выдает ошибку: 'NavigableString' object has no attribute 'find_all' Подскажите, пожалуйста, что произошло?…
def parsing(): print("Парcинг...") pars_req = requests.get(url, headers=headers) print(pars_req.status_code) html = pars_req.text soup = BeautifulSoup(html, 'lxml') id =…
from bs4 import BeautifulSoup import requests response = requests.get("https://nasoscentr.ru/catalog/nasosy-tipa-d-1d-2d/") web_page = response.text soup = BeautifulSoup…
Вот код страницы, которую надо спарсить: <html> <head> <meta name="color-scheme" content="light dark"> </head> <body> <pre sty…
Есть код, который парсит все таблицы с сайта, которые только может найти: def parse(html): soup = BeautifulSoup(html) table = soup.find_all('table') res = [] for row in table: col…
При завершении парсинга и сохранении в csv выдается ошибка KeyError: 'name1' В чем может быть проблема? from bs4 import BeautifulSoup import urllib.request import requests import …