Как выполнить парсинг текста из всех ссылок, не вводя при этом сами ссылки
В общем, мне нужно разработать парсинг сайта.
Нужно, чтобы был вывод всех слов из сайта https://fasie.ru/programs и ссылок на программы.
В частности, "ИнноШкольник", "УМНИК", "Студенческий стартап", "Старт", "Развитие", "Интернационализация", "Коммерциализация" и "Кооперация". В каждой программе по четыре раздела: "Условие", "Документы", "Конкурсы" и "Контакты".
Нужно вывести все содержимое из этих разделов. Но при этом не должно быть ссылок на данные программы. Чтобы при введении новой программы из сайта можно было не писать код.
Нужно чтобы всё было автоматически.
Ну, вот для примера код
from bs4 import BeautifulSoup
from urllib.request import urlopen
import re
import webbrowser
import urllib
import urllib.request
import os
from urllib.request import urlretrieve
url = "https://fasie.ru/programs/programma-innoshkolnik/"
page = urlopen(url)
html = page.read().decode("utf-8")
soup = BeautifulSoup(html, "html.parser")
granitza = "_"
gran = granitza.center(49)
lab1 = "Основные условия"
label1 = lab1.center(95)
div1 = soup.find("section", id="content-tab1").text
a1 = re.sub("\s+", " ",div1)
print("\u0332\u203E".join(gran))
print("\u0332".join(label1))
print(a1)
Можно как-то сделать так, чтобы в url вместо кода на страницу, были ссылки на другие программы из "fasie.ru/programs"