API documentation for recipes¶
Reçete yazmaya yarayan API BasicNewsRecipe
ile tanımlanmıştır
- class calibre.web.feeds.news.BasicNewsRecipe(options, log, progress_reporter)[kaynak]¶
Tüm reçeteler için gerekli mantığı içeren temel sınıf. Bu sınıf içindeki fonksiyonları kademeli olarak ezerek kademeli olarak daha özelleştirilmiş/güçlü reçeteler oluşturabilirsiniz. Reçete oluşturmakla ilgili bir giriş kılavuzu için şuraya bakınız, Sık kullandığınız haber sitesini ekleme.
- abort_article(msg=None)[kaynak]¶
Mevcut makalenin indirmesini durdurmak için bu yöntemi herhangi bir ön işleme yöntemi içinde çağırın. Tamamen videodan oluşan makaleler gibi uygunsuz içerik içeren makaleleri atlamak için kullanışlıdır.
- abort_recipe_processing(msg)[kaynak]¶
Reçete indirme sisteminin bu reçeteyi indirmeyi durdurmasına sebep olur, kullanıcıya basit bir ger besleme iletisi gösterilir.
- add_toc_thumbnail(article, src)[kaynak]¶
Bunu populate_article_metadata’dan makaledeki <img> etiketinin İçindekiler bölümünde makaleyi temsil etmeye uygun küçük resim için src özniteliği ile çağırın. Küçük resmin gerçekten kullanılıp kullanılmayacağı aygıta bağlıdır (şimdilik sadece Kindle’larda kullanılır). Referans verilen resmin başarılı şekilde indirilmiş olmasına dikkat edin, aksi takdirde yoksayılacaktır.
- classmethod adeify_images(soup)[kaynak]¶
Reçeteniz EPUB’a dönüştürüldüğünde ve Adobe Digital Editions ile görüntülendiğinde resimlerle ilgili sorun yaşıyorsa bu metodu
postprocess_html()
içinden çağırın.
- canonicalize_internal_url(url, is_link=True)[kaynak]¶
``url``nin kuralsal temsillerinin kümesini döndür. Varsayılan gerçekleme yalnızca sunucu makine adı ve URL yolunu kullanır, sorgu parametrelerini, parçaları, vs göz ardı eder. Kuralsal ifadeler bu haber kaynağının URL’leri arasında benzersiz olmalıdırlar. Olmazlarsa, dahili bağlantılar yanlış şekilde çözümlenebilir.
- Parametreler:
is_link – URL bir HTML dosyasındandaki dahili bağlantıdan geliyorsa Doğrudur. URL makaleyi indirmek için kullanılan URL ise Yanlış.
- cleanup()[kaynak]¶
Tüm makaleler indirildikten sonra çağrılır. Aboneli sitelerden çıkış yapmak gibi temizlik işlerini yapmak için kullanın.
- clone_browser(br)[kaynak]¶
Tarayıcıyı coğalt. Çoğaltılmış tarayıcılar çok iş parçacıklı indirmeler yapmak için kullanılır, çünkü mechanize iş parçacığı güvenli değildir. Varsayılan çoğaltma rutinleri çoğu tarayıcı özelleştirmesini yakalıyor olmalıdır, ancak reçetenizde egzotik bir şeyler yaparsanız, reçetenizde bu metodu ezmeli ve elle çoğaltma yapmalısınız.
Çoğaltılmış tarayıcı örnekleri çerez yönetiminde özelleştirme yapmadıysanız varsayılan olarak aynı, iş parçacığı güvenli CookieJar’ı kullanır.
- download()[kaynak]¶
Bu reçetedeki beslemelerden makaleleri indir ve ön işleme yap. Bu metod her Reçete örneği için yalnızca bir kere çağrılmalıdır. Birden fazla çağırmak tanımlanmayan davranışlara yol açar. :return: index.html yolu
- extract_readable_article(html, url)[kaynak]¶
‘html’den ana makale içeriğini aktarır, temizler ve demet (article_html, extracted_title) olarak döndürür. Arc90’ın asıl okunabilirlik algortimasına dayanır.
- get_article_url(article)[kaynak]¶
Override in a subclass to customize extraction of the URL that points to the content for each article. Return the article URL. It is called with article, an object representing a parsed article from a feed. See feedparser. By default it looks for the original link (for feeds syndicated via a service like FeedBurner or Pheedo) and if found, returns that or else returns article.link.
- get_browser(*args, **kwargs)[kaynak]¶
Return a browser instance used to fetch documents from the web. By default it returns a mechanize browser instance that supports cookies, ignores robots.txt, handles refreshes and has a random common user agent.
To customize the browser override this method in your sub-class as:
def get_browser(self, *a, **kw): br = super().get_browser(*a, **kw) # Add some headers br.addheaders += [ ('My-Header', 'one'), ('My-Header2', 'two'), ] # Set some cookies br.set_cookie('name', 'value') br.set_cookie('name2', 'value2', domain='.mydomain.com') # Make a POST request with some data br.open('https://someurl.com', {'username': 'def', 'password': 'pwd'}).read() # Do a login via a simple web form (only supported with mechanize browsers) if self.username is not None and self.password is not None: br.open('https://www.nytimes.com/auth/login') br.select_form(name='login') br['USERID'] = self.username br['PASSWORD'] = self.password br.submit() return br
- get_cover_url()[kaynak]¶
Bu basımın kapağına URL ya da None döndür. Varsayılan olarak normalde None olan self.cover_url öğesinin değerini döndürür. Reçetenizin e-kitap için bir kapak indirmesini istiyorsanız bu metodu alt sınıfınızda ezin, veya bu metodu çağırmadan önce üye değişken `self.cover_url`yi ayarlayın.
- get_extra_css()[kaynak]¶
By default returns self.extra_css. Override if you want to programmatically generate the extra_css.
- get_feeds()[kaynak]¶
Bu profil için getirilecek RSS beslemeleri listesini döndürür. Listenin her elemanı (başlık, url) biçiminde 2 elemanlı demet şeklinde olmalıdır. Başlık None veya boş karakter dizisi ise, beslemedeki başlık kullanılır. Bu method reçetenizin indirilecek besleme listesini anlamak için bir miktar işlem yapması gereken durumlarda faydalıdır. Durum böyleyse, kendi alt sınıfınızda ezin.
- get_masthead_url()[kaynak]¶
Bu basım için kolombir resminin URL`sini ya da `None döndür. Varsayılan olarak normalde değeri None olan self.masthead_url üyesinin değerini döndürür. Reçetenizin e-kitap için bir kolombir indirmesini istiyorsanız bu metodu alt sınıfınızda ezin, veya bu metodu çağırmadan üye değişken `self.masthead_url`yi ayarlayın. Kolombir resimleri Kindle MOBI dosyalarında kullanılır.
- get_obfuscated_article(url)[kaynak]¶
If you set articles_are_obfuscated this method is called with every article URL. It should return the path to a file on the filesystem that contains the article HTML. That file is processed by the recursive HTML fetching engine, so it can contain links to pages/images on the web. Alternately, you can return a dictionary of the form: {‘data’: <HTML data>, ‘url’: <the resolved URL of the article>}. This avoids needing to create temporary files. The url key in the dictionary is useful if the effective URL of the article is different from the URL passed into this method, for example, because of redirects. It can be omitted if the URL is unchanged.
Bu metod makale içeriğine otomatik olarak erişmeyi zorlaştırmaya çalışan siteler için faydalı olabilir.
- get_url_specific_delay(url)[kaynak]¶
Return the delay in seconds before downloading this URL. If you want to programmatically determine the delay for the specified URL, override this method in your subclass, returning self.delay by default for URLs you do not want to affect.
- Dönüşler:
A floating point number, the delay in seconds.
- classmethod image_url_processor(baseurl, url)[kaynak]¶
Perform some processing on image urls (perhaps removing size restrictions for dynamically generated images, etc.) and return the processed URL. Return None or an empty string to skip fetching the image.
- index_to_soup(url_or_raw, raw=False, as_tree=False, save_raw=None)[kaynak]¶
Convenience method that takes an URL to the index page and returns a BeautifulSoup of it.
url_or_raw: Bir URL ya da karakter dizisi olarak indirilmiş dizin sayfası
- is_link_wanted(url, tag)[kaynak]¶
Bağlantı takip edilmeliyse True, aksi durumda False döndür. Ön tanımlı olarak, indiricinin yoksaymasına sebep olacak NotImplementedError yükseltir.
- Parametreler:
url – Takip edilecek URL
tag – The tag from which the URL was derived
- parse_feeds()[kaynak]¶
BasicNewsRecipe.get_feeds()
tarafından döndürülen beslemelerden makale listeleri oluşturur.Feed
nesnesi listesi döndürür.
- parse_index()[kaynak]¶
Bu metod makale listeleri yerine web sayfalarını ayrıştırması gereken reçetelerde uygulanır. Kullanım alanı, yazdırma baskısındaki makaleleri bir “Yazım Baskısı” ile listeleyen haber kaynakları olabilir. Bu fonksiyon uygulanırsa,
BasicNewsRecipe.parse_feeds()
yerine tercih edilir.Bir liste döndürmelidir. Listenin her elemanı
('besleme başlığı', makale listesi)
biçiminde 2 elemanlı demet olmalıdır.Her makale listesi şu biçimde sözlük içermelidir:
{ 'title' : article title, 'url' : URL of print version, 'date' : The publication date of the article as a string, 'description' : A summary of the article 'content' : The full article (can be an empty string). Obsolete do not use, instead save the content to a temporary file and pass a file:///path/to/temp/file.html as the URL. }
Örnek olarak, The Atlantic indirmek için olan reçeteye göz atın. Ek olarak makalenin yazarı için ‘author’ ekleyebilirsiniz.
Herhangi sebepten işlemeyi durdurmak ve calibre’nin kullanıcıya hata yerine basit bir ileti göstermesini isterseniz,
abort_recipe_processing()
metodunu çağırın.
- populate_article_metadata(article, soup, first)[kaynak]¶
Called when each HTML page belonging to article is downloaded. Intended to be used to get article metadata like author/summary/etc. from the parsed HTML (soup).
- Parametreler:
article – A object of class
calibre.web.feeds.Article
. If you change the summary, remember to also change the text_summarysoup – Parsed HTML belonging to this article
first – True iff the parsed HTML is the first page of the article.
- postprocess_book(oeb, opts, log)[kaynak]¶
İndirilmiş e-kitap üstünde gerekli tüm art işlemleri çalıştır.
- Parametreler:
oeb – OEBBook nesnesi
opts – Dönüştürme seçenekleri
- postprocess_html(soup, first_fetch)[kaynak]¶
Bu metod indirilen her bir HTML dosyası kaynağı ile, bağlantılar ve resimler için ayrıştırıldıktan sonra çağrılır. HTML üzerinde keyfi, güçlü, işleme sonrası işlemler yapmak için kullanılabilir. İşledikten sonra soup döndürmelidir.
- Parametreler:
soup – A BeautifulSoup instance containing the downloaded HTML.
first_fetch – Bu sayfa makalenin ilk sayfasıysa True.
- preprocess_html(soup)[kaynak]¶
Bu metod indirilen her bir HTML dosyası kaynağı ile, bağlantılar ve resimler için ayrıştırılmadan önce çağrılır. remote_tags vs. de tanımlandığı gibi temizlik yapıldıktan sonra çağrılır. HTML üzerinde keyfi, güçlü işleme öncesi işlemler yapmak için kullanılabilir. İşlemden sonra soup döndürmelidir.
soup: A BeautifulSoup instance containing the downloaded HTML.
- preprocess_image(img_data, image_url)[kaynak]¶
Perform some processing on downloaded image data. This is called on the raw data before any resizing is done. Must return the processed raw data. Return None to skip the image.
- preprocess_raw_html(raw_html, url)[kaynak]¶
Bu metod indirilen her bir HTML dosyası kaynağı ile, bir nesne ağacına ayrıştırılmadan önce çağrılır. raw_html web’den indirilen ham HTML’nin evrensel kodda karakter dizisi temsilidir. url HTML’nin indirildiği URL’dir.
Bu metodun preprocess_regexps’den önce hareket ettiğini unutmayın.
Bu metod işlenmiş raw_html’yi evrensel kod nesnesi olarak döndürmelidir.
- classmethod print_version(url)[kaynak]¶
Makale içeriği olan bir web sayfasını gösteren url`yi al ve makalenin yazdırma sürümünü gösteren bir :term:`URL döndür. Varsayılan olarak hiçbir şey yapmaz. Örneğin:
def print_version(self, url): return url + '?&pagewanted=print'
- publication_date()[kaynak]¶
Use this method to set the date when this issue was published. Defaults to the moment of download. Must return a
datetime.datetime
object.
- skip_ad_pages(soup)[kaynak]¶
Bu metod indirilen her HTML dosyasının kaynağı ile, remove_tags, keep_only_tags gibi herhangi bir temizlik özniteliği uygulanmadan önce çağrılır. preprocess_regexps’in zaten uygulanmış olacağını unutmayın. Reçetenin reklam sayfalarını atlamasına olanak tanımak için düşünülmüştür. Eğer soup bir reklam sayfasını temsil ederse, gerçek sayfanın HTML’sini döndür. Aksi halde None döndür.
soup: A BeautifulSoup instance containing the downloaded HTML.
- sort_index_by(index, weights)[kaynak]¶
index`deki başlıkları `weights`e göre sıralamaya yarayan kolaylık sağlayıcı metod. `index yerinde sıralanır. index döndürür.
index: Başlık listesi.
weights: Ağırlıkları başlığa haritalayan bir sözlük. Index’deki herhangi bir başlık ağırlıklı olmazsa, 0 ağırlıklı olduğu varsayılır.
- classmethod tag_to_string(tag, use_alt=True, normalize_whitespace=True)[kaynak]¶
Convenience method to take a BeautifulSoup
Tag
and extract the text from it recursively, including any CDATA sections and alt tag attributes. Return a possibly empty Unicode string.use_alt: True ise metinsel içeriği olmayan etiketler için alt öznitelik kullanmaya çalış
tag: BeautifulSoup
Tag
- articles_are_obfuscated = False¶
İçerik almasını zorlaştıran web sitelerini işlemek için True olarak ayarlayın ve
get_obfuscated_article()
metodunu uygulayın.
- auto_cleanup = False¶
İndirilmiş makale sayfalarından tüm metni otomatik olarak çıkart. Okunabilirlik projesinden algoritmalar kullanır. True olarak ayarlamak, indirilmiş HTML’yi temizlemekle elle uğraşmanıza gerek olmadığı anlamına gelir (Elle temizlik daha üstündür tabi).
- auto_cleanup_keep = None¶
Otomatik temizleme algoritmasının asla kaldırmaması gereken öğeleri belirtin. Söz dizim XPath ifadesidir. Örneğin:
auto_cleanup_keep = '//div[@id="article-image"]' will keep all divs with id="article-image" auto_cleanup_keep = '//*[@class="important"]' will keep all elements with class="important" auto_cleanup_keep = '//div[@id="article-image"]|//span[@class="important"]' will keep all divs with id="article-image" and spans with class="important"
- browser_type = 'mechanize'¶
The simulated browser engine to use when downloading from servers. The default is to use the Python mechanize browser engine, which supports logging in. However, if you don’t need logging in, consider changing this to either ‘webengine’ which uses an actual Chromium browser to do the network requests or ‘qt’ which uses the Qt Networking backend. Both ‘webengine’ and ‘qt’ support HTTP/2, which mechanize does not and are thus harder to fingerprint for bot protection services.
True ise gezinti çubuğu ortada hizalanır, yoksa sola hizalanır
- compress_news_images = False¶
Set this to False to ignore all scaling and compression parameters and pass images through unmodified. If True and the other compression parameters are left at their default values, JPEG images will be scaled to fit in the screen dimensions set by the output profile and compressed to size at most (w * h)/16 where w x h are the scaled image dimensions.
- compress_news_images_auto_size = 16¶
The factor used when auto compressing JPEG images. If set to None, auto compression is disabled. Otherwise, the images will be reduced in size to (w * h)/compress_news_images_auto_size bytes if possible by reducing the quality level, where w x h are the image dimensions in pixels. The minimum JPEG quality will be 5/100 so it is possible this constraint will not be met. This parameter can be overridden by the parameter compress_news_images_max_size which provides a fixed maximum size for images. Note that if you enable scale_news_images_to_device then the image will first be scaled and then its quality lowered until its size is less than (w * h)/factor where w and h are now the scaled image dimensions. In other words, this compression happens after scaling.
- compress_news_images_max_size = None¶
Set JPEG quality so images do not exceed the size given (in KBytes). If set, this parameter overrides auto compression via compress_news_images_auto_size. The minimum JPEG quality will be 5/100 so it is possible this constraint will not be met.
- conversion_options = {}¶
İndirilen içeriğin e-kitaba dönüştürülmesini kontrol eden reçeteye özel seçenekler. Bunlar kullanıcı veya eklentiye özel ayarları ezecektir, bu yüzden yalnızca gerekliyse kullanın. Örneğin:
conversion_options = { 'base_font_size' : 16, 'linearize_tables' : True, }
- cover_margins = (0, 0, '#ffffff')¶
By default, the cover image returned by get_cover_url() will be used as the cover for the periodical. Overriding this in your recipe instructs calibre to render the downloaded cover into a frame whose width and height are expressed as a percentage of the downloaded cover. cover_margins = (10, 15, ‘#ffffff’) pads the cover with a white margin 10px on the left and right, 15px on the top and bottom. Color names are defined here. Note that for some reason, white does not always work in Windows. Use #ffffff instead
- delay = 0¶
The default delay between consecutive downloads in seconds. The argument may be a floating point number to indicate a more precise time. See
get_url_specific_delay()
to implement per URL delays.
- description = ''¶
Bu reçetenin indirdiği içeriği tanımlayan bir kaç satır. Bu daha çok reçete listesini sunan GUI’de kullanılacaktır.
- encoding = None¶
Hatalı karakter seti tanımlamasına sahip sitelerde kullanılmak üzere bir karakter kodlaması belirleyin. En sık kullanılan
latin1
vecp1252
dir. None ise, kodlama tahmin edilmeye çalışılır. Eğer çağrılabilirse, iki bağımsız değişken ile çağrılır: Reçete nesnesi ve kodu çözülecek kaynak. Kodu çözülmüş kaynağı döndürmelidir.
- extra_css = None¶
Specify any extra CSS that should be added to downloaded HTML files. It will be inserted into <style> tags, just before the closing </head> tag thereby overriding all CSS except that which is declared using the style attribute on individual HTML tags. Note that if you want to programmatically generate the extra_css override the
get_extra_css()
method instead. For example:extra_css = '.heading { font: serif x-large }'
- feeds = None¶
İndirilecek besleme listesi.
[url1, url2, ...]
veya[('title1', url1), ('title2', url2),...]
olabilir
- filter_regexps = []¶
Hangi bağlantıların göz ardı edileceğine karar veren düzenli ifade listesi. Boşsa göz ardı edilir. Yalnızca is_link_wanted uygulanmamışsa kullanılır. Örneğin:
filter_regexps = [r'ads\.doubleclick\.net']
içinde ads.doubleclick.net olan tüm URL’leri kaldırır.
BasicNewsRecipe.match_regexps
veyaBasicNewsRecipe.filter_regexps
den yalnızca biri tanımlanmalıdır.
- handle_gzip = True¶
Set to False if you do not want to use gzipped transfers with the mechanize browser. Note that some old servers flake out with gzip.
- ignore_duplicate_articles = None¶
Bir kısımdan fazla yerde olan makalelerin kopyalarını göz ardı et. Kopya makale, aynı başlık ve/veya URL’ye sahip makaledir. Aynı başlıktaki makaleleri göz ardı etmek için, şu şekilde ayarlayın:
ignore_duplicate_articles = {'title'}
URL’ler kullanmak için, şöyle ayarlayın:
ignore_duplicate_articles = {'url'}
Başlık veya URL eşleştirme için, şu şekilde ayarlayın:
ignore_duplicate_articles = {'title', 'url'}
- keep_only_tags = []¶
Yalnızca belirtilen etiketleri ve onların alt etiketlerini sakla. Bir etiketi belirtme formatı için bakınız
BasicNewsRecipe.remove_tags
. Bu liste boş değilse, <body> etiketi boşaltılır ve bu listedeki girdilerle eşleşen etiketlerle tekrar doldurulur. Örneğin:keep_only_tags = [dict(id=['content', 'heading'])]
yalnızca “content” veya “heading”`in `id özniteliği olan etiketleri tutar.
- language = 'und'¶
Haberlerin dili. İki veya üç karakter uzunluğunda ISO-639 kodu olmalıdır
- masthead_url = None¶
By default, calibre will use a default image for the masthead (Kindle only). Override this in your recipe to provide a URL to use as a masthead.
- match_regexps = []¶
Hangi bağlantıların takip edileceğini belirten düzenli ifade listesi. Boşsa, göz ardı edilir. Yalnızca is_link_wanted uygulanmamışsa kullanılır. Örneğin:
match_regexps = [r'page=[0-9]+']
içinde page=some number olan tüm URL’lerle eşleşir.
BasicNewsRecipe.match_regexps
veyaBasicNewsRecipe.filter_regexps
den yalnızca biri tanımlanmalıdır.
- max_articles_per_feed = 100¶
Her beslemeden indirilecek azami makale sayısı. Makale tarihleri olmayan beslemeler için özellikle faydalıdır. Çoğu besleme için
BasicNewsRecipe.oldest_article
kullanmalısınız
- needs_subscription = False¶
True is GUI indirme sırasında kullanıcı ve parola sorar. “isteğe bağlı” olarak ayarlanmışsa kullanıcı adı ve parola isteğe bağlıdır
- no_stylesheets = False¶
Convenient flag to disable loading of stylesheets for websites that have overly complex stylesheets unsuitable for conversion to e-book formats. If True stylesheets are not downloaded and processed
- oldest_article = 7.0¶
Bu haber kaynağından indirilecek en eski makale. Gün olarak.
- preprocess_regexps = []¶
İndirilen HTML üzerince çalıştırılacak regexp yer değiştirme kuralları listesi. Listenin her elemanı iki elemanlı bir demet olmalıdır. İlk eleman derlenmiş bir düzenli ifade, ikincisi tek bir eşleşme nesnesi alan ve eşleşmeyle yer değişecek karakter dizisi döndüren bir çağrılabilir olmalıdır. Örneğin:
preprocess_regexps = [ (re.compile(r'<!--Article ends here-->.*</body>', re.DOTALL|re.IGNORECASE), lambda match: '</body>'), ]
<!–Article ends here–> ve </body> arasındaki herşeyi kaldırır.
- publication_type = 'unknown'¶
Yayın biçimi gazete, magazin veya blok olarak ayarlanır. None olarak ayarlanırsa, opf dosyasına yayın biçimi metadata’sı yazılmaz.
- recipe_disabled = None¶
Bu reçeteyi kapatmak için boş olmayan bir karakter dizisi olarak ayarlayın. Karakter dizisi kapatma iletisi olarak kullanılacaktır
- recipe_specific_options = None¶
Specify options specific to this recipe. These will be available for the user to customize in the Advanced tab of the Fetch News dialog or at the ebook-convert command line. The options are specified as a dictionary mapping option name to metadata about the option. For example:
recipe_specific_options = { 'edition_date': { 'short': 'The issue date to download', 'long': 'Specify a date in the format YYYY-mm-dd to download the issue corresponding to that date', 'default': 'current', } }
When the recipe is run, self.recipe_specific_options will be a dict mapping option name to the option value specified by the user. When the option is unspecified by the user, it will have the value specified by ‘default’. If no default is specified, the option will not be in the dict at all, when unspecified by the user.
- recursions = 0¶
Makale web sitelerinde takip edilecek bağlantı seviyesi sayısı
- remove_attributes = []¶
Tüm etiketlerden kaldırılacak öznitelik listesi. Örneğin:
remove_attributes = ['style', 'font']
- remove_empty_feeds = False¶
True ise boş beslemeler çıktıdan kaldırılır. parse_index alt sınıfta ezilmişse bu seçeneğin hiçbir etkisi yoktur. Yalnızca feeds veya
get_feeds()
kullanarak bir besleme listesi döndüren reçeteler içindir. Ayrıca ignore_duplicate_articles seçeneğini kullanırsanız da kullanılır.
- remove_javascript = True¶
Convenient flag to strip all JavaScript tags from the downloaded HTML
- remove_tags = []¶
Kaldırılacak etiket listesi. Belirtilen etiketler indirilen HTML’den çıkarılır. Bir etiket şu biçimdeki sözlük olarak tanımlanır:
{ name : 'tag name', #e.g. 'div' attrs : a dictionary, #e.g. {'class': 'advertisment'} }
All keys are optional. For a full explanation of the search criteria, see Beautiful Soup A common example:
remove_tags = [dict(name='div', class_='advert')]
Bu tüm <div class=”advert”> etiketlerini ve alt etiketlerini indirilen :term:`HTML`den çıkarır.
- remove_tags_after = None¶
Belirtilen etiketten sonra gelen tüm etiketleri kaldır. Bir etiketi belirtme biçimi için bakınız
BasicNewsRecipe.remove_tags
. Örneğin:remove_tags_after = [dict(id='content')]
id=”content” e sahip ilk elemandan sonraki tüm etiketleri kaldırır.
- remove_tags_before = None¶
Belirtilen etiketten önce gelen tüm etiketleri kaldır. Bir etiketi belirtme biçimi için bakınız
BasicNewsRecipe.remove_tags
. Örneğin:remove_tags_before = dict(id='content')
id=”content” e sahip ilk elemandan önceki tüm etiketleri kaldırır.
- requires_version = (0, 6, 0)¶
Bu reçeteyi kullanabilmek için gerekli asgari calibre sürümü
- resolve_internal_links = False¶
Doğru olarak ayarlanmışsa indirilen makalelerdeki diğer indirilen makaleleri gösteren bağlantılar makalenin asıl web URL’si yerine indirilen kopyasını gösterecek şekilde değiştirilir. Bu seçeneği Doğru olarak ayarlarsanız, ayrıca web sitenizin URL şablonuyla çalışması için
canonicalize_internal_url()
gerçekleştirmeniz de gerekebilir.
- reverse_article_order = False¶
Her beslemedeki makalelerin sırasını tersine çevir
- scale_news_images = None¶
Resimlerin ölçeklendirileceği azamı boyut (w,h). scale_news_images_to_device True ise çıktı profilinde ayarlanan aygıt ekran boyutuna ayarlanır, profilin ayarlanmadığı durumlarda hangi değer atanmışsa o bırakılır (varsayılan None).
- scale_news_images_to_device = True¶
Resmi çıktı profilinde ayarlanmış aygıt ekran boyutlarına sığması için ölçeklendir. Çıktı profili ayarlanmamışsa göz ardı edilir.
- simultaneous_downloads = 5¶
Eş zamanlı indirme sayısı. Sunucu titizse 1 olarak ayarlanır.
BasicNewsRecipe.delay
> 0 ise otomatik olarak 1’e düşürülür
- summary_length = 500¶
Kısa tanımlamadaki azami karakter sayısı
- template_css = '\n .article_date {\n color: gray; font-family: monospace;\n }\n\n .article_description {\n text-indent: 0pt;\n }\n\n a.article {\n font-weight: bold; text-align:left;\n }\n\n a.feed {\n font-weight: bold;\n }\n\n .calibre_navbar {\n font-family:monospace;\n }\n '¶
Şablonları biçimlendirmek için kullanılan CSS, ör., gezinti çubukları ve İçindekiler. Bu değişkeni ezmek yerine, doku ve görünümü özelleştirmek için reçetenizde extra_css kullanmalısınız.
- timefmt = ' [%a, %d %b %Y]'¶
İlk sayfada gösterilen tarih için biçim karakter dizisi. Varsayılanı: Gün_Adı, Gün_Numarası Ay_Adı Yıl
- timeout = 120.0¶
Sunucudan dosyaları indirirken kullanılacak saniye cinsinden zaman aşımı
- title = 'Bilinmeyen Haber Kaynağı'¶
The title to use for the e-book
- use_embedded_content = None¶
Normalde bir beslemede tüm makalenin gömülü olup olmadığını gömülü içeriğin uzunluğuna bakarak tahmin etmeye çalışırız. None ise, varsayılan tahmin kullanılır. True ise beslemelerin gömülü içeriği olduğunu, False ise beslemenin gömülü içeriği olmadığını var sayarız.