API documentation for recipes

Reçete yazmaya yarayan API BasicNewsRecipe ile tanımlanmıştır

class calibre.web.feeds.news.BasicNewsRecipe(options, log, progress_reporter)[kaynak]

Tüm reçeteler için gerekli mantığı içeren temel sınıf. Bu sınıf içindeki fonksiyonları kademeli olarak ezerek kademeli olarak daha özelleştirilmiş/güçlü reçeteler oluşturabilirsiniz. Reçete oluşturmakla ilgili bir giriş kılavuzu için şuraya bakınız, Sık kullandığınız haber sitesini ekleme.

abort_article(msg=None)[kaynak]

Mevcut makalenin indirmesini durdurmak için bu yöntemi herhangi bir ön işleme yöntemi içinde çağırın. Tamamen videodan oluşan makaleler gibi uygunsuz içerik içeren makaleleri atlamak için kullanışlıdır.

abort_recipe_processing(msg)[kaynak]

Reçete indirme sisteminin bu reçeteyi indirmeyi durdurmasına sebep olur, kullanıcıya basit bir ger besleme iletisi gösterilir.

add_toc_thumbnail(article, src)[kaynak]

Bunu populate_article_metadata’dan makaledeki <img> etiketinin İçindekiler bölümünde makaleyi temsil etmeye uygun küçük resim için src özniteliği ile çağırın. Küçük resmin gerçekten kullanılıp kullanılmayacağı aygıta bağlıdır (şimdilik sadece Kindle’larda kullanılır). Referans verilen resmin başarılı şekilde indirilmiş olmasına dikkat edin, aksi takdirde yoksayılacaktır.

classmethod adeify_images(soup)[kaynak]

Reçeteniz EPUB’a dönüştürüldüğünde ve Adobe Digital Editions ile görüntülendiğinde resimlerle ilgili sorun yaşıyorsa bu metodu postprocess_html() içinden çağırın.

canonicalize_internal_url(url, is_link=True)[kaynak]

``url``nin kuralsal temsillerinin kümesini döndür. Varsayılan gerçekleme yalnızca sunucu makine adı ve URL yolunu kullanır, sorgu parametrelerini, parçaları, vs göz ardı eder. Kuralsal ifadeler bu haber kaynağının URL’leri arasında benzersiz olmalıdırlar. Olmazlarsa, dahili bağlantılar yanlış şekilde çözümlenebilir.

Parametreler:

is_link – URL bir HTML dosyasındandaki dahili bağlantıdan geliyorsa Doğrudur. URL makaleyi indirmek için kullanılan URL ise Yanlış.

cleanup()[kaynak]

Tüm makaleler indirildikten sonra çağrılır. Aboneli sitelerden çıkış yapmak gibi temizlik işlerini yapmak için kullanın.

clone_browser(br)[kaynak]

Tarayıcıyı coğalt. Çoğaltılmış tarayıcılar çok iş parçacıklı indirmeler yapmak için kullanılır, çünkü mechanize iş parçacığı güvenli değildir. Varsayılan çoğaltma rutinleri çoğu tarayıcı özelleştirmesini yakalıyor olmalıdır, ancak reçetenizde egzotik bir şeyler yaparsanız, reçetenizde bu metodu ezmeli ve elle çoğaltma yapmalısınız.

Çoğaltılmış tarayıcı örnekleri çerez yönetiminde özelleştirme yapmadıysanız varsayılan olarak aynı, iş parçacığı güvenli CookieJar’ı kullanır.

default_cover(cover_file)[kaynak]

Kapağı olmayan reçeteler için genel bir kapak oluştur

download()[kaynak]

Bu reçetedeki beslemelerden makaleleri indir ve ön işleme yap. Bu metod her Reçete örneği için yalnızca bir kere çağrılmalıdır. Birden fazla çağırmak tanımlanmayan davranışlara yol açar. :return: index.html yolu

extract_readable_article(html, url)[kaynak]

‘html’den ana makale içeriğini aktarır, temizler ve demet (article_html, extracted_title) olarak döndürür. Arc90’ın asıl okunabilirlik algortimasına dayanır.

get_article_url(article)[kaynak]

Override in a subclass to customize extraction of the URL that points to the content for each article. Return the article URL. It is called with article, an object representing a parsed article from a feed. See feedparser. By default it looks for the original link (for feeds syndicated via a service like FeedBurner or Pheedo) and if found, returns that or else returns article.link.

get_browser(*args, **kwargs)[kaynak]

Return a browser instance used to fetch documents from the web. By default it returns a mechanize browser instance that supports cookies, ignores robots.txt, handles refreshes and has a mozilla firefox user agent.

Reçeteniz önce giriş yapmanızı gerektiriyorsa, alt sınıfınızda bu metodu ezin. Örneğin, New York Times reçetesinde kullanılan aşağıdaki kod tam erişim için giriş yapar:

def get_browser(self):
    br = BasicNewsRecipe.get_browser(self)
    if self.username is not None and self.password is not None:
        br.open('https://www.nytimes.com/auth/login')
        br.select_form(name='login')
        br['USERID']   = self.username
        br['PASSWORD'] = self.password
        br.submit()
    return br
get_cover_url()[kaynak]

Bu basımın kapağına URL ya da None döndür. Varsayılan olarak normalde None olan self.cover_url öğesinin değerini döndürür. Reçetenizin e-kitap için bir kapak indirmesini istiyorsanız bu metodu alt sınıfınızda ezin, veya bu metodu çağırmadan önce üye değişken `self.cover_url`yi ayarlayın.

get_extra_css()[kaynak]

By default returns self.extra_css. Override if you want to programmatically generate the extra_css.

get_feeds()[kaynak]

Bu profil için getirilecek RSS beslemeleri listesini döndürür. Listenin her elemanı (başlık, url) biçiminde 2 elemanlı demet şeklinde olmalıdır. Başlık None veya boş karakter dizisi ise, beslemedeki başlık kullanılır. Bu method reçetenizin indirilecek besleme listesini anlamak için bir miktar işlem yapması gereken durumlarda faydalıdır. Durum böyleyse, kendi alt sınıfınızda ezin.

get_masthead_title()[kaynak]

Reçete başlığından başka bir şey kullanmak için alt sınıfta ezin

get_masthead_url()[kaynak]

Bu basım için kolombir resminin URL`sini ya da `None döndür. Varsayılan olarak normalde değeri None olan self.masthead_url üyesinin değerini döndürür. Reçetenizin e-kitap için bir kolombir indirmesini istiyorsanız bu metodu alt sınıfınızda ezin, veya bu metodu çağırmadan üye değişken `self.masthead_url`yi ayarlayın. Kolombir resimleri Kindle MOBI dosyalarında kullanılır.

get_obfuscated_article(url)[kaynak]

If you set articles_are_obfuscated this method is called with every article URL. It should return the path to a file on the filesystem that contains the article HTML. That file is processed by the recursive HTML fetching engine, so it can contain links to pages/images on the web. Alternately, you can return a dictionary of the form: {‘data’: <HTML data>, ‘url’: <the resolved URL of the article>}. This avoids needing to create temporary files. The url key in the dictionary is useful if the effective URL of the article is different from the URL passed into this method, for example, because of redirects. It can be omitted if the URL is unchanged.

Bu metod makale içeriğine otomatik olarak erişmeyi zorlaştırmaya çalışan siteler için faydalı olabilir.

get_url_specific_delay(url)[kaynak]

Return the delay in seconds before downloading this URL. If you want to programmatically determine the delay for the specified URL, override this method in your subclass, returning self.delay by default for URLs you do not want to affect.

Dönüşler:

A floating point number, the delay in seconds.

classmethod image_url_processor(baseurl, url)[kaynak]

Perform some processing on image urls (perhaps removing size restrictions for dynamically generated images, etc.) and return the precessed URL. Return None or an empty string to skip fetching the image.

index_to_soup(url_or_raw, raw=False, as_tree=False, save_raw=None)[kaynak]

Convenience method that takes an URL to the index page and returns a BeautifulSoup of it.

url_or_raw: Bir URL ya da karakter dizisi olarak indirilmiş dizin sayfası

Bağlantı takip edilmeliyse True, aksi durumda False döndür. Ön tanımlı olarak, indiricinin yoksaymasına sebep olacak NotImplementedError yükseltir.

Parametreler:
  • url – Takip edilecek URL

  • tag – The tag from which the URL was derived

parse_feeds()[kaynak]

BasicNewsRecipe.get_feeds() tarafından döndürülen beslemelerden makale listeleri oluşturur. Feed nesnesi listesi döndürür.

parse_index()[kaynak]

Bu metod makale listeleri yerine web sayfalarını ayrıştırması gereken reçetelerde uygulanır. Kullanım alanı, yazdırma baskısındaki makaleleri bir “Yazım Baskısı” ile listeleyen haber kaynakları olabilir. Bu fonksiyon uygulanırsa, BasicNewsRecipe.parse_feeds() yerine tercih edilir.

Bir liste döndürmelidir. Listenin her elemanı ('besleme başlığı', makale listesi) biçiminde 2 elemanlı demet olmalıdır.

Her makale listesi şu biçimde sözlük içermelidir:

{
'title'       : article title,
'url'         : URL of print version,
'date'        : The publication date of the article as a string,
'description' : A summary of the article
'content'     : The full article (can be an empty string). Obsolete
                do not use, instead save the content to a temporary
                file and pass a file:///path/to/temp/file.html as
                the URL.
}

Örnek olarak, The Atlantic indirmek için olan reçeteye göz atın. Ek olarak makalenin yazarı için ‘author’ ekleyebilirsiniz.

Herhangi sebepten işlemeyi durdurmak ve calibre’nin kullanıcıya hata yerine basit bir ileti göstermesini isterseniz, abort_recipe_processing() metodunu çağırın.

populate_article_metadata(article, soup, first)[kaynak]

Called when each HTML page belonging to article is downloaded. Intended to be used to get article metadata like author/summary/etc. from the parsed HTML (soup).

Parametreler:
  • article – A object of class calibre.web.feeds.Article. If you change the summary, remember to also change the text_summary

  • soup – Parsed HTML belonging to this article

  • first – True iff the parsed HTML is the first page of the article.

postprocess_book(oeb, opts, log)[kaynak]

İndirilmiş e-kitap üstünde gerekli tüm art işlemleri çalıştır.

Parametreler:
  • oeb – OEBBook nesnesi

  • opts – Dönüştürme seçenekleri

postprocess_html(soup, first_fetch)[kaynak]

Bu metod indirilen her bir HTML dosyası kaynağı ile, bağlantılar ve resimler için ayrıştırıldıktan sonra çağrılır. HTML üzerinde keyfi, güçlü, işleme sonrası işlemler yapmak için kullanılabilir. İşledikten sonra soup döndürmelidir.

Parametreler:
  • soup – A BeautifulSoup instance containing the downloaded HTML.

  • first_fetch – Bu sayfa makalenin ilk sayfasıysa True.

preprocess_html(soup)[kaynak]

Bu metod indirilen her bir HTML dosyası kaynağı ile, bağlantılar ve resimler için ayrıştırılmadan önce çağrılır. remote_tags vs. de tanımlandığı gibi temizlik yapıldıktan sonra çağrılır. HTML üzerinde keyfi, güçlü işleme öncesi işlemler yapmak için kullanılabilir. İşlemden sonra soup döndürmelidir.

soup: A BeautifulSoup instance containing the downloaded HTML.

preprocess_image(img_data, image_url)[kaynak]

Perform some processing on downloaded image data. This is called on the raw data before any resizing is done. Must return the processed raw data. Return None to skip the image.

preprocess_raw_html(raw_html, url)[kaynak]

Bu metod indirilen her bir HTML dosyası kaynağı ile, bir nesne ağacına ayrıştırılmadan önce çağrılır. raw_html web’den indirilen ham HTML’nin evrensel kodda karakter dizisi temsilidir. url HTML’nin indirildiği URL’dir.

Bu metodun preprocess_regexps’den önce hareket ettiğini unutmayın.

Bu metod işlenmiş raw_html’yi evrensel kod nesnesi olarak döndürmelidir.

classmethod print_version(url)[kaynak]

Makale içeriği olan bir web sayfasını gösteren url`yi al ve makalenin yazdırma sürümünü gösteren bir :term:`URL döndür. Varsayılan olarak hiçbir şey yapmaz. Örneğin:

def print_version(self, url):
    return url + '?&pagewanted=print'
publication_date()[kaynak]

Use this method to set the date when this issue was published. Defaults to the moment of download. Must return a datetime.datetime object.

skip_ad_pages(soup)[kaynak]

Bu metod indirilen her HTML dosyasının kaynağı ile, remove_tags, keep_only_tags gibi herhangi bir temizlik özniteliği uygulanmadan önce çağrılır. preprocess_regexps’in zaten uygulanmış olacağını unutmayın. Reçetenin reklam sayfalarını atlamasına olanak tanımak için düşünülmüştür. Eğer soup bir reklam sayfasını temsil ederse, gerçek sayfanın HTML’sini döndür. Aksi halde None döndür.

soup: A BeautifulSoup instance containing the downloaded HTML.

sort_index_by(index, weights)[kaynak]

index`deki başlıkları `weights`e göre sıralamaya yarayan kolaylık sağlayıcı metod. `index yerinde sıralanır. index döndürür.

index: Başlık listesi.

weights: Ağırlıkları başlığa haritalayan bir sözlük. Index’deki herhangi bir başlık ağırlıklı olmazsa, 0 ağırlıklı olduğu varsayılır.

classmethod tag_to_string(tag, use_alt=True, normalize_whitespace=True)[kaynak]

Convenience method to take a BeautifulSoup Tag and extract the text from it recursively, including any CDATA sections and alt tag attributes. Return a possibly empty Unicode string.

use_alt: True ise metinsel içeriği olmayan etiketler için alt öznitelik kullanmaya çalış

tag: BeautifulSoup Tag

articles_are_obfuscated = False

İçerik almasını zorlaştıran web sitelerini işlemek için True olarak ayarlayın ve get_obfuscated_article() metodunu uygulayın.

auto_cleanup = False

İndirilmiş makale sayfalarından tüm metni otomatik olarak çıkart. Okunabilirlik projesinden algoritmalar kullanır. True olarak ayarlamak, indirilmiş HTML’yi temizlemekle elle uğraşmanıza gerek olmadığı anlamına gelir (Elle temizlik daha üstündür tabi).

auto_cleanup_keep = None

Otomatik temizleme algoritmasının asla kaldırmaması gereken öğeleri belirtin. Söz dizim XPath ifadesidir. Örneğin:

auto_cleanup_keep = '//div[@id="article-image"]' will keep all divs with
                                               id="article-image"
auto_cleanup_keep = '//*[@class="important"]' will keep all elements
                                            with class="important"
auto_cleanup_keep = '//div[@id="article-image"]|//span[@class="important"]'
                  will keep all divs with id="article-image" and spans
                  with class="important"
center_navbar = True

True ise gezinti çubuğu ortada hizalanır, yoksa sola hizalanır

compress_news_images = False

Set this to False to ignore all scaling and compression parameters and pass images through unmodified. If True and the other compression parameters are left at their default values, JPEG images will be scaled to fit in the screen dimensions set by the output profile and compressed to size at most (w * h)/16 where w x h are the scaled image dimensions.

compress_news_images_auto_size = 16

The factor used when auto compressing JPEG images. If set to None, auto compression is disabled. Otherwise, the images will be reduced in size to (w * h)/compress_news_images_auto_size bytes if possible by reducing the quality level, where w x h are the image dimensions in pixels. The minimum JPEG quality will be 5/100 so it is possible this constraint will not be met. This parameter can be overridden by the parameter compress_news_images_max_size which provides a fixed maximum size for images. Note that if you enable scale_news_images_to_device then the image will first be scaled and then its quality lowered until its size is less than (w * h)/factor where w and h are now the scaled image dimensions. In other words, this compression happens after scaling.

compress_news_images_max_size = None

Set JPEG quality so images do not exceed the size given (in KBytes). If set, this parameter overrides auto compression via compress_news_images_auto_size. The minimum JPEG quality will be 5/100 so it is possible this constraint will not be met.

conversion_options = {}

İndirilen içeriğin e-kitaba dönüştürülmesini kontrol eden reçeteye özel seçenekler. Bunlar kullanıcı veya eklentiye özel ayarları ezecektir, bu yüzden yalnızca gerekliyse kullanın. Örneğin:

conversion_options = {
  'base_font_size'   : 16,
  'linearize_tables' : True,
}
cover_margins = (0, 0, '#ffffff')

By default, the cover image returned by get_cover_url() will be used as the cover for the periodical. Overriding this in your recipe instructs calibre to render the downloaded cover into a frame whose width and height are expressed as a percentage of the downloaded cover. cover_margins = (10, 15, ‘#ffffff’) pads the cover with a white margin 10px on the left and right, 15px on the top and bottom. Color names are defined here. Note that for some reason, white does not always work in Windows. Use #ffffff instead

delay = 0

The default delay between consecutive downloads in seconds. The argument may be a floating point number to indicate a more precise time. See get_url_specific_delay() to implement per URL delays.

description = ''

Bu reçetenin indirdiği içeriği tanımlayan bir kaç satır. Bu daha çok reçete listesini sunan GUI’de kullanılacaktır.

encoding = None

Hatalı karakter seti tanımlamasına sahip sitelerde kullanılmak üzere bir karakter kodlaması belirleyin. En sık kullanılan latin1 ve cp1252 dir. None ise, kodlama tahmin edilmeye çalışılır. Eğer çağrılabilirse, iki bağımsız değişken ile çağrılır: Reçete nesnesi ve kodu çözülecek kaynak. Kodu çözülmüş kaynağı döndürmelidir.

extra_css = None

Specify any extra CSS that should be added to downloaded HTML files. It will be inserted into <style> tags, just before the closing </head> tag thereby overriding all CSS except that which is declared using the style attribute on individual HTML tags. Note that if you want to programmatically generate the extra_css override the get_extra_css() method instead. For example:

extra_css = '.heading { font: serif x-large }'
feeds = None

İndirilecek besleme listesi. [url1, url2, ...] veya [('title1', url1), ('title2', url2),...] olabilir

filter_regexps = []

Hangi bağlantıların göz ardı edileceğine karar veren düzenli ifade listesi. Boşsa göz ardı edilir. Yalnızca is_link_wanted uygulanmamışsa kullanılır. Örneğin:

filter_regexps = [r'ads\.doubleclick\.net']

içinde ads.doubleclick.net olan tüm URL’leri kaldırır.

BasicNewsRecipe.match_regexps veya BasicNewsRecipe.filter_regexps den yalnızca biri tanımlanmalıdır.

handle_gzip = True

Set to False if you do not want to use gzipped transfers. Note that some old servers flake out with gzip

ignore_duplicate_articles = None

Bir kısımdan fazla yerde olan makalelerin kopyalarını göz ardı et. Kopya makale, aynı başlık ve/veya URL’ye sahip makaledir. Aynı başlıktaki makaleleri göz ardı etmek için, şu şekilde ayarlayın:

ignore_duplicate_articles = {'title'}

URL’ler kullanmak için, şöyle ayarlayın:

ignore_duplicate_articles = {'url'}

Başlık veya URL eşleştirme için, şu şekilde ayarlayın:

ignore_duplicate_articles = {'title', 'url'}
keep_only_tags = []

Yalnızca belirtilen etiketleri ve onların alt etiketlerini sakla. Bir etiketi belirtme formatı için bakınız BasicNewsRecipe.remove_tags. Bu liste boş değilse, <body> etiketi boşaltılır ve bu listedeki girdilerle eşleşen etiketlerle tekrar doldurulur. Örneğin:

keep_only_tags = [dict(id=['content', 'heading'])]

yalnızca “content” veya “heading”`in `id özniteliği olan etiketleri tutar.

language = 'und'

Haberlerin dili. İki veya üç karakter uzunluğunda ISO-639 kodu olmalıdır

masthead_url = None

By default, calibre will use a default image for the masthead (Kindle only). Override this in your recipe to provide a URL to use as a masthead.

match_regexps = []

Hangi bağlantıların takip edileceğini belirten düzenli ifade listesi. Boşsa, göz ardı edilir. Yalnızca is_link_wanted uygulanmamışsa kullanılır. Örneğin:

match_regexps = [r'page=[0-9]+']

içinde page=some number olan tüm URL’lerle eşleşir.

BasicNewsRecipe.match_regexps veya BasicNewsRecipe.filter_regexps den yalnızca biri tanımlanmalıdır.

max_articles_per_feed = 100

Her beslemeden indirilecek azami makale sayısı. Makale tarihleri olmayan beslemeler için özellikle faydalıdır. Çoğu besleme için BasicNewsRecipe.oldest_article kullanmalısınız

needs_subscription = False

True is GUI indirme sırasında kullanıcı ve parola sorar. “isteğe bağlı” olarak ayarlanmışsa kullanıcı adı ve parola isteğe bağlıdır

no_stylesheets = False

Convenient flag to disable loading of stylesheets for websites that have overly complex stylesheets unsuitable for conversion to e-book formats. If True stylesheets are not downloaded and processed

oldest_article = 7.0

Bu haber kaynağından indirilecek en eski makale. Gün olarak.

preprocess_regexps = []

İndirilen HTML üzerince çalıştırılacak regexp yer değiştirme kuralları listesi. Listenin her elemanı iki elemanlı bir demet olmalıdır. İlk eleman derlenmiş bir düzenli ifade, ikincisi tek bir eşleşme nesnesi alan ve eşleşmeyle yer değişecek karakter dizisi döndüren bir çağrılabilir olmalıdır. Örneğin:

preprocess_regexps = [
   (re.compile(r'<!--Article ends here-->.*</body>', re.DOTALL|re.IGNORECASE),
    lambda match: '</body>'),
]

<!–Article ends here–> ve </body> arasındaki herşeyi kaldırır.

publication_type = 'unknown'

Yayın biçimi gazete, magazin veya blok olarak ayarlanır. None olarak ayarlanırsa, opf dosyasına yayın biçimi metadata’sı yazılmaz.

recipe_disabled = None

Bu reçeteyi kapatmak için boş olmayan bir karakter dizisi olarak ayarlayın. Karakter dizisi kapatma iletisi olarak kullanılacaktır

recursions = 0

Makale web sitelerinde takip edilecek bağlantı seviyesi sayısı

remove_attributes = []

Tüm etiketlerden kaldırılacak öznitelik listesi. Örneğin:

remove_attributes = ['style', 'font']
remove_empty_feeds = False

True ise boş beslemeler çıktıdan kaldırılır. parse_index alt sınıfta ezilmişse bu seçeneğin hiçbir etkisi yoktur. Yalnızca feeds veya get_feeds() kullanarak bir besleme listesi döndüren reçeteler içindir. Ayrıca ignore_duplicate_articles seçeneğini kullanırsanız da kullanılır.

remove_javascript = True

Convenient flag to strip all JavaScript tags from the downloaded HTML

remove_tags = []

Kaldırılacak etiket listesi. Belirtilen etiketler indirilen HTML’den çıkarılır. Bir etiket şu biçimdeki sözlük olarak tanımlanır:

{
 name      : 'tag name',   #e.g. 'div'
 attrs     : a dictionary, #e.g. {'class': 'advertisment'}
}

All keys are optional. For a full explanation of the search criteria, see Beautiful Soup A common example:

remove_tags = [dict(name='div', class_='advert')]

Bu tüm <div class=”advert”> etiketlerini ve alt etiketlerini indirilen :term:`HTML`den çıkarır.

remove_tags_after = None

Belirtilen etiketten sonra gelen tüm etiketleri kaldır. Bir etiketi belirtme biçimi için bakınız BasicNewsRecipe.remove_tags. Örneğin:

remove_tags_after = [dict(id='content')]

id=”content” e sahip ilk elemandan sonraki tüm etiketleri kaldırır.

remove_tags_before = None

Belirtilen etiketten önce gelen tüm etiketleri kaldır. Bir etiketi belirtme biçimi için bakınız BasicNewsRecipe.remove_tags. Örneğin:

remove_tags_before = dict(id='content')

id=”content” e sahip ilk elemandan önceki tüm etiketleri kaldırır.

requires_version = (0, 6, 0)

Bu reçeteyi kullanabilmek için gerekli asgari calibre sürümü

Doğru olarak ayarlanmışsa indirilen makalelerdeki diğer indirilen makaleleri gösteren bağlantılar makalenin asıl web URL’si yerine indirilen kopyasını gösterecek şekilde değiştirilir. Bu seçeneği Doğru olarak ayarlarsanız, ayrıca web sitenizin URL şablonuyla çalışması için canonicalize_internal_url() gerçekleştirmeniz de gerekebilir.

reverse_article_order = False

Her beslemedeki makalelerin sırasını tersine çevir

scale_news_images = None

Resimlerin ölçeklendirileceği azamı boyut (w,h). scale_news_images_to_device True ise çıktı profilinde ayarlanan aygıt ekran boyutuna ayarlanır, profilin ayarlanmadığı durumlarda hangi değer atanmışsa o bırakılır (varsayılan None).

scale_news_images_to_device = True

Resmi çıktı profilinde ayarlanmış aygıt ekran boyutlarına sığması için ölçeklendir. Çıktı profili ayarlanmamışsa göz ardı edilir.

simultaneous_downloads = 5

Eş zamanlı indirme sayısı. Sunucu titizse 1 olarak ayarlanır. BasicNewsRecipe.delay > 0 ise otomatik olarak 1’e düşürülür

summary_length = 500

Kısa tanımlamadaki azami karakter sayısı

template_css = '\n            .article_date {\n                color: gray; font-family: monospace;\n            }\n\n            .article_description {\n                text-indent: 0pt;\n            }\n\n            a.article {\n                font-weight: bold; text-align:left;\n            }\n\n            a.feed {\n                font-weight: bold;\n            }\n\n            .calibre_navbar {\n                font-family:monospace;\n            }\n    '

Şablonları biçimlendirmek için kullanılan CSS, ör., gezinti çubukları ve İçindekiler. Bu değişkeni ezmek yerine, doku ve görünümü özelleştirmek için reçetenizde extra_css kullanmalısınız.

timefmt = ' [%a, %d %b %Y]'

İlk sayfada gösterilen tarih için biçim karakter dizisi. Varsayılanı: Gün_Adı, Gün_Numarası Ay_Adı Yıl

timeout = 120.0

Sunucudan dosyaları indirirken kullanılacak saniye cinsinden zaman aşımı

title = 'Bilinmeyen Haber Kaynağı'

The title to use for the e-book

use_embedded_content = None

Normalde bir beslemede tüm makalenin gömülü olup olmadığını gömülü içeriğin uzunluğuna bakarak tahmin etmeye çalışırız. None ise, varsayılan tahmin kullanılır. True ise beslemelerin gömülü içeriği olduğunu, False ise beslemenin gömülü içeriği olmadığını var sayarız.