API documentation for recipes

Reçete yazmaya yarayan API BasicNewsRecipe ile tanımlanmıştır

class calibre.web.feeds.news.BasicNewsRecipe(options, log, progress_reporter)[kaynak]

Tüm reçeteler için gerekli mantığı içeren temel sınıf. Bu sınıf içindeki fonksiyonları kademeli olarak ezerek kademeli olarak daha özelleştirilmiş/güçlü reçeteler oluşturabilirsiniz. Reçete oluşturmakla ilgili bir giriş kılavuzu için şuraya bakınız, Sık kullandığınız haber sitesini ekleme.

abort_article(msg=None)[kaynak]

Mevcut makalenin indirmesini durdurmak için bu yöntemi herhangi bir ön işleme yöntemi içinde çağırın. Tamamen videodan oluşan makaleler gibi uygunsuz içerik içeren makaleleri atlamak için kullanışlıdır.

abort_recipe_processing(msg)[kaynak]

Reçete indirme sisteminin bu reçeteyi indirmeyi durdurmasına sebep olur, kullanıcıya basit bir ger besleme iletisi gösterilir.

add_toc_thumbnail(article, src)[kaynak]

Bunu populate_article_metadata’dan makaledeki <img> etiketinin İçindekiler bölümünde makaleyi temsil etmeye uygun küçük resim için src özniteliği ile çağırın. Küçük resmin gerçekten kullanılıp kullanılmayacağı aygıta bağlıdır (şimdilik sadece Kindle’larda kullanılır). Referans verilen resmin başarılı şekilde indirilmiş olmasına dikkat edin, aksi takdirde yoksayılacaktır.

classmethod adeify_images(soup)[kaynak]

Reçeteniz EPUB’a dönüştürüldüğünde ve Adobe Digital Editions ile görüntülendiğinde resimlerle ilgili sorun yaşıyorsa bu metodu postprocess_html() içinden çağırın.

canonicalize_internal_url(url, is_link=True)[kaynak]

``url"nin kuralsal temsillerinin kümesini döndür. Varsayılan gerçekleme yalnızca sunucu makine adı ve URL yolunu kullanır, sorgu parametrelerini, parçaları, vs göz ardı eder. Kuralsal ifadeler bu haber kaynağının URL’leri arasında benzersiz olmalıdırlar. Olmazlarsa, dahili bağlantılar yanlış şekilde çözümlenebilir.

Parametreler:is_link – URL bir HTML dosyasındandaki dahili bağlantıdan geliyorsa Doğrudur. URL makaleyi indirmek için kullanılan URL ise Yanlış.
cleanup()[kaynak]

Tüm makaleler indirildikten sonra çağrılır. Aboneli sitelerden çıkış yapmak gibi temizlik işlerini yapmak için kullanın.

clone_browser(br)[kaynak]

Tarayıcıyı coğalt. Çoğaltılmış tarayıcılar çok iş parçacıklı indirmeler yapmak için kullanılır, çünkü mechanize iş parçacığı güvenli değildir. Varsayılan çoğaltma rutinleri çoğu tarayıcı özelleştirmesini yakalıyor olmalıdır, ancak reçetenizde egzotik bir şeyler yaparsanız, reçetenizde bu metodu ezmeli ve elle çoğaltma yapmalısınız.

Çoğaltılmış tarayıcı örnekleri çerez yönetiminde özelleştirme yapmadıysanız varsayılan olarak aynı, iş parçacığı güvenli CookieJar’ı kullanır.

default_cover(cover_file)[kaynak]

Kapağı olmayan reçeteler için genel bir kapak oluştur

download()[kaynak]

Bu reçetedeki beslemelerden makaleleri indir ve ön işleme yap. Bu metod her Reçete örneği için yalnızca bir kere çağrılmalıdır. Birden fazla çağırmak tanımlanmayan davranışlara yol açar. :return: index.html yolu

extract_readable_article(html, url)[kaynak]

'html’den ana makale içeriğini aktarır, temizler ve demet (article_html, extracted_title) olarak döndürür. Arc90’ın asıl okunabilirlik algortimasına dayanır.

get_article_url(article)[kaynak]

Her makalenin içeriğine işaret eden URL`nin çıkarılmasının düzenlenmesi için bir alt sınıfta ezin. Makale URL’si döndürür. Bir beslemeden ayrıştırılmış makaleyi temsil eden `article ile çağrılır. feedparser <https://pythonhosted.org/feedparser/>`_a göz atın. Varsayılan olarak asıl bağlantıya bakar (feedburner veya pheedo gibi bir servis tarafından eşlenen beslemeler için) ve bulunursa bunu döndürür, aksi durumda `article.link döndürür.

get_browser(*args, **kwargs)[kaynak]

Return a browser instance used to fetch documents from the web. By default it returns a mechanize browser instance that supports cookies, ignores robots.txt, handles refreshes and has a mozilla firefox user agent.

Reçeteniz önce giriş yapmanızı gerektiriyorsa, alt sınıfınızda bu metodu ezin. Örneğin, New York Times reçetesinde kullanılan aşağıdaki kod tam erişim için giriş yapar:

def get_browser(self):
    br = BasicNewsRecipe.get_browser(self)
    if self.username is not None and self.password is not None:
        br.open('https://www.nytimes.com/auth/login')
        br.select_form(name='login')
        br['USERID']   = self.username
        br['PASSWORD'] = self.password
        br.submit()
    return br
get_cover_url()[kaynak]

Bu basımın kapağına URL ya da None döndür. Varsayılan olarak normalde None olan self.cover_url öğesinin değerini döndürür. Reçetenizin e-kitap için bir kapak indirmesini istiyorsanız bu metodu alt sınıfınızda ezin, veya bu metodu çağırmadan önce üye değişken `self.cover_url`yi ayarlayın.

get_extra_css()[kaynak]

By default returns self.extra_css. Override if you want to programmatically generate the extra_css.

get_feeds()[kaynak]

Bu profil için getirilecek RSS beslemeleri listesini döndürür. Listenin her elemanı (başlık, url) biçiminde 2 elemanlı demet şeklinde olmalıdır. Başlık None veya boş karakter dizisi ise, beslemedeki başlık kullanılır. Bu method reçetenizin indirilecek besleme listesini anlamak için bir miktar işlem yapması gereken durumlarda faydalıdır. Durum böyleyse, kendi alt sınıfınızda ezin.

get_masthead_title()[kaynak]

Reçete başlığından başka bir şey kullanmak için alt sınıfta ezin

get_masthead_url()[kaynak]

Bu basım için kolombir resminin URL`sini ya da `None döndür. Varsayılan olarak normalde değeri None olan self.masthead_url üyesinin değerini döndürür. Reçetenizin e-kitap için bir kolombir indirmesini istiyorsanız bu metodu alt sınıfınızda ezin, veya bu metodu çağırmadan üye değişken `self.masthead_url`yi ayarlayın. Kolombir resimleri Kindle MOBI dosyalarında kullanılır.

get_obfuscated_article(url)[kaynak]

articles_are_obfuscated ayarlarsanız bu metod her makale URL’si ile çağrılır. Dosya sisteminde makale HTML’sini içeren bir dosyaya yol döndürmelidir. Bu dosya yinelemeli HTML motoruyla işlenir, yani web’deki sayfalara bağlantılar/resimler içerebilir.

Bu metod makale içeriğine otomatik olarak erişmeyi zorlaştırmaya çalışan siteler için faydalı olabilir.

classmethod image_url_processor(baseurl, url)[kaynak]

Resim url’lerinde bir takım işlemler yap (dinamik üretilen resimler için boyut kısıtlamalarının kaldırılması, vs.) ve işlenmiş URL’yi döndür.

index_to_soup(url_or_raw, raw=False, as_tree=False)[kaynak]

Convenience method that takes an URL to the index page and returns a BeautifulSoup of it.

url_or_raw: Bir URL ya da karakter dizisi olarak indirilmiş dizin sayfası

Bağlantı takip edilmeliyse True, aksi durumda False döndür. Ön tanımlı olarak, indiricinin yoksaymasına sebep olacak NotImplementedError yükseltir.

Parametreler:
  • url – Takip edilecek URL
  • tag – The tag from which the URL was derived
parse_feeds()[kaynak]

BasicNewsRecipe.get_feeds() tarafından döndürülen beslemelerden makale listeleri oluşturur. Feed nesnesi listesi döndürür.

parse_index()[kaynak]

Bu metod makale listeleri yerine web sayfalarını ayrıştırması gereken reçetelerde uygulanır. Kullanım alanı, yazdırma baskısındaki makaleleri bir "Yazım Baskısı" ile listeleyen haber kaynakları olabilir. Bu fonksiyon uygulanırsa, BasicNewsRecipe.parse_feeds() yerine tercih edilir.

Bir liste döndürmelidir. Listenin her elemanı ('besleme başlığı', makale listesi) biçiminde 2 elemanlı demet olmalıdır.

Her makale listesi şu biçimde sözlük içermelidir:

{
'title'       : article title,
'url'         : URL of print version,
'date'        : The publication date of the article as a string,
'description' : A summary of the article
'content'     : The full article (can be an empty string). Obsolete
                do not use, instead save the content to a temporary
                file and pass a file:///path/to/temp/file.html as
                the URL.
}

Örnek olarak, The Atlantic indirmek için olan reçeteye göz atın. Ek olarak makalenin yazarı için 'author' ekleyebilirsiniz.

Herhangi sebepten işlemeyi durdurmak ve calibre’nin kullanıcıya hata yerine basit bir ileti göstermesini isterseniz, abort_recipe_processing() metodunu çağırın.

populate_article_metadata(article, soup, first)[kaynak]

Called when each HTML page belonging to article is downloaded. Intended to be used to get article metadata like author/summary/etc. from the parsed HTML (soup).

Parametreler:
  • article – A object of class calibre.web.feeds.Article. If you change the summary, remember to also change the text_summary
  • soup – Parsed HTML belonging to this article
  • first – True iff the parsed HTML is the first page of the article.
postprocess_book(oeb, opts, log)[kaynak]

İndirilmiş e-kitap üstünde gerekli tüm art işlemleri çalıştır.

Parametreler:
  • oeb – OEBBook nesnesi
  • opts – Dönüştürme seçenekleri
postprocess_html(soup, first_fetch)[kaynak]

Bu metod indirilen her bir HTML dosyası kaynağı ile, bağlantılar ve resimler için ayrıştırıldıktan sonra çağrılır. HTML üzerinde keyfi, güçlü, işleme sonrası işlemler yapmak için kullanılabilir. İşledikten sonra soup döndürmelidir.

Parametreler:
  • soup

    A BeautifulSoup instance containing the downloaded HTML.

  • first_fetch – Bu sayfa makalenin ilk sayfasıysa True.
preprocess_html(soup)[kaynak]

Bu metod indirilen her bir HTML dosyası kaynağı ile, bağlantılar ve resimler için ayrıştırılmadan önce çağrılır. remote_tags vs. de tanımlandığı gibi temizlik yapıldıktan sonra çağrılır. HTML üzerinde keyfi, güçlü işleme öncesi işlemler yapmak için kullanılabilir. İşlemden sonra soup döndürmelidir.

soup: A BeautifulSoup instance containing the downloaded HTML.

preprocess_image(img_data, image_url)[kaynak]

Perform some processing on downloaded image data. This is called on the raw data before any resizing is done. Must return the processed raw data. Return None to skip the image.

preprocess_raw_html(raw_html, url)[kaynak]

Bu metod indirilen her bir HTML dosyası kaynağı ile, bir nesne ağacına ayrıştırılmadan önce çağrılır. raw_html web’den indirilen ham HTML’nin evrensel kodda karakter dizisi temsilidir. url HTML’nin indirildiği URL’dir.

Bu metodun preprocess_regexps’den önce hareket ettiğini unutmayın.

Bu metod işlenmiş raw_html’yi evrensel kod nesnesi olarak döndürmelidir.

classmethod print_version(url)[kaynak]

Makale içeriği olan bir web sayfasını gösteren url`yi al ve makalenin yazdırma sürümünü gösteren bir :term:`URL döndür. Varsayılan olarak hiçbir şey yapmaz. Örneğin:

def print_version(self, url):
    return url + '?&pagewanted=print'
skip_ad_pages(soup)[kaynak]

Bu metod indirilen her HTML dosyasının kaynağı ile, remove_tags, keep_only_tags gibi herhangi bir temizlik özniteliği uygulanmadan önce çağrılır. preprocess_regexps’in zaten uygulanmış olacağını unutmayın. Reçetenin reklam sayfalarını atlamasına olanak tanımak için düşünülmüştür. Eğer soup bir reklam sayfasını temsil ederse, gerçek sayfanın HTML’sini döndür. Aksi halde None döndür.

soup: A BeautifulSoup instance containing the downloaded HTML.

sort_index_by(index, weights)[kaynak]

index`deki başlıkları `weights`e göre sıralamaya yarayan kolaylık sağlayıcı metod. `index yerinde sıralanır. index döndürür.

index: Başlık listesi.

weights: Ağırlıkları başlığa haritalayan bir sözlük. Index’deki herhangi bir başlık ağırlıklı olmazsa, 0 ağırlıklı olduğu varsayılır.

classmethod tag_to_string(tag, use_alt=True, normalize_whitespace=True)[kaynak]

Convenience method to take a BeautifulSoup Tag and extract the text from it recursively, including any CDATA sections and alt tag attributes. Return a possibly empty unicode string.

use_alt: True ise metinsel içeriği olmayan etiketler için alt öznitelik kullanmaya çalış

tag: BeautifulSoup Tag

articles_are_obfuscated = False

İçerik almasını zorlaştıran web sitelerini işlemek için True olarak ayarlayın ve get_obfuscated_article() metodunu uygulayın.

auto_cleanup = False

İndirilmiş makale sayfalarından tüm metni otomatik olarak çıkart. Okunabilirlik projesinden algoritmalar kullanır. True olarak ayarlamak, indirilmiş HTML’yi temizlemekle elle uğraşmanıza gerek olmadığı anlamına gelir (Elle temizlik daha üstündür tabi).

auto_cleanup_keep = None

Otomatik temizleme algoritmasının asla kaldırmaması gereken öğeleri belirtin. Söz dizim XPath ifadesidir. Örneğin:

auto_cleanup_keep = '//div[@id="article-image"]' will keep all divs with
                                               id="article-image"
auto_cleanup_keep = '//*[@class="important"]' will keep all elements
                                            with class="important"
auto_cleanup_keep = '//div[@id="article-image"]|//span[@class="important"]'
                  will keep all divs with id="article-image" and spans
                  with class="important"
center_navbar = True

True ise gezinti çubuğu ortada hizalanır, yoksa sola hizalanır

compress_news_images = False

Tüm ölçekleme ve sıkıştırma parametrelerini göz ardı edip resimleri değiştirmeden geçirmek için False olarak ayarlayın. True ise ve diğer sıkıştırma parametreleri varsayılan ayarlarında bırakılırsa, jpeg resimler çıktı profilinde ayarlanmış ekran boyutlarına sığması için ölçeklenir ve w x h ölçeklenmiş resim boyutları olmak üzere en fazla (w * h)/16 boyutuna sıkıştırılır.

compress_news_images_auto_size = 16

Jpeg resimleri otomatik sıkıştırmada kullanılan etmen. None olarak ayarlanırsa, otomatik sıkıştırma kapatılır. Aksi halde, resimler kalite seviyesi düşürülerek , w x h piksel olarak resim boyutu olmak üzere (w * h)/compress_news_images_auto_size bayt boyutuna indirilir. Asgari jpeg kalitesi 5/100 olacaktır, yani bu kısıtlamaya uyulmaması mümkündür. Bu parametre resimler için sabit bir azami boyut sağlayan compress_news_images_max_size parametresi ile ezilebilir. scale_news_images_to_device’ı etkinleştirirseniz resim önce ölçeklenir ardından kalitesi boyutu w ve h ölçeklenmiş resim boyutları olmak üzere (w * h)/etmen altına düşene kadar düşürülür. Diğer bir deyişle, bu sıkıştırma ölçeklendirmeden sonra yapılır.

compress_news_images_max_size = None

Jpeg kalitesini resimler verilen (KBayt olarak) boyutu geçmeyecek şekilde ayarla. Ayarlanırsa, bu parametre compress_news_images_auto_size vasıtasıyla otomatik sıkıştırmayı ezer. Asgari jpeg kalitesi 5/100 olacaktır, yani bu kısıtlamaya uyulmaması mümkündür.

conversion_options = {}

İndirilen içeriğin e-kitaba dönüştürülmesini kontrol eden reçeteye özel seçenekler. Bunlar kullanıcı veya eklentiye özel ayarları ezecektir, bu yüzden yalnızca gerekliyse kullanın. Örneğin:

conversion_options = {
  'base_font_size'   : 16,
  'tags'             : 'mytag1,mytag2',
  'title'            : 'My Title',
  'linearize_tables' : True,
}
cover_margins = (0, 0, '#ffffff')

By default, the cover image returned by get_cover_url() will be used as the cover for the periodical. Overriding this in your recipe instructs calibre to render the downloaded cover into a frame whose width and height are expressed as a percentage of the downloaded cover. cover_margins = (10, 15, '#ffffff') pads the cover with a white margin 10px on the left and right, 15px on the top and bottom. Color names defined at https://www.imagemagick.org/script/color.php Note that for some reason, white does not always work in Windows. Use #ffffff instead

delay = 0

Saniye cinsinden ardışık indirmeler arası gecime. Daha hassas bir zaman için değişken ondalık sayı olarak yazılabilir.

description = u"

Bu reçetenin indirdiği içeriği tanımlayan bir kaç satır. Bu daha çok reçete listesini sunan GUI’de kullanılacaktır.

encoding = None

Hatalı karakter seti tanımlamasına sahip sitelerde kullanılmak üzere bir karakter kodlaması belirleyin. En sık kullanılan latin1 ve cp1252 dir. None ise, kodlama tahmin edilmeye çalışılır. Eğer çağrılabilirse, iki bağımsız değişken ile çağrılır: Reçete nesnesi ve kodu çözülecek kaynak. Kodu çözülmüş kaynağı döndürmelidir.

extra_css = None

Specify any extra CSS that should be added to downloaded HTML files. It will be inserted into <style> tags, just before the closing </head> tag thereby overriding all CSS except that which is declared using the style attribute on individual HTML tags. Note that if you want to programmatically generate the extra_css override the get_extra_css() method instead. For example:

extra_css = '.heading { font: serif x-large }'
feeds = None

İndirilecek besleme listesi. [url1, url2, ...] veya [('title1', url1), ('title2', url2),...] olabilir

filter_regexps = []

Hangi bağlantıların göz ardı edileceğine karar veren düzenli ifade listesi. Boşsa göz ardı edilir. Yalnızca is_link_wanted uygulanmamışsa kullanılır. Örneğin:

filter_regexps = [r'ads\.doubleclick\.net']

içinde ads.doubleclick.net olan tüm URL’leri kaldırır.

BasicNewsRecipe.match_regexps veya BasicNewsRecipe.filter_regexps den yalnızca biri tanımlanmalıdır.

handle_gzip = False

Set to True if you want to use gziped transfers. Note that some old servers flake out with this so it is off by default.

ignore_duplicate_articles = None

Bir kısımdan fazla yerde olan makalelerin kopyalarını göz ardı et. Kopya makale, aynı başlık ve/veya URL’ye sahip makaledir. Aynı başlıktaki makaleleri göz ardı etmek için, şu şekilde ayarlayın:

ignore_duplicate_articles = {'title'}

URL’ler kullanmak için, şöyle ayarlayın:

ignore_duplicate_articles = {'url'}

Başlık veya URL eşleştirme için, şu şekilde ayarlayın:

ignore_duplicate_articles = {'title', 'url'}
keep_only_tags = []

Yalnızca belirtilen etiketleri ve onların alt etiketlerini sakla. Bir etiketi belirtme formatı için bakınız BasicNewsRecipe.remove_tags. Bu liste boş değilse, <body> etiketi boşaltılır ve bu listedeki girdilerle eşleşen etiketlerle tekrar doldurulur. Örneğin:

keep_only_tags = [dict(id=['content', 'heading'])]

yalnızca "content" veya "heading"`in `id özniteliği olan etiketleri tutar.

language = 'und'

Haberlerin dili. İki veya üç karakter uzunluğunda ISO-639 kodu olmalıdır

masthead_url = None

Ön tanımlı olarak, calibre kolombir için varsayılan bir resim kullanacaktır (Yalnızca Kindle’da). Reçetenizde bunu ezmek için kolombir olarak kullanılacak bir url sağlayın.

match_regexps = []

Hangi bağlantıların takip edileceğini belirten düzenli ifade listesi. Boşsa, göz ardı edilir. Yalnızca is_link_wanted uygulanmamışsa kullanılır. Örneğin:

match_regexps = [r'page=[0-9]+']

içinde page=some number olan tüm URL’lerle eşleşir.

BasicNewsRecipe.match_regexps veya BasicNewsRecipe.filter_regexps den yalnızca biri tanımlanmalıdır.

max_articles_per_feed = 100

Her beslemeden indirilecek azami makale sayısı. Makale tarihleri olmayan beslemeler için özellikle faydalıdır. Çoğu besleme için BasicNewsRecipe.oldest_article kullanmalısınız

needs_subscription = False

True is GUI indirme sırasında kullanıcı ve parola sorar. "isteğe bağlı" olarak ayarlanmışsa kullanıcı adı ve parola isteğe bağlıdır

no_stylesheets = False

Convenient flag to disable loading of stylesheets for websites that have overly complex stylesheets unsuitable for conversion to e-book formats. If True stylesheets are not downloaded and processed

oldest_article = 7.0

Bu haber kaynağından indirilecek en eski makale. Gün olarak.

preprocess_regexps = []

İndirilen HTML üzerince çalıştırılacak regexp yer değiştirme kuralları listesi. Listenin her elemanı iki elemanlı bir demet olmalıdır. İlk eleman derlenmiş bir düzenli ifade, ikincisi tek bir eşleşme nesnesi alan ve eşleşmeyle yer değişecek karakter dizisi döndüren bir çağrılabilir olmalıdır. Örneğin:

preprocess_regexps = [
   (re.compile(r'<!--Article ends here-->.*</body>', re.DOTALL|re.IGNORECASE),
    lambda match: '</body>'),
]

<!–Article ends here–> ve </body> arasındaki herşeyi kaldırır.

publication_type = 'unknown'

Yayın biçimi gazete, magazin veya blok olarak ayarlanır. None olarak ayarlanırsa, opf dosyasına yayın biçimi metadata’sı yazılmaz.

recipe_disabled = None

Bu reçeteyi kapatmak için boş olmayan bir karakter dizisi olarak ayarlayın. Karakter dizisi kapatma iletisi olarak kullanılacaktır

recursions = 0

Makale web sitelerinde takip edilecek bağlantı seviyesi sayısı

remove_attributes = []

Tüm etiketlerden kaldırılacak öznitelik listesi. Örneğin:

remove_attributes = ['style', 'font']
remove_empty_feeds = False

True ise boş beslemeler çıktıdan kaldırılır. parse_index alt sınıfta ezilmişse bu seçeneğin hiçbir etkisi yoktur. Yalnızca feeds veya get_feeds() kullanarak bir besleme listesi döndüren reçeteler içindir. Ayrıca ignore_duplicate_articles seçeneğini kullanırsanız da kullanılır.

remove_javascript = True

İndirilen HTML’den tüm javascript etiketlerini soyacak kullanışlı etiket

remove_tags = []

Kaldırılacak etiket listesi. Belirtilen etiketler indirilen HTML’den çıkarılır. Bir etiket şu biçimdeki sözlük olarak tanımlanır:

{
 name      : 'tag name',   #e.g. 'div'
 attrs     : a dictionary, #e.g. {class: 'advertisment'}
}

All keys are optional. For a full explanation of the search criteria, see Beautiful Soup A common example:

remove_tags = [dict(name='div', attrs={'class':'advert'})]

Bu tüm <div class="advert"> etiketlerini ve alt etiketlerini indirilen :term:`HTML`den çıkarır.

remove_tags_after = None

Belirtilen etiketten sonra gelen tüm etiketleri kaldır. Bir etiketi belirtme biçimi için bakınız BasicNewsRecipe.remove_tags. Örneğin:

remove_tags_after = [dict(id='content')]

id="content" e sahip ilk elemandan sonraki tüm etiketleri kaldırır.

remove_tags_before = None

Belirtilen etiketten önce gelen tüm etiketleri kaldır. Bir etiketi belirtme biçimi için bakınız BasicNewsRecipe.remove_tags. Örneğin:

remove_tags_before = dict(id='content')

id="content" e sahip ilk elemandan önceki tüm etiketleri kaldırır.

requires_version = (0, 6, 0)

Bu reçeteyi kullanabilmek için gerekli asgari calibre sürümü

Doğru olarak ayarlanmışsa indirilen makalelerdeki diğer indirilen makaleleri gösteren bağlantılar makalenin asıl web URL’si yerine indirilen kopyasını gösterecek şekilde değiştirilir. Bu seçeneği Doğru olarak ayarlarsanız, ayrıca web sitenizin URL şablonuyla çalışması için canonicalize_internal_url() gerçekleştirmeniz de gerekebilir.

reverse_article_order = False

Her beslemedeki makalelerin sırasını tersine çevir

scale_news_images = None

Resimlerin ölçeklendirileceği azamı boyut (w,h). scale_news_images_to_device True ise çıktı profilinde ayarlanan aygıt ekran boyutuna ayarlanır, profilin ayarlanmadığı durumlarda hangi değer atanmışsa o bırakılır (varsayılan None).

scale_news_images_to_device = True

Resmi çıktı profilinde ayarlanmış aygıt ekran boyutlarına sığması için ölçeklendir. Çıktı profili ayarlanmamışsa göz ardı edilir.

simultaneous_downloads = 5

Eş zamanlı indirme sayısı. Sunucu titizse 1 olarak ayarlanır. BasicNewsRecipe.delay > 0 ise otomatik olarak 1’e düşürülür

summary_length = 500

Kısa tanımlamadaki azami karakter sayısı

template_css = u'\n .article_date {\n color: gray; font-family: monospace;\n }\n\n .article_description {\n text-indent: 0pt;\n }\n\n a.article {\n font-weight: bold; text-align:left;\n }\n\n a.feed {\n font-weight: bold;\n }\n\n .calibre_navbar {\n font-family:monospace;\n }\n '

Şablonları biçimlendirmek için kullanılan CSS, ör., gezinti çubukları ve İçindekiler. Bu değişkeni ezmek yerine, doku ve görünümü özelleştirmek için reçetenizde extra_css kullanmalısınız.

timefmt = ' [%a, %d %b %Y]'

İlk sayfada gösterilen tarih için biçim karakter dizisi. Varsayılanı: Gün_Adı, Gün_Numarası Ay_Adı Yıl

timeout = 120.0

Sunucudan dosyaları indirirken kullanılacak saniye cinsinden zaman aşımı

title = u’Bilinmeyen Haber Kayna\u011f\u0131'

The title to use for the e-book

use_embedded_content = None

Normalde bir beslemede tüm makalenin gömülü olup olmadığını gömülü içeriğin uzunluğuna bakarak tahmin etmeye çalışırız. None ise, varsayılan tahmin kullanılır. True ise beslemelerin gömülü içeriği olduğunu, False ise beslemenin gömülü içeriği olmadığını var sayarız.