Wie Tag und Nacht entstanden ∘ Indische Sage ∘ Mythologie ∘ Prajapati - Die Welt war anfangs nur Wasser, eine wogende Flut. Das Wasser wünschte sich aber fortzupflanzen, kasteite sich und tat Buße. Als es Buße tat, entstand ein goldenes Ei. Ein Jahr gab es damals noch nicht, doch das goldene Ei schwamm so lange umher, wie heute ein Jahr ausmacht.
Der geglückte Tag - Peter Handke - Leben - Wer hat schon einen geglückten Tag erlebt? Sagen werden das zunächst von sich wahrscheinlich die Meisten. Und es wird dann nötig sein, weiterzufragen.
Command line:
```bash
jupyter nbconvert --to latex --TagRemovePreprocessor.remove_cell_tags='{"skip"}' --TagRemovePreprocessor.enabled=True 'nb.ipynb'
```
Also, to use it via python you need to enable the `TagRemoveProcessor` manually.
See: [source](https://stackoverflow.com/q/58564376/991496)
Parabel - Tag und Nacht - Rabbi Pinchas und sein Schüler - Rabbi Pinchas befragte einst seinen Schüler, ob er denn wisse, wie man die Stunde bestimmt ...
Termin - Oscar hat einen Termin und findet den Kalender nicht. Er erinnert sich allerdings daran, dass sein Termin zwei Tage nach dem Tag vor dem Tag ...
We propose a novel attention network for document annotation with user-generated tags. The network is designed according to the human reading and annotation behaviour. Usually, users try to digest the title and obtain a rough idea about the topic first, and then read the content of the document. Present research shows that the title metadata could largely affect the social annotation. To better utilise this information, we design a framework that separates the title from the content of a document and apply a title-guided attention mechanism over each sentence in the content. We also propose two semanticbased loss regularisers that enforce the output of the network to conform to label semantics, i.e. similarity and subsumption. We analyse each part of the proposed system with two real-world open datasets on publication and question annotation. The integrated approach, Joint Multi-label Attention Network (JMAN), significantly outperformed the Bidirectional Gated Recurrent Unit (Bi-GRU) by around 13%-26% and the Hierarchical Attention Network (HAN) by around 4%-12% on both datasets, with around 10%-30% reduction of training time.
S. Pandya, P. Virparia, and R. Chavda. International Journal on Soft Computing, Artificial Intelligence and Applications (IJSCAI)5
(1):
09 - 15 (February 2016)
H. Dong, W. Wang, K. Huang, and F. Coenen. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers)
, page 1348--1354. Minneapolis, Minnesota, Association for Computational Linguistics, (June 2019)
X. Shi, H. Huang, S. Zhao, P. Jian, and Y. Tang. Database Systems for Advanced Applications
, page 420--424. Cham, Springer International Publishing, (2019)