Listing 1 - 7 of 7 |
Sort by
|
Choose an application
Choose an application
Choose an application
Choose an application
INHOUD: Deel 1. Beschrijving van de doelstellingen van de studie - Deel 2. Verslag van het onderzoeksproces - Deel 3. Onderzoeksconclusies op microniveau. - A. Een inventaris van knelpunten en beleidsvoorstellen - B. Naar een knelpuntentabel voor (financieel) kwetsbare groepen in de gezondheidszorg - Deel 4. Onderzoeksconclusies op macroniveau - A. Evoluties in de toegankelijkheid van de Belgische gezondheidszorg. Welke rol spelen recente beleidsmaatregelen? - B. Een overzicht van fundamentele knelpunten voor de financiële toegankelijkheid van de gezondheidszorg - C. Nieuwe kwetsbare groepen in de gezondheidszorg: een theoretische situering van de problematiek
#SBIB:316.334.3M50 --- #SBIB:316.334.3M12 --- #A0405A --- 670 Gezondheid --- #KVHB:Gezondheidszorg --- #KVHB:Gezondheidspsychologie --- S20080132.JPG --- gender --- gezondheidszorg --- ziekteverzekering --- Organisatie van de gezondheidszorg: algemeen, beleid --- Medische sociologie: methoden en technieken --- 159.91 --- 362.1 --- 368 --- Sociale agogiek --- bijzondere doelgroepen --- bijzondere doelgroepen. --- kansarmoede --- Social policy --- Social problems --- sociaal beleid --- toegankelijkheid --- Sociology of health --- maatschappelijke kwetsbaarheid --- Belgium --- Bijzondere doelgroepen. --- Provincie West-Vlaanderen
Choose an application
Choose an application
This thesis aims to reduce the reliance on labeled data for training a machine learning algorithm for EEG-based sleep staging. To achieve this, we propose leveraging unlabeled data through self-supervised learning (SSL) methods. These methods aim to create proxy tasks that learn information about the data without having any task-related labels. Obtaining labeled datasets for biomedical applications, such as sleep staging, can be challenging. However, unlabeled data is often more abundant and accessible. Thus, exploring SSL methods becomes valuable in this context. The current state-of-the-art deep learning architectures for sleep staging are sequence-to-sequence models composed of an epoch encoder, a sequence encoder, and a classifier. First, an epoch encoder extracts features from the raw EEG data. Then, a sequence encoder augments these features with temporal dependencies and encodes information like stage transition rules. Finally, a classifier classifies a sequence of encoded input EEG epochs into the respective sleep stages. In this thesis, a two-step SSL paradigm is proposed for sequence-to-sequence sleep staging architectures. Specifically, the proposal suggests pretraining the epoch encoder and the sequence encoder with different SSL objectives suitable for feature extraction and sequence modeling, respectively. Similar approaches have been successful in natural language programming (NLP) with models like GPT [8]. However, it has not been explored for EEG-based sleep staging, and this thesis demonstrates its viability. The epoch encoder is pretrained using SimCLR [10], a contrastive framework that has shown success in a wide variety of applications. We show that the feature space obtained after pretraining with SimCLR effectively clusters the sleep stages. Additionally, a classifier trained on top of this pretrained epoch encoder outperforms the regular supervised model by 5 percentage points when only a small fraction (approximately 1%) of the labeled dataset is used for both. In the second phase, a pretext task is designed to further pretrain the sequence encoder on top of the pretrained epoch encoder. This allows the sequence encoder to learn context from neighboring epochs. We demonstrate that the pretrained sequence encoder also outperforms its supervised counterpart, albeit by a smaller margin of 3 percentage points in the low data regime. Overall, our two-stage SSL pretraining approach improves the sleep staging accuracy compared to random weight initialization. It achieves a 10% improvement in the low-data regime (using approximately 1% of the labeled dataset) and a 7% improvement when using 10% of the labeled dataset.
Choose an application
Als het over nationale paradepaardjes gaat, loopt de doorsnee Belgische mond over van de wafels en frietjes met mayonaise. En jenever? Dat durven we weleens vergeten, terwijl de rijke jenevergeschiedenis toch voornamelijk door de Belgen geschreven is. Tijd om de tongen los te maken! Dat de jeneverwereld al een tijd opnieuw aan het borrelen is, bewijst de ontwikkeling van heel wat nieuwe jenevers door kleine en grote spelers. In 'De jeneverrevival' proosten we op de comeback van dit eeuwenoud cultureel erfgoed. Met een borrel geschiedenis, een slok getuigenissen en een shotje cocktailrecepten. Want wat de toekomst van jenever betreft, zien we het glas niet halfvol, maar helemáál vol. Tot aan de boord.
Listing 1 - 7 of 7 |
Sort by
|