Listing 1 - 7 of 7 |
Sort by
|
Choose an application
The global increase of income and leisure time, the improved educational levels, the progressive decrease of travel costs and the consequent 'democratization' of travels have encouraged more and more cities to enter the tourism market. However, while opportunities to attract tourists seem to be increasing, time remains a limited resource and competition to attract tourists stays fierce. Understanding what determines tourism satisfaction can be particularly useful for both policy makers and destination marketers. Satisfaction is indeed a necessary condition to ensure repeat visitation or, at least, positive word-of-mouth. Getting a better insight on these topics can therefore be extremely useful to understand whether cities are positioning themselves competitively in the tourism market. In the last 20 years, tourism has become an integral part of the so called 'experience economy': for the holidaymaker, the tourism experience is of high personal value and is accompanied with satisfying and pleasurable emotions. The destination's 'basic' offerings (e.g. accommodation, information services) are not sufficient anymore at fully satisfying tourists. Emotional reactions to the tourism experience are fundamental determinants of satisfaction and post-consumption behaviors such as willingness to come back and intention to recommend. Apart from some exceptions, however, research on the experiential dimensions of the tourism offerings remains largely underexplored. Academic authors have mainly focused on satisfaction with 'physical' destination attributes, with little evidence being available about 'immaterial' factors affecting tourists' satisfaction. This thesis wants address the following research questions: what does determine visitor satisfaction in a tourism destination? Is the emotional dimension of a tourism destination a signification determinant of visitor satisfaction? The city of Mons was chosen to empirically answer these questions. Mons - a medium size city, counting around 95,000 inhabitants and located in a former industrial region in Belgium ('Le Centre' - is the European Capital of Culture (ECoC) 2015. As part of Mons 2015, a new tourism strategy was devised aiming at boosting both cultural and business tourism. This strategy wants to build on the potential echo of this mega-event to attract at least 500,000 visitors by 2015, compared to 250,000 in 2011. The modelling strategy used in this thesis draws on Structural Equation Modelling (SEM) with the objective to explore the relationships between four constructs, namely: perceived emotional quality, perceived quality of the destination's offerings, overall satisfaction and post-consumption behavior. The model was tested on a sample of 297 visitors selected randomly at major tourist locations in Mons from January until June 2015. The results confirm that both the perceived quality of the destination's offerings and perceived quality of the emotional experience are significant predictors of visitor satisfaction, with a stronger effect of 'emotional quality'. The parameter estimate for the relationship between visitor satisfaction and post consumption behavior is also strong and positive. However, we have to reject the hypothesis according to which the perceived emotional and functional quality would impact on destination loyalty.
Choose an application
Wanneer een statistisch model en een dataset gegeven zijn, is een belangrijk aspect van statistische inferentie het schatten van parameters. Een algemeen gekende methode is de maximum likelihood schattingsmethode. Wanneer we echter te maken krijgen met complexe modellen, zoals bijvoorbeeld neurale netwerken en diffusie modellen, om bepaalde fenomenen te beschrijven, kan het voorkomen dat de likelihood moeilijk of zelfs niet berekend kan worden. In dit geval is de zojuist genoemde methode niet meer bruikbaar en zullen we dus gebruik moeten maken van andere methodes. We focussen ons op methodes die gebruik maken van simulaties. Vertrekkend van bepaalde startwaarden worden nieuwe datasets gegenereerd uit het model. De parameter waarden worden dan aangepast zodat de gesimuleerde data zo goed mogelijk op de geobserveerde data zal lijken. De methodes die we in deze thesis bekijken, zijn de methode der gesimuleerde momenten, een bin methode en een maximum likelihood schattingsmethode die gebruik maakt van kwantielen. Het vergelijken van de verschillende methodes zal gebeuren aan de hand van twee criteria. De accuraatheid van de parameters zal onder de loep genomen worden alsook de kost. Onder de kost verstaan we het aantal simulaties die nodig zijn om schattingen voor de parameters te bekomen. Het optimizatie algoritme dat we in deze thesis gebruiken, is de methode van Nelder en Mead. De methodes worden vergeleken in drie verschillende test problemen. Hier worden telkens geobserveerde datasets gegenereerd vanuit het model, waarbij de echte waarden van de parameters gekend zijn. De schattingen die bekomen worden, kunnen bijgevolg vergeleken worden met de echte waarden. In elk test probleem observeerden we dat de accuraatheid verbeterde wanneer het aantal bins toenam. Vanaf een bepaald aantal bins verslechterde de accuraatheid echter terug. We vonden dus steeds een bepaald aantal bins waarvoor de kwantiel methode het best presteerde. Voor het eerste test probleem onderzochten we een model met een Normale verdeling met parameters mu en sigma. De methode der gesimuleerde momenten kwam hier naar voren als beste methode. Een versie met 14 bins bleek binnen de kwantiel methode de beste manier om de parameters te schatten. We ondervonden hier ook dat voor de kwantiel methode de accuraatheid van de parameters minder goed is wanneer de spreiding in de geobserveerde dataset en de grootte van de gesimuleerde dataset klein zijn. Het tweede test probleem bevatte een model met een Gamma verdeling met parameters k en theta. De accuraatheid van de schattingen was, zelfs bij een hoge kost groter dan 0.1. De methode der gesimuleerde momenten behoorde ook in dit test probleem tot de betere methodes. De kwantiel methode met 11 bins werd echter beter wanneer de kost steeg. Als laatste werd een Wiener diffusie model beschouwd. De methode der gesimuleerde momenten presteerde hier duidelijk minder dan de bin en kwantiel methode. De kwantiel methode leverde de beste resultaten van de drie onderzochte methodes.
Choose an application
In a single-case experimental study (SSED), one or a few cases are repeatedly observed under several conditions, for instance in a baseline condition and a treatment condition. One such design is the AB phase design where there are two phases, the baseline or no treatment phase followed by the intervention or treatment phase. In group-comparison studies (GCED) groups of people are usually assigned to two or more groups which are then compared to one another. One such design is where there is a control or no-treatment group compared with a treatment or intervention group. These designs are quite similar to one another in that they compare the impact of treatment against its absence. Effect sizes are statistics that reflect the magnitude and direction of the treatment effects. Often, different studies yield different sizes and magnitudes of treatment effects. These effect sizes from different studies can then be combined together by technique called Meta-Analysis to yield more reliable estimates of the true effect size of a treatment. Standardized Mean Difference (SMD) is an effect size that can be used to measure the magnitude and direction of effects of GCED and SSED. Hedges' g, the effect size we used for GCEDs as used in Hedges, 1981, is the difference between the mean of the experimental or treatment group and the control group, divided by the pooled standard deviation. For SSED AB designs, we used the standardized mean difference Gingerich (1984), the difference between the mean treatment and mean baseline phase, divided by the pooled standard deviation. These effect sizes are similar but they are inherently different from one another as the GCED residual variance is a result of both, between participant variation, as well as unreliability on the individual's level (if the measurement were taken at a different time point the result would have been different) and SSED does not have between subject variances because each study often comprises a single individual. Van den Noortgate and Onghena (2008) showed how in theory SMD metric for SSED can be made comparable to SMD for GCED, and how results of studies with both kinds of designs can be combined in one meta-analysis by means of hierarchical linear models. Simulations, however, show that the converted effect sizes are biased, because the correction factor that is used depends on variance estimates that may be over estimated in small data sets. So, the purpose of the thesis is to investigate whether the use of fully Bayesian estimation for the correction factor yeilds better results. The results of this study show that the estimates for SSEDs using the Bayesian approach are less biased after the transformation compared to the maximum likelihood approach and the bias is now tolerable. The estimates using Bayesian approach are stable across different simulated conditions and the SSED effect sizes are indeed comparable to GCED effect sizes, barring the small bias. However, the estimates from maximum likelihood approach have a smaller mean squared error (MSE) despite the bias.
Choose an application
In deze Masterproef evalueren we meetinvariantie van het concept 'welfare state's range' vanuit drie verschillende perspectieven: het frequentist perspectief, de Bayesiaanse benadering en de alignment methode. De 'welfare state's range' duidt op een persoon zijn/haar attitude ten opzichte van overheidsinterventie bij welvaartsvoorzieningen en werd gemeten in ronde 4 van de European Social Survey. Het doel van onze studie is om meetinvariantie te evalueren over 22 Europese landen en daarnaast ook de performantie van de drie verschillende benaderingen te vergelijken. De steekproef bestaat uit om en bij de 40,000 respondenten. Het evalueren van meetinvariantie is belangrijk omdat een heel aantal analyses, zoals een vergelijking in gemiddelde scores of een multilevel analyse, deze veronderstelling maken. Echter, het is algemeen geweten dat de traditionele (frequentist) wijze om hiervoor te testen erg streng is en dat meetinvariantie daardoor al te snel verworpen wordt. Om aan dit probleem tegemoet te komen zijn er recent twee andere methodes ontwikkeld. In de Bayesiaanse benadering werd het concept 'approximate invariance' geïntroduceerd en in de alignment methode kunnen latente gemiddeldes en varianties geschat worden zonder al te strenge voorwaarden. Wij stellen de these dat deze nieuwe methodes ons een meer werkbare en realistische benadering aanreiken voor het testen van meetinvariantie. De resultaten van ons onderzoek laten zien dat geen enkele van de drie metodes volledige meetinvariantie kan vaststellen voor het concept 'welfare state's range'. De frequentist methode vindt 'partial scalar invariance' voor slechts 16 van de 22 landen, terwijl de Bayesiaanse model fit indicatoren 'approximate invariance' volledig verwerpen. Alleen de alignment methode blijkt in staat om onvertekende schattingen te geven. Deze stelt ook slechts 15% 'non-invariance' vast. Uit onze analyse komt dus naar voren dat de alignment methode degene is met de beste performantie. Echter, voorzichtigheid blijft geboden. Elke methode heeft zijn voor- en nadelen en in een andere context kan misschien een andere techniek het best voor de dag komen. Zo is alignment eerder een opvolganalyse en stelt het de assumptie van een meetpatroon, terwijl de Bayesiaanse methode moeilijkheden heeft met niet normaal verdeelde data. Dus in omstandigheden met grotere 'non-invariance' of non-normale data kan de frequentist methode alsnog de voorkeur genieten. Maar uiteraard bezitten de nieuwe technieken wel heel wat potentieel voor het testen van meetinvariantie in de toekomst.
Choose an application
Meta-analysis can be seen as a special case of multi-level analysis because meta-analytic data are clustered in a hierarchical way (with study participants nested in studies, but additional groupings are possible). In this sense, two-level and three-level meta-analyses represent very often used models nowadays. However, the possibility of a hierarchical model with the addition of an extra level has been barely used in practice as well as described in terms of its possible advantages and performance. In this sense, the aim of this study was to discuss the four-level analysis and its performance in a realistic but challenging situation where datasets are small and unbalanced. This is done by comparing the three-level meta-analysis with the four-level meta-analysis through simulations. Datasets were simulated assuming a balanced and an unbalanced nature of the data under a four-level hierarchy. These datasets where analyzed with a four-level and a three-level meta-analysis and the comparison was done in terms of bias, mean squared errors (MSE), standard errors (SE), Type I error rate and power for the fixed effect estimates. In addition, variance estimates are compared and the interpretation of the variances is discussed. As it was expected, the rate of Type I errors as well as the power were higher for the three-level model than for the four-level model. The SE's were also different between the two models, and the bias and MSE were significantly depending on the unbalanced of balanced nature of the simulations. In conclusion, the four-level meta-analysis showed a better performance than the three-level model in terms of controlled Type I error rate, higher power and accurate Standard Errors estimation.
Choose an application
Deze masterproef richt zich op het onderzoeken van de factoren die gerelateerd zijn aan de leerprestaties in het Vlaamse secundair onderwijs, met een specifieke focus op de invloed van interactie-effecten. Het onderzoek maakt gebruik van multivariabele multilevel regressieanalyse (ook wel meervoudige hiërarchische regressieanalyse op basis van data van het Programme for International Student Assessment (PISA) van de jaren 2018 en 2022. De belangrijkste determinant van leerprestaties in Vlaanderen blijkt onderwijsvorm. Waarbij ASO-leerlingen veel beter scoren dan het gemiddelde, terwijl BSO studenten veel slechter scoren dan gemiddeld. Daarnaast bleken ook leerjaar, de sociaaleconomische status van de school, leesmotivatie, geslacht, en het aantal wiskundelessen per week belangrijke factoren gerelateerd aan de leerprestaties in Vlaanderen. De masterproef levert ook verrassende resultaten op, waaronder de negatieve relatie van huiswerk op de prestaties in wiskunde en Nederlands, en de afname van het belang van academische verwachting en het aantal wiskundelessen tussen 2018 en 2022. Daarnaast blijkt leesmotivatie een belangrijkere rol te spelen in de leesvaardigheid dan de tijd die aan lezen wordt besteed. Leesmotivatie bleek bovendien ook een positief gerelateerd te zijn aan wiskundige geletterdheid. Een opvallende bevinding is het belang van interactie-effecten, zoals tussen migratieachtergrond en thuistaal, en tussen verschillende onderwijsvormen en andere variabelen. Sommigen van deze interacties tonen aan dat variabelen die gunstig lijken voor de leerprestaties, zoals motivatie om bij te leren of het aantal lesuren wetenschappen, in bepaalde contexten nadelig kunnen uitpakken, zoals het aantal lesuren wetenschappen in combinatie met BSO, motivatie om bij te leren in combinatie met Europese thuistaal, en de gemiddelde sociaaleconomische status van de school in combinatie met thuistaal Nederlands of TSO, onder andere. De bevindingen leiden tot belangrijke aanbevelingen voor beleidsmakers en onderwijsprofessionals. Er wordt gepleit voor een grondige herziening en verbetering van het BSO-curriculum, aangezien deze leerlingen zowel op wiskundige geletterdheid als leesvaardigheid zeer zwak scoren. Specifieke aandacht voor het versterken van wiskundige geletterdheid en leesvaardigheid is nodig. Verder wordt benadrukt dat extra ondersteuning nodig blijft voor leerlingen met een Europese en niet-Europese thuistaal, en leerlingen met een migratieachtergrond om taalbarrières te overwinnen. Daarnaast is het essentieel om te investeren in een beter disciplinair klasklimaat in de les wiskunde en het motiveren van leerlingen zowel om bij te leren, als om te lezen, aangezien deze factoren een aanzienlijke invloed hebben op hun prestaties. Tot slot onderstreept het onderzoek de noodzaak van een betere balans in de tijdsbesteding aan verschillende vakken, aangezien dit onderzoek wees op de beperkte relatie van het aantal lesuren Nederlands per week op zowel leesvaardigheid als wiskundige geletterdheid, wanneer gecorrigeerd wordt voor allerlei variabelen. De masterproef concludeert dat toekomstig onderzoek zich moet blijven richten op het verder identificeren en begrijpen van interactie-effecten binnen het onderwijs, om zo effectievere beleidsmaatregelen te ontwikkelen en de onderwijskwaliteit in Vlaanderen te verbeteren.
Choose an application
From the moment a stock is part of a portfolio, there is risk involved as the price path of the stock is not known in advance. Some risk is involved with the price change over a longer time period, but there is always the risk of a sudden jump (up or down) in the stock price. The risk involved can be managed by including derivatives of the stock. The most well known and publicly traded of these derivatives are "vanilla" put and call options. These options, when held in a portfolio, give the right (but not the obligation) to buy or sell the stock at a predetermined price - the strike price - and date - the expiration date. Buying this right requires a market-based price to be paid to the issuer of the option. This price takes into account the risks, both long term and short term, associated with the stock price. In practice, this risk is often measured by implied volatility, the only parameter in the Black-Scholes pricing model. A popular measure of this implied volatility for the S&P500 index is the CBOE VIX index. The VIX is a continuously updated time series calibrated from option prices and therefore based on the market-implied risk. The Black-Scholes model does not account for risk of a sudden jump in the stock price, but only for risk accumulated over time. There are other models available which do account for this jump risk such as the three-parameter Variance Gamma (VG) model. There have been several suggestions in literature for risk parameters which take jump risk into account. They compare the historical parameters (calibrated from the historical stock price) to the risk-neutral parameters (calibrated from option prices). These risk parameters have names such as up premium, down premium, market price of jumps, the market price of large moves or the market price of asymmetry, each with their distinctive interpretation. For example the market price of jumps (or the level premium) is a measure of the overall jump arrival rate in the risk-neutral measure relative to the historical jump arrival rate. Just like the VIX index, it could be informative (for stock traders) to have a continuously updated time series of these risk parameters. This could help to understand the risks inherent in the market at any given time. The goal of this thesis is to interpret the model and risk parameters, collect the market data (stock and option prices for the SPY ETF), perform the parameter calibrations (historical and risk-neutral), plot and finally analyze the corresponding risk parameter time series. From the results, it follows that the risk parameters react differently to the stock price evolution. For example, a sudden up move in the stock price makes the risk-neutral pricing temporarily more conservative by pricing drops more. The level premium typically moves in correspondence with the VIX index, but the market price of large moves and asymmetry shed more light on what actual change in risk the option premia charge for. The collected data also allows comparing intraday change versus overnight change in risk. For the considered time period, only the market price of jumps was found to be higher intraday than overnight. For the other risk parameters no significant conclusion could be made.
Listing 1 - 7 of 7 |
Sort by
|