"Trying to understand Feature Selection"

CorenCoren MemberPosts:8Contributor II
edited June 2019 inHelp
I'm rather new to this whole Machine Learning thing and to RapidMiner specifically, and I'm having a bit of trouble understanding how Feature Selection works. I was wondering if a more experienced RM user would be willing to help me out.

My input is a list of 120 vectors containing 200 features each and tagged with one of 4 classes. Classification performance with Naive Bayes and 10-fold CV is 87.50%.
In an effort to improve this score further, I tried applying (backward) Feature Selection to the vectors first. This improved my score to 92.50%, which made me happy.
I then wanted to find out which features had been selected exactly to see if it would tell me anything about my data, so I added an AttributeWeightsWriter to my process. The full process looks like this:





















<参数键=“trim_lines”值= " false"/>



































































And this is the part where I'm stumped: once the process finishes running and I examine the weights in the performance screen or in the .wgt file, I notice only ONE feature gets a weight of 0 while ALL others remain at 1. This still seems to give me the score of 92.50% I mentioned before.
But when I remove the one feature from my vectors prior to classification (either manually or by using AttributeWeightsLoader > AtrributeWeightsApplier) I only get a score of 87.50%, which is my score wihtout Feature Selection. So what's going on here? FS is obviously being much more active than just turning off one single feature. How do I find out which features it's been using so I can re-produce the results?

Thanks for your help.

Answers

  • landland RapidMiner Certified Analyst, RapidMiner Certified Expert, MemberPosts:2,531Unicorn
    Hi,
    could you please post the resulting ProcessLog here? it would help me a lot...

    Greetings,
    Sebastian
  • CorenCoren MemberPosts:8Contributor II
    One ProcessLog coming up (at least I hope this is what you're looking for):
    # Generated by ProcessLog[com.rapidminer.datatable.SimpleDataTable]
    # generation performance
    0.0 NaN
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    1.0 0.875
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
    2.0 0.9250000000000002
  • CorenCoren MemberPosts:8Contributor II
    Any ideas?
    Looking at the log it looks like it achieves the 92.5% score after only one generation. If it's the case that FS turns off only one attribute per generation, then getting only one attribute with weight 0 makes sense. What I don't understand then is that when I load the weights (with the disabled feature) and run the classification task again with the improved feature set, I don't get the score of 92.50% I was expecting...
  • landland RapidMiner Certified Analyst, RapidMiner Certified Expert, MemberPosts:2,531Unicorn
    Hi,
    不幸的是我猜可能有点联合国satisfying for you: It smells like a bug in the FeatureSelection... Could you do me the favor of logging the XValidation's performance instead of the FeatureSelections Performance? This would be quite nice, because it won't return always the same best performance.

    Greetings,
    Sebastian
  • CorenCoren MemberPosts:8Contributor II
    I'm not entirely sure this is what you're asking for, but here's the ProcessLog when I put it as the last element in the ApplierChain under XValidation.
    I had to put the text in pastebin because otherwise my post would exceed the allowed character limit. Just follow this link:
    http://pastebin.com/m7a713e0f


    The XML file looks like this now:





















    <参数键=“trim_lines”值= " false"/>





































































  • landland RapidMiner Certified Analyst, RapidMiner Certified Expert, MemberPosts:2,531Unicorn
    Hi,
    这不是我想要的:)Instead I need the performance values of each single application of the XValidation. The XValidation is run each time an attribute is removed, so the performance should change each time. Here's the modified process, doing exactly what I want to know:

































    Greetings,
    Sebastian
  • CorenCoren MemberPosts:8Contributor II
    Ahh, okay, now I get it. This is the ProcessLog output for the operation you provided:
    # Generated by ProcessLog[com.rapidminer.datatable.SimpleDataTable]
    # generation performance
    0.0 0.875
    1.0 0.8666666666666668
    1.0 0.8583333333333334
    1.0 0.8833333333333332
    1.0 0.8750000000000002
    1.0 0.8833333333333332
    1.0 0.8583333333333332
    1.0 0.85
    1.0 0.8833333333333332
    1.0 0.875
    1.0 0.8666666666666666
    1.0 0.9
    1.0 0.8999999999999998
    1.0 0.8916666666666666
    1.0 0.9166666666666667
    1.0 0.875
    1.0 0.8666666666666666
    1.0 0.8916666666666666
    1.0 0.8916666666666668
    1.0 0.875
    1.0 0.8416666666666666
    1.0 0.8666666666666666
    1.0 0.8833333333333334
    1.0 0.9166666666666667
    1.0 0.875
    1.0 0.8999999999999998
    1.0 0.8583333333333332
    1.0 0.85
    1.0 0.9000000000000001
    1.0 0.8916666666666666
    1.0 0.8916666666666668
    1.0 0.9
    1.0 0.8999999999999998
    1.0 0.9
    1.0 0.8583333333333334
    1.0 0.875
    1.0 0.8916666666666666
    1.0 0.9083333333333334
    1.0 0.8666666666666668
    1.0 0.9
    1.0 0.8833333333333334
    1.0 0.9083333333333332
    1.0 0.8833333333333332
    1.0 0.9000000000000001
    1.0 0.9
    1.0 0.8833333333333334
    1.0 0.8916666666666666
    1.0 0.8833333333333334
    1.0 0.8999999999999998
    1.0 0.875
    1.0 0.8833333333333334
    1.0 0.9250000000000002
    1.0 0.8833333333333334
    1.0 0.8583333333333334
    1.0 0.9000000000000001
    1.0 0.8916666666666666
    1.0 0.8583333333333334
    1.0 0.8833333333333332
    1.0 0.8583333333333332
    1.0 0.8916666666666666
    1.0 0.9083333333333334
    1.0 0.85
    1.0 0.8916666666666666
    1.0 0.85
    1.0 0.8833333333333332
    1.0 0.8666666666666668
    1.0 0.8833333333333334
    1.0 0.8833333333333332
    1.0 0.8583333333333334
    1.0 0.8833333333333332
    1.0 0.8833333333333332
    1.0 0.9
    1.0 0.8916666666666666
    1.0 0.8999999999999998
    1.0 0.8833333333333334
    1.0 0.875
    1.0 0.9
    1.0 0.8666666666666666
    1.0 0.8916666666666666
    1.0 0.9
    1.0 0.8833333333333334
    1.0 0.8833333333333334
    1.0 0.8916666666666666
    1.0 0.9083333333333332
    1.0 0.8916666666666666
    1.0 0.9000000000000001
    1.0 0.8833333333333332
    1.0 0.8833333333333332
    1.0 0.875
    1.0 0.8916666666666666
    1.0 0.8833333333333334
    1.0 0.8833333333333334
    1.0 0.8833333333333334
    1.0 0.9083333333333334
    1.0 0.8916666666666668
    1.0 0.875
    1.0 0.875
    1.0 0.8416666666666668
    1.0 0.8916666666666666
    1.0 0.8583333333333334
    1.0 0.8833333333333334
    1.0 0.8833333333333334
    1.0 0.875
    1.0 0.8833333333333334
    1.0 0.8666666666666668
    1.0 0.8916666666666668
    1.0 0.8666666666666668
    1.0 0.875
    1.0 0.9083333333333334
    1.0 0.8666666666666666
    1.0 0.8583333333333332
    1.0 0.8833333333333332
    1.0 0.875
    1.0 0.8916666666666666
    1.0 0.8583333333333332
    1.0 0.8916666666666666
    1.0 0.9
    1.0 0.8666666666666668
    1.0 0.8916666666666666
    1.0 0.8916666666666666
    1.0 0.8583333333333334
    1.0 0.8666666666666666
    1.0 0.9
    1.0 0.8916666666666668
    1.0 0.8916666666666668
    1.0 0.8833333333333332
    1.0 0.8666666666666668
    1.0 0.8666666666666666
    1.0 0.8749999999999998
    1.0 0.8666666666666668
    1.0 0.8916666666666666
    1.0 0.8833333333333334
    1.0 0.8666666666666666
    1.0 0.8833333333333332
    1.0 0.9
    1.0 0.875
    1.0 0.85
    1.0 0.875
    1.0 0.875
    1.0 0.8916666666666666
    1.0 0.875
    1.0 0.9
    1.0 0.8833333333333334
    1.0 0.875
    1.0 0.8749999999999998
    1.0 0.8666666666666668
    1.0 0.8833333333333334
    1.0 0.8833333333333334
    1.0 0.8666666666666666
    1.0 0.8916666666666668
    1.0 0.875
    1.0 0.9000000000000001
    1.0 0.9
    1.0 0.875
    1.0 0.8666666666666666
    1.0 0.8833333333333334
    1.0 0.8583333333333334
    1.0 0.9
    1.0 0.8916666666666668
    1.0 0.9000000000000001
    1.0 0.8666666666666666
    1.0 0.8833333333333332
    1.0 0.8833333333333332
    1.0 0.8916666666666666
    1.0 0.8916666666666666
    1.0 0.8833333333333334
    1.0 0.8583333333333334
    1.0 0.8916666666666666
    1.0 0.8666666666666666
    1.0 0.8666666666666668
    1.0 0.8666666666666666
    1.0 0.8750000000000002
    1.0 0.875
    1.0 0.8833333333333334
    1.0 0.9
    1.0 0.8666666666666665
    1.0 0.8833333333333334
    1.0 0.8833333333333334
    1.0 0.8916666666666666
    1.0 0.875
    1.0 0.8833333333333334
    1.0 0.85
    1.0 0.875
    1.0 0.8666666666666666
    1.0 0.8833333333333335
    1.0 0.8916666666666668
    1.0 0.875
    1.0 0.8666666666666666
    1.0 0.8833333333333332
    1.0 0.9
    1.0 0.9083333333333334
    1.0 0.875
    1.0 0.875
    1.0 0.8916666666666666
    1.0 0.9000000000000001
    1.0 0.9
    1.0 0.9166666666666667
    1.0 0.8916666666666668
    1.0 0.8916666666666668
    1.0 0.8833333333333334
    1.0 0.875
    2.0 - 0.8750000000000002
    2.0 0.9
    2.0 0.8833333333333332
    2.0 0.8916666666666666
    2.0 0.8833333333333332
    2.0 0.9
    2.0 0.8666666666666668
    2.0 0.8583333333333334
    2.0 0.9083333333333334
    2.0 - 0.875
    2.0 0.8583333333333332
    2.0 0.8833333333333334
    2.0 0.8916666666666668
    2.0 - 0.875
    2.0 0.8916666666666666
    2.0 0.9
    2.0 0.8666666666666668
    2.0 0.8916666666666666
    2.0 0.8666666666666666
    2.0 0.8916666666666668
    2.0 0.8666666666666666
    2.0 0.8666666666666666
    2.0 0.9083333333333332
    2.0 0.8833333333333334
    2.0 - 0.875
    2.0 0.9083333333333332
    2.0 0.8833333333333332
    2.0 0.9
    2.0 0.8916666666666666
    2.0 0.8666666666666668
    2.0 0.8833333333333334
    2.0 0.8583333333333334
    2.0 0.8833333333333334
    2.0 0.8916666666666668
    2.0 0.8666666666666666
    2.0 0.8833333333333332
    2.0 0.8666666666666666
    2.0 0.9166666666666666
    2.0 0.8666666666666666
    2.0 - 0.875
    2.0 0.8666666666666666
    2.0 0.8833333333333332
    2.0 - 0.875
    2.0 0.9
    2.0 0.8583333333333332
    2.0 0.9
    2.0 0.8916666666666666
    2.0 0.8833333333333334
    2.0 0.9166666666666667
    2.0 - 0.8750000000000002
    2.0 - 0.875
    2.0 0.9
    2.0 0.8583333333333334
    2.0 0.8916666666666666
    2.0 0.85
    2.0 0.8916666666666668
    2.0 - 0.875
    2.0 - 0.875
    2.0 0.8916666666666666
    2.0 0.8583333333333332
    2.0 - 0.875
    2.0 0.8833333333333332
    2.0 0.8916666666666668
    2.0 0.9
    2.0 0.8666666666666666
    2.0 - 0.875
    2.0 0.8833333333333332
    2.0 0.8666666666666666
    2.0 0.9083333333333332
    2.0 0.8916666666666666
    2.0 - 0.875
    2.0 0.8916666666666668
    2.0 0.9
    2.0 - 0.875
    2.0 0.8916666666666668
    2.0 0.8749999999999998
    2.0 0.8833333333333334
    2.0 - 0.875
    2.0 0.8916666666666666
    2.0 - 0.875
    2.0 0.8666666666666666
    2.0 0.8916666666666668
    2.0 0.8916666666666668
    2.0 0.8833333333333332
    2.0 0.9
    2.0 0.8666666666666668
    2.0 - 0.875
    2.0 0.8583333333333332
    2.0 0.8583333333333334
    2.0 0.8916666666666666
    2.0 0.8916666666666668
    2.0 - 0.875
    2.0 - 0.875
    2.0 0.85
    2.0 0.85
    2.0 0.9083333333333334
    2.0 0.8833333333333334
    2.0 0.8583333333333332
    2.0 0.8916666666666668
    2.0 - 0.8750000000000002
    2.0 0.8833333333333335
    2.0 0.9083333333333334
    2.0 0.85
    2.0 0.8583333333333334
    2.0 0.8583333333333334
    2.0 - 0.875
    2.0 0.9
    2.0 0.9
    2.0 0.8833333333333334
    2.0 - 0.875
    2.0 0.8833333333333332
    2.0 0.8833333333333332
    2.0 0.8666666666666666
    2.0 0.8833333333333334
    2.0 - 0.875
    2.0 0.8833333333333334
    2.0 0.8583333333333334
    2.0 - 0.875
    2.0 0.8583333333333332
    2.0 0.8666666666666668
    2.0 0.8833333333333332
    2.0 0.9
    2.0 0.8916666666666666
    2.0 - 0.875
    2.0 0.9083333333333332
    2.0 0.9083333333333334
    2.0 0.8916666666666666
    2.0 0.8833333333333332
    2.0 0.85
    2.0 0.8916666666666666
    2.0 0.8833333333333334
    2.0 - 0.875
    2.0 0.8999999999999998
    2.0 0.8916666666666668
    2.0 - 0.875
    2.0 0.8666666666666668
    2.0 - 0.875
    2.0 0.8833333333333334
    2.0 0.8666666666666666
    2.0 0.8666666666666668
    2.0 0.8833333333333334
    2.0 0.8916666666666668
    2.0 0.8833333333333334
    2.0 0.9083333333333334
    2.0 - 0.875
    2.0 0.8833333333333334
    2.0 0.85
    2.0 0.8833333333333334
    2.0 0.8833333333333334
    2.0 - 0.875
    2.0 0.8666666666666666
    2.0 0.8833333333333334
    2.0 0.8583333333333332
    2.0 0.85
    2.0 0.8833333333333334
    2.0 0.8999999999999998
    2.0 0.8916666666666668
    2.0 0.8916666666666666
    2.0 0.8916666666666668
    2.0 0.9083333333333332
    2.0 - 0.875
    2.0 0.8666666666666666
    2.0 0.9083333333333334
    2.0 0.8999999999999998
    2.0 0.8916666666666668
    2.0 - 0.8750000000000002
    2.0 0.8583333333333332
    2.0 - 0.875
    2.0 0.8916666666666668
    2.0 0.8916666666666668
    2.0 0.8666666666666666
    2.0 0.9000000000000001
    2.0 - 0.875
    2.0 - 0.875
    2.0 0.8833333333333332
    2.0 0.8833333333333332
    2.0 - 0.875
    2.0 0.8833333333333334
    2.0 0.8833333333333334
    2.0 - 0.875
    2.0 0.8666666666666666
    2.0 0.8916666666666666
    2.0 0.9083333333333334
    2.0 0.8833333333333334
    2.0 0.9
    2.0 0.8916666666666666
    2.0 0.8833333333333332
    2.0 0.8666666666666666
    2.0 0.8916666666666666
    2.0 0.9166666666666666
    2.0 0.9166666666666667
    2.0 0.8916666666666666
    2.0 0.8583333333333334
    2.0 0.8833333333333334
    2.0 0.8916666666666668
    2.0 0.8833333333333332
    2.0 - 0.875
    2.0 - 0.875
    2.0 0.8916666666666666
    Hope this helps.:)
  • CorenCoren MemberPosts:8Contributor II
    So does this log tell you anything about what could possibly be going wrong? Or is this a normal log?

    I see that the algorithm reaches its highest score in generation 1, so it would make sense that only one feature is disabled. However, I can't reproduce these results manually. Maybe I'm trying to reproduce them in the wrong way? What I tried is this:

    - Run the above experiment, which saves the weights to a file, with AttributeWeightsWriter.
    - Create a new project that loads the examples and applies the weight file to it:






















    The resulting score is not the same as what's being reported by the FS algorithm though. It's 87.5% (the original score before FS) instead of 92.5%...

    Is this the correct way of writing and applying the feature selection weights?
  • landland RapidMiner Certified Analyst, RapidMiner Certified Expert, MemberPosts:2,531Unicorn
    Hi,
    the performance estimated by an cross-validation not only depends on the used data, the algorithm and its parameters, but also on the splitting of the data into the folds. It might be, that the random splitting of examples differs in a way, so that one result is better than the other. To avoid this, you will have to use global random seeds, so that the operator always gets the same sequence of random numbers.
    It is not a good idea to use this in a general setting, because you could overfit your parameters to this one single sequence of random numbers during parameter optimization, but you could use it for testing here.

    Another point is that the feature selection stops after the second generation, because the performance did not increase. To continue anyway, you could increase the "generations_without_improval" parameter.

    Greetings,
    Sebastian
Sign InorRegisterto comment.