LOGIN
התחברות או הרשמה
Avatar
להמשך הרשמה ידנית – לחץ על כפתור ההרשמה, להרשמה/כניסה מהירה בעזרת חשבון רשת חברתית – לחץ על הלוגו בכותרת

אפס סיסמה - שכחתי את שם המשתמש

שם משתמש
סיסמה
זכור אותי

he icon   en icon

בכדי להוסיף פוסט בבלוג יש להרשם או להתחבר - ההרשמה/כניסה מתבצעת מכותרת האתר.

בחירת כלי אוטומציה המתאימים לארגון

נכתב על ידי 
שני, 12 ינואר 2015 13:17
דרגו כתבה זו
(4 הצבעות)

בתחום האוטומציה, העתיד כבר כאן, בארגונים שונים הרצת סט תסריטים אוטומטיים בסיום כל Build וקבלת תמונה על איכות המוצר בכול בוקר,  זו מציאות יום יומית.

כבר הוכח שבדיקות אוטומטיות חוסכות זמן וכסף, ומאפשרות כיסוי רחב ונכון יותר של בדיקות על מוצרים שונים.

כול זה קורה כאשר אנחנו בוחרים את הכלים המתאימים לארגון, ולמוצרים שאותם אנו מפתחים.

תהליך בחירת הכלי המתאים הינו תהליך קריטי אשר יכול להשפיע בקלות על הצלחת פרויקט הבדיקות האוטומטיות, ועל הביצועים של צוות הבדיקות.

לא מעט חברות וארגונים בוחרים ומטמיעים כלים אשר לא מתאימים לארגון ו/או לטכנולוגיה שבה הם מפתחים.

כלים לא מתאימים נבחרים מסיבות שונות כאשר העיקריים שבהם:

 

o        חוסר ידע בתחום בדיקות אוטומטיות, מבחר הכלים היום הוא עצום, וישנם מספר פרמטרים אשר יכולים לעזור לבחור את הכלי הנכון (בהמשך אפרט)

o        הוזלת מחירים – גם המחיר הוא פרמטר משמעותי בבחירת הכלי הנכון, אך לעיתים נסיון להוזלת העלות גורר לבחירה לא נכונה ולא מתאימה של הכלי.

 

בחירת כלי נכון הוא המפתח להצלחת הפרויקט בארגון. למטה אספתי כמה שלבים שיעזרו בתהליך:

 

שלב הראשון – בחינת המערכת הנבדקת

 

לצורך בחירת הכלי המתאים דרוש לנתח את המצב הקיים בארגון.

ניתוח המצב הקיים כולל את הפרמטרים הבאים:

 

טכנולוגיית פיתוח:

o        באיזה טכנולוגיה ושפת פיתוח אנחנו מפתחים

o        באיזה כלי פיתוח אנחנו משתמשים

o        מערכות הפעלה שונות (Linux, Win, Mobile)

 

פרויקטים או בחינת ה ROI:

o        הבדיקות הנדרשות למערכת? GUI, API, Log, DB

o        חלוקת המערכת הנבדקת למודולים, וטיפול בכול מודול בנפרד

o        הבנה של כמות התסריטים לבדיקה (Sanity/Regression)

o        סיבוכיות התסריטים הנבדקים

                        כמות צעדים בכל תסריט

                        Verification point – ברמת ה UI, ברמת הDB, לוגים ועוד

o        פרויקטים רלבנטיים לבדיקות אוטומטיות

o        בשלות המערכת הנבדקת לבדיקות אוטומטיות

o        סבבי בדיקות במערכת הנבדקת – כמה סבבי בדיקות רצים בזמן פיתוח\בדיקות

o        כמות תסריטים שאותם אנו רוצים למכן

 

איזה תסריטים בכל פרויקט אנו רוצים למכן

o        האם למכן תסריטי רגרסיה או שפיות או שניהם.

 

כמה תסריטי Sanity ו- Regression יש בכל פרויקט

o        ניתוח והבנה איזה תסריטים אנחנו רוצים למכן.

o        כמה זמן לוקח הרצת סט תסריטים.

o        כמה זמן לוקח לכתוב תסריט אוטומטי בודד

איזה צוות יפתח את הבדיקות האוטומטיות, צוות הבדיקות\פיתוח\צוות ייעודי לבדיקות אוטומטיות

חיבור לכלי ניהול בדיקות – האם קיים בארגון? אם קיים מה המאמץ הנדרש לחבר לכלי האוטומטי

כלי אוטומטי כחלק מסביבת העבודה (ALM, CI, CD) – חיבור לכלי Source control, חיבור לכלים להרצת Build לילי

מיקום פיזי של הצוות (עבודה מול חברות שנותנות את שירותי התמיכה ביבשת אחרת יכולה להיות בעיה לדוגמא Silk, Telerik)

 

שלב שני – בחינת הכלים האוטומטיים הקיימים בתחום

 

נבחן את הכלים האוטומטיים הקיימים היום בשוק.

o         שפת פיתוח של הכלי

o         תמיכה בפלטפורמות פיתוח שונות

o         תמיכה במערכות הפעלה שונות (Mobile, Linux)

o         אינטואיטיביות של הכלי למשתמש (המפתח), שפות פיתוח, קלות שימוש ועוד

o         זיהוי אובייקטים ודינמיות בשינויים בזיהוי

o         עבודה מול קבצים חיצוניים (Build In) - DDT

o         האם כתוב Frame Work בארגון – האם צריך לפתח מחדש?

o         קרבת הכלי לסביבות הפיתוח – יכולת כתיבה של Unit Test בעזרת הכלי

o          טיפול בשגויים במהלך הרצה - Error Handling

o         דוחות – האם חלק מהכלי או יש צורך לפתח?

o         נקודות בדיקה – האם חלק מהפונקציונליות של הכלי? או דרוש פיתוח?

 

תהליך הבחירה יתבצע לפי פרמטרים של הכלים

תאום יכולות הכלים בהתאם לסט הפרמטרים שקבענו בחלק הראשון.

התאמה של הכלי לטכנולוגיה ולשפת הפיתוח שלנו ולצוותי העבודה.

 

להלן פרמטרים עיקריים להשוואה בין כלים:

·         Test Management – built in or needed

·         Cost

·         Separate Test Execution Module

·         User Community

·         Ease of use

·         Customer Support

·         Support Cost

·         Scripting Languages

·         Version Control Integration

·         Web Testing & Browsers support

·         Manual Testing

·         Web Load/Performance Included (Yes\No)

·         Web Services Testing

·         Unit Testing Integration

·         .Net Testing

·         PowerBuilder Testing

·         Descriptive Programming (Key words, Action words , Primitives)

·         Ajax Testing

·         WPF Testing

·         SilverLight Testing

·         Java Testing

·         Test Capturing

·         Object Remapping

·         Integration in Team Foundation Server (TFS)

·         Represented in Israel

שונה לאחרונה ב שני, 12 ינואר 2015 14:08

חובה להיות משתמש רשום במערכת בכדי להגיב - ההרשמה/כניסה בכותרת האתר

חדשות מעולם הבדיקות

  • Why we test

    BBC Radio 4 is running a series this week about the Post Office Counters Horizon IT system scandal. System errors (which seem to have arisen after the rollout of new PIN keypads) led to massive discrepancies between the sums of money the post office staff took and the amounts recorded on the system. The Post Office pursued prosecutions; many of the affected staff had their livelihoods and lives ruined; some went to jail. (For non-UK readers: post office services in much of the UK outside town and city centres are delivered through a network of “sub-post offices” – post office counters set up in local or village stores, often run as a subsidiary business by the shopkeeper. The British Post Office ceased to be a Government department in 1969, instead becoming a Government-owned corporation. From 2001, it adopted a more commercial outlook, including formal share capitalisation, though with a controlling interest and two ‘golden shares’ held by the Secretary of State for Trade and Industry and the Treasury Solicitor respectively. In 2011, this was changed to a structure of 90% of shares being issued on the financial markets.) A campaigning group of sub-postmasters brought a civil claim for compensation in December 2019 after the Post Office settled, with the judge providing some scathing criticism of the Post Office, and Fujitsu, the IT supplier, who had to pay £57.75 million to settle the case (“Fudge-it-for-you” as they were known in other organisations I’ve had dealings with before Horizon). Further, in March[…]

    27.05.2020 | 5:53 קרא עוד...
  • Agile: Walls Dysfunction & People

    A comment made at the recent GRTesters meetup meeting left me with a hard choice. I could jump on that and lead us further down a rabbit hole we were already in, and well off the topic of the evening, or I could make a note to myself and revisit my thoughts later.This is "later."We were discussing team dynamics in a macro sense - how teams function, the interactions between team members, how they interacted with other teams and the like. Specifically, we were looking, briefly, at the difference in relationship between software testing specialists who were embedded with development & delivery teams and who were in external teams.The apparently "classic" case of "OK, our code is done, now we give it to the test team."The problem is, by pulling testing specialists farther away from collaboration with the people specializing in creating and writing the production facing code, the testing specialists become "others" - not part of the actual development team.The idea of pulling people into a team and having them work together is great. If you allow for teams to build trust and get to work together.So there we were, talking about teams and silos and how divisions between teams can lead to huge dysfunction for the organization. Then one person said, "I've seen these kinds of problems everywhere. But if you really want to see huge problems with silos and Us vs Them, look at how most companies do 'Agile.' Teams don't cooperate with each other. Teams don't[…]

    27.05.2020 | 8:01 קרא עוד...
  • The Post Office Horizon IT scandal, part 3 – audit, risk & perverse incentives

    The Post Office Horizon IT scandal, part 3 – audit, risk & perverse incentives In the first post of this three part series about the scandal of the Post Office’s Horizon IT system I explained the concerns I had about the approach to errors and accuracy. In the second post I talked about my experience working as an IT auditor investigating frauds, and my strong disapproval for the way the Post Office investigated and prosecuted the Horizon cases. In this, the final part, I will look at the role of internal audit and question the apparent lack of action by the Post Office’s internal auditors. Independence and access to information There’s a further aspect to the Horizon scandal that troubles me as an ex-auditor. In 2012, after some pressure from a Parliamentary committee, the Post Office commissioned the forensic IT consultancy Second Sight to review Horizon. Second Sight did produce a report that was critical of the system but they could not complete their investigation and issue a final report. They were stymied by the Post Office’s refusal to hand over crucial documents, and they were eventually sacked in 2015. The Post Office ordered Second Sight to hand over or destroy all the evidence it had collected. An experienced, competent IT audit team should have the technical expertise to conduct its own detailed system review. It was a core part of our job. I can see why in this case it made sense to bring in an outside firm, “for the optics”. However, we would have been keeping a very close eye on the[…]

    27.05.2020 | 7:32 קרא עוד...

טיפים

לרשימה המלאה >>